Dado o poder disruptivo da inteligência artificial, sociedade precisa aprender a enfrentar as externalidades negativas
Por Dora Kaufman — Para o Valor 10/02/2023
O lendário músico australiano Nick Cave recebeu de um fã uma música escrita pelo ChatGPT, teoricamente reproduzindo seu estilo. Cave reagiu contra de imediato, chamou o chatbot de “exercício de replicação como farsa”, ponderando que o processo de composição é “um negócio de sangue e coragem”. O cantor e compositor de samba de pagode Péricles, em depoimento ao “Fantástico”, confessou que o ChatGPT é assustador. O ChatGPT assusta, em parte, porque ameaça nossos atributos identitários, espécie de “reserva de mercado”. Antecipando o futuro vem a pergunta: o que restará para os humanos?
As descobertas de Giordano Bruno no século XVI, que com seu pluralismo cósmico deslocou o planeta Terra e o ser humano do centro do universo, de Charles Darwin no século XIX, de que todos os seres vivos descendem de um ancestral comum, e a inteligência artificial no século XXI, com máquinas desempenhando tarefas antes exclusivas dos humanos, são revelações científicas que, em algum sentido, questionam a supremacia humana.
Na última década os sistemas de IA preditiva – pela capacidade de lidar com grandes volumes de dados, logo gerar previsões mais assertivas – ameaçaram nossa supremacia nos processos decisórios. Gradativamente estamos sendo substituídos por “decisões automatizadas”. O ChatGPT vai além, invade nosso espaço criativo.
Disponibilizado para experimentação gratuita em 30 de novembro último pela OpenAI, laboratório de pesquisa financiado pela Microsoft, o ChatGPT rapidamente tornou-se viral, atingindo em fins de janeiro 100 milhões de visitantes únicos. O ChatGPT responde a comandos em linguagem natural sobre uma infinidade de temas, alguns deles com certo grau de sofisticação; o modelo é baseado na arquitetura Transformer desenvolvida pelo Google em 2017, e disponibilizada em sistema de “open source” – o que levanta a questão de se as gigantes de tecnologia, em acirrada disputa pelo pioneirismo na inovação tecnológico, vão preservar ou não a prática de código aberto.
O ChatGPT é capaz de produzir conteúdo original a partir de grandes bases de dados, ou seja, sintetiza texto, imagem ou vídeo, enquadrando-se na categoria denominada “IA generativa”. O ano de 2022 foi particularmente profícuo: o Imagen do Google foi lançado em maio; o Stable Diffusion da Stability AI em agosto; e a OpenAI lançou em julho o DALL-E, em setembro o DALL-E 2, e em novembro o ChatGPT. Esta semana, o Google anunciou seu modelo concorrente do ChatGPT, integrado ao seu sistema de busca, chamado Bard.
A primeira arquitetura de IA generativa data de 2014, a GAN (generative adversarial network), projetada por Ian Goodfellow e colegas. Ela tem aplicações benéficas, como na saúde para melhorar imagens de tomografia e produzir dados sintéticos, e maléficas, como as deep fakes, fak news com sintetização de imagem e som.
Apesar de ainda estar em seus primórdios, é grande a expectativa sobre a IA generativa. Um indicador objetivo é o montante de investimento: em 2022, foram injetados US$ 1,37 bilhão em IA generativa em 78 negócios, quase o mesmo valor investido nos últimos cinco anos em inteligência artificial em geral. As startups de IA generativa receberam vultosos aportes de fundos de investimento, atingindo valores de mercado astronômicos para empresas iniciantes, como no caso da Jasper, que captou US$ 125 milhões em outubro, valendo US$ 1,5 bilhão; e a Stability AI, que levantou US$ 101 milhões no mesmo mês, valendo US$ 1 bilhão. Calcula-se que existam atualmente 450 startups de IA generativa. A competição é feroz, o que explica o lançamento de sistemas ainda não totalmente validados. Segundo o “New York Times”, os funcionários da OpenAI foram surpreendidos em meados de novembro com a ordem de lançar um chatbot em duas semanas (a previsão era início de 2023).
A aparente consistência das respostas do ChatGPT, aliada à magia da interface por meio de diálogo, induz o usuário ao equívoco de tomá-las como precisas e verdadeiras. A própria OpenAI, contudo, alertou para o fato de que, ocasionalmente, o ChatGPT pode gerar informações incorretas e produzir instruções prejudiciais ou conteúdos tendenciosos, e que se trata de um projeto de pesquisa que deverá seguir sendo refinado. Em 31 de janeiro, a OpenAI lançou o “classificador”, sistema treinado para distinguir um texto escrito por um ser humano de um texto escrito por IA. Diante de sua limitação – apenas 26% de textos em inglês produzidos por IA foram identificados corretamente -, a OpenAI recomenda o uso de outros métodos de determinação da fonte (como o DetectGPT, desenvolvido por pesquisadores da Universidade de Stanford). A polêmica, contudo, está instaurada.
Artistas estão contestando a originalidade das imagens geradas pelo ChatGPT. Em meados de janeiro, por exemplo, a Getty Images moveu uma ação no Reino Unido e uma ação coletiva no tribunal federal da Califórnia em nome de três artistas contra a Stability AI, desenvolvedora do aplicativo Stable Diffusion. A alegação é que a empresa infringiu os direitos autorais, com potenciais danos permanentes ao mercado de arte e aos artistas. O aplicativo “é um parasita que, se proliferar, causará danos irreparáveis aos artistas, agora e no futuro”, alegou Matthew Butterick, um dos advogados dos artistas.
Nathan Sanders, cientista de dados ligado ao Berkman Klein Center de Harvard, e Bruce Schneier, especialista em segurança computacional ligado à Harvard Kennedy School, argumentaram em artigo no “New York Times” que a IA generativa permite que se faça um tipo de lobby que ameaça a democracia – ao automaticamente fazer comentários sobre propostas ou inundar caixas postais de legisladores.
Marc Rotenberg, fundador do Center for AI and Digital Policy, contestou o argumento em sua conta no LinkedIn com base em três premissas: a) lobistas poderosos em Washington possuem tecnologias digitais sofisticadas, incluindo serviços de notícias e técnicas de segmentação poderosas, inacessíveis a pequenas organizações e ONGs, logo os sistemas de IA generativa, como o ChatGPT, representam a possibilidade de os pequenos entrarem nesse jogo; b) a maioria dos lobistas em Washington é capaz de distinguir entre campanhas “fakes” e autênticas; e c) a decisão política de alto nível, em geral, ocorre nas interações interpessoais com troca de favorecimentos.
Aparentemente, o embate mais intenso está se dando na comunidade de educação. O departamento de educação da cidade de Nova York, alegando preocupação com o impacto negativo no aprendizado, proibiu o uso do ChatGPT na sua rede de escolas. O Instituto de Estudos Políticos de Paris (Science Po), respeitada instituição de ensino superior nas áreas de ciências humanas e sociais, baniu o ChatGPT; uma de suas diretoras, Myriam Dubois-Monkachi, justifica a decisão pelos efeitos perversos na integridade acadêmica.
Em paralelo, publicações acadêmicas de prestígio como “Nature” e “Science” vetaram artigos submetidos em coautoria com o ChatGPT, resolução difícil de ser contestada: o autor de uma publicação acadêmica assume a responsabilidade legal pelo conteúdo do artigo, pela solidez da metodologia, pela veracidade dos dados coletados e utilizados, e pela originalidade das ideias, o que não é o caso de uma tecnologia.
Pelas primeiras manifestações, a comunidade está dividida; em outra direção, alguns educadores argumentam que o setor precisa identificar como integrar as novas tecnologias digitais nas práticas educativas, acompanhar a mudança da lógica de máquinas programadas para máquinas probabilísticas e seus efeitos sobre o aprendizado.
Algumas faculdade americanas, inclusive, estão reestruturando seus cursos, reformulando seus sistemas de avaliação do desempenho do aluno e tomando medidas preventivas: mais de 6 mil professores da Universidade Harvard, Universidade Yale, Universidade de Rhode Island e outras se inscreveram para usar o GPTZero, programa criado por Edward Tian, aluno da Universidade de Princeton, que promete detectar rapidamente texto gerado por IA.
Recente reportagem do Porvir – “ChatGPT: Inteligência artificial bate à porta da escola. E agora?” -, principal plataforma de conteúdos sobre inovações educacionais do Brasil, desde 2019 sem fins lucrativos, mostra potenciais contribuições na sala de aula e no aprendizado do aluno.
A forte reação negativa de parte do ecossistema de educação reflete o conservadorismo do setor e a lacuna de conhecimento sobre as novas tecnologias digitais. Qualquer tecnologia disruptiva, como é o caso da inteligência artificial, coloca em cheque procedimentos e comportamentos estabelecidos na sociedade humana. Isso sugere que, para enfrentar o problema de maneira adequada, é preciso rever e melhorar os padrões de avaliação, as metodologias, os procedimentos de revisão de pares nas publicações acadêmicas.
Os modelos de IA preditiva e IA generativa precisam ser experimentados, permitindo identificar em que contextos e em quais funcionalidades agregam valor, e quais os potenciais danos e os caminhos de mitigação. Universidades têm de atualizar seus comitês de ética, obsoletos em relação à natureza da IA. O desafio é que cada vez fica mais difícil competir pelo básico, praticamente em qualquer área o básico está dominado pela tecnologia, e a tendência é ampliar e melhorar esse “básico tecnológico”.
A inteligência artificial, como toda tecnologia de propósito geral, está reconfigurando a lógica e o funcionamento da sociedade, logo provocando um período de reorganização no que Joseph Schumpeter denominou de “destruição criativa”. Os modelos de IA preditiva começaram a ser adotados em larga escala a partir de 2016-2017 e os modelos de IA generativa ainda estão em fase de experimentação, mas, dado o poder disruptivo da inteligência artificial, é mandatório que sociedade enfrente, com urgência, as externalidades negativas.
O desafio de proteger a sociedade dos potenciais danos não é trivial. As iniciativas de autorregulamentação por parte das gigantes de tecnologia não tiveram êxito, ainda não temos um marco regulatório da IA em nenhum lugar do mundo, temos somente propostas regulatórias em debate e diretrizes legais pontuais, e são raras as organizações que estabeleceram governança de IA, comitê de ética de IA, código de ética de IA, ou ao menos diretrizes básicas de conduta em IA. O ChatGPT só torna essa urgência mais urgente.
Dora Kaufman é professora da PUC SP, colunista da “Época Negócios” e autora do livro “Desmistificando a Inteligência Artificial”
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/BpgpihnE3RELB1U8pSS04s(04) para WhatsApp ou https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/