por Farhad Manjoo
colunista de opinião NYT 29/07/2020 (tradução e adaptação por Evandro Milet)
As máquinas estão ganhando a capacidade de escrever e estão ficando terrivelmente boas nisso.
Eu realmente nunca me preocupei com o fato de os computadores estarem disputando o meu trabalho. Para dizer a verdade, muitas vezes eu rezo por isso. Quão melhor seria minha vida – quanto melhor seria a vida de meu editor, para não falar dos pobres leitores – se eu pudesse pedir a uma máquina onisciente que sugerisse a melhor maneira de iniciar esta coluna? Nunca me preocupei realmente que um computador possa tomar o meu trabalho, porque nunca parecia remotamente possível. Um computador escrevendo uma coluna de jornal? Esse será “o” dia.
Bem, amigos, o dia está próximo. Este mês, o OpenAI, um laboratório de pesquisa de inteligência artificial com sede em São Francisco, começou a permitir acesso limitado a um software que é ao mesmo tempo incrível, assustador, humilhante e mais do que um pouco aterrorizante.
O novo software da OpenAI, chamado GPT-3, é de longe o mais poderoso “modelo de linguagem” já criado. Um modelo de linguagem é um sistema de inteligência artificial que foi treinado em uma enorme quantidade de textos; com muitos textos e bastante processamento a máquina começa a aprender conexões probabilísticas entre as palavras. Mais claramente: o GPT-3 pode ler e escrever. E nada mal.
Um software como GPT-3 pode ser extremamente útil. Máquinas que podem entender e responder a humanos em nosso próprio idioma podem criar assistentes digitais mais úteis, personagens de videogame mais realistas ou professores virtuais personalizados para o estilo de aprendizagem de cada aluno. Em vez de escrever código, um dia você vai poder criar software apenas dizendo às máquinas o que fazer.
A OpenAI concedeu a poucas centenas de desenvolvedores de software acesso ao GPT-3, e muitos vêm enchendo o Twitter nas últimas semanas com demonstrações de seus recursos surpreendentes, que variam do mundano ao sublime, até o possivelmente bastante perigoso.
Para perceber o perigo potencial, ajuda entender como o GPT-3 funciona. Os modelos de idiomas geralmente precisam ser treinados para usos específicos – um bot de serviço ao cliente usado por um varejista pode precisar ser ajustado com dados sobre produtos, enquanto um bot usado por uma companhia aérea precisaria aprender sobre voos. Mas o GPT-3 não precisa de muito treinamento extra. Dê ao GPT-3 um aviso em idioma natural – “Por meio deste eu renuncio” ou “Caro John, estou deixando você” – e o software preencherá o restante com texto assustadoramente próximo do que um humano produziria.
E não são respostas enlatadas. O GPT-3 é capaz de gerar prosa inteiramente original, coerente e, às vezes, até factual. E não apenas prosa – pode escrever poesia, diálogos, memes, código de computador e quem sabe mais o quê.
A flexibilidade do GPT-3 é um avanço importante. Matt Shumer, executivo-chefe de uma empresa chamada OthersideAI, está usando o GPT-3 para criar um serviço que responde ao e-mail em seu nome – você escreve a essência do que gostaria de dizer e o computador cria um email completo, diferenciado e educado com os pontos que você marcou.
Outra empresa, Latitude, está usando o GPT-3 para criar personagens realistas e interativos em jogos de aventura com texto. Funciona surpreendentemente bem – o software não é apenas coerente, mas também pode ser bastante criativo, surpreendente e até engraçado.
Porém, softwares como o GPT-3 aumentam a preocupação com o uso indevido assustador. Se os computadores puderem produzir grandes quantidades de texto humano, como poderemos distinguir humanos e máquinas? Em um trabalho de pesquisa detalhando o poder da GPT-3, seus criadores citam uma série de perigos, incluindo “desinformação, spam, phishing, redação de trabalhos acadêmicos fraudulentos e golpes em geral.
Existem outros problemas. Por ter sido treinado em textos encontrados on-line, é provável que o GPT-3 espelhe muitos preconceitos encontrados na sociedade. Como podemos garantir que o texto produzido não seja racista ou sexista? O GPT-3 também não é bom em diferenciar fatos da ficção. .
Para seu crédito, a OpenAI adotou muitas precauções. Por enquanto, a empresa está deixando apenas um pequeno número de pessoas usar o sistema e está examinando cada aplicativo produzido com ele. A empresa também proíbe o GPT-3 de se passar por humanos – ou seja, todo texto produzido pelo software deve divulgar que foi escrito por um bot. A OpenAI também convidou pesquisadores externos para estudar os vieses do sistema, na esperança de mitigá-los.
Essas precauções podem ser suficientes por enquanto. Mas o GPT-3 é tão bom em imitar a escrita humana que às vezes me dá calafrios. Daqui a pouco tempo, seu humilde correspondente poderá ser levado à aposentadoria por uma máquina – e talvez você até sinta minha falta quando eu partir.
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal basta clicar no link:
https://chat.whatsapp.com/BJnVYTeAIS5EDxI3py98KK
Este é um grupo de WhatsApp restrito para postagens diárias de Evandro Milet.
Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana em A Gazeta, encontram-se em http://evandromilet.com.br/