Como você sabe se foi um ser humano que escreveu isso?


por Farhad Manjoo 

colunista de opinião NYT 29/07/2020 (tradução e adaptação por Evandro Milet)

As máquinas estão ganhando a capacidade de escrever e estão ficando terrivelmente boas nisso.

Eu realmente nunca me preocupei com o fato de os computadores estarem disputando o meu trabalho. Para dizer a verdade, muitas vezes eu rezo por isso. Quão melhor seria minha vida – quanto melhor seria a vida de meu editor, para não falar dos pobres leitores – se eu pudesse pedir a uma máquina onisciente que sugerisse a melhor maneira de iniciar esta coluna? Nunca me preocupei realmente que um computador possa tomar o meu trabalho, porque nunca parecia remotamente possível.  Um computador escrevendo uma coluna de jornal? Esse será “o” dia.

Bem, amigos, o dia está próximo. Este mês, o OpenAI, um laboratório de pesquisa de inteligência artificial com sede em São Francisco, começou a permitir acesso limitado a um software que é ao mesmo tempo incrível, assustador, humilhante e mais do que um pouco aterrorizante.

O novo software da OpenAI, chamado GPT-3, é de longe o mais poderoso “modelo de linguagem” já criado. Um modelo de linguagem é um sistema de inteligência artificial que foi treinado em uma enorme quantidade de textos; com muitos textos e bastante processamento a máquina começa a aprender conexões probabilísticas entre as palavras. Mais claramente: o GPT-3 pode ler e escrever. E nada mal.

Um software como GPT-3 pode ser extremamente útil. Máquinas que podem entender e responder a humanos em nosso próprio idioma podem criar assistentes digitais mais úteis, personagens de videogame mais realistas ou professores virtuais personalizados para o estilo de aprendizagem de cada aluno. Em vez de escrever código, um dia você vai poder criar software apenas dizendo às máquinas o que fazer.

A OpenAI concedeu a poucas centenas de desenvolvedores de software acesso ao GPT-3, e muitos vêm enchendo o Twitter nas últimas semanas com demonstrações de seus recursos surpreendentes, que variam do mundano ao sublime, até o possivelmente bastante perigoso.

Para perceber o perigo potencial, ajuda entender como o GPT-3 funciona. Os modelos de idiomas geralmente precisam ser treinados para usos específicos – um bot de serviço ao cliente usado por um varejista pode precisar ser ajustado com dados sobre produtos, enquanto um bot usado por uma companhia aérea precisaria aprender sobre voos. Mas o GPT-3 não precisa de muito treinamento extra. Dê ao GPT-3 um aviso em idioma natural – “Por meio deste eu renuncio” ou “Caro John, estou deixando você” – e o software preencherá o restante com texto assustadoramente próximo do que um humano produziria.

E não são respostas enlatadas. O GPT-3 é capaz de gerar prosa inteiramente original, coerente e, às vezes, até factual. E não apenas prosa – pode escrever poesia, diálogos, memes, código de computador e quem sabe mais o quê.

A flexibilidade do GPT-3 é um avanço importante. Matt Shumer, executivo-chefe de uma empresa chamada OthersideAI, está usando o GPT-3 para criar um serviço que responde ao e-mail em seu nome – você escreve a essência do que gostaria de dizer e o computador cria um email completo, diferenciado e educado com os pontos que você marcou.

Outra empresa, Latitude, está usando o GPT-3 para criar personagens realistas e interativos em jogos de aventura com texto. Funciona surpreendentemente bem – o software não é apenas coerente, mas também pode ser bastante criativo, surpreendente e até engraçado.

Porém, softwares como o GPT-3 aumentam a preocupação com o uso indevido assustador. Se os computadores puderem produzir grandes quantidades de texto humano, como poderemos distinguir humanos e máquinas? Em um trabalho de pesquisa detalhando o poder da GPT-3, seus criadores citam uma série de perigos, incluindo “desinformação, spam, phishing, redação de trabalhos acadêmicos fraudulentos e golpes em geral.

Existem outros problemas. Por ter sido treinado em textos encontrados on-line, é provável que o GPT-3 espelhe muitos preconceitos encontrados na sociedade. Como podemos garantir que o texto produzido não seja racista ou sexista? O GPT-3 também não é bom em diferenciar fatos da ficção. .

Para seu crédito, a OpenAI adotou muitas precauções. Por enquanto, a empresa está deixando apenas um pequeno número de pessoas usar o sistema e está examinando cada aplicativo produzido com ele. A empresa também proíbe o GPT-3 de se passar por humanos – ou seja, todo texto produzido pelo software deve divulgar que foi escrito por um bot. A OpenAI também convidou pesquisadores externos para estudar os vieses do sistema, na esperança de mitigá-los.

Essas precauções podem ser suficientes por enquanto. Mas o GPT-3 é tão bom em imitar a escrita humana que às vezes me dá calafrios. Daqui a pouco tempo, seu humilde correspondente poderá ser levado à aposentadoria por uma máquina – e talvez você até sinta minha falta quando eu partir.

Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal basta clicar no link: 

https://chat.whatsapp.com/BJnVYTeAIS5EDxI3py98KK

Este é um grupo de WhatsApp restrito para postagens diárias de Evandro Milet. 

Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana em A Gazeta, encontram-se em http://evandromilet.com.br/

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s

%d blogueiros gostam disto: