‘IA com capacidade humana’ já é papo do passado no Vale do Silício, que agora vive pragmatismo


Fracasso do GPT-5 e recuo de Sam Altman sobre o assunto é sinal de que os ventos estão mudando em relação ao que esperar da IA

Por Sharon Goldman – Estadão/Fortune – 26/08/2025 

Em uma época não muito distante — ou seja, ainda no início deste ano —, o Vale do Silício não parava de falar sobre inteligência artificial geral (AGI, na sigla em inglês), um sistema hipotético com capacidade humana.

O CEO da OpenAI, Sam Altman, escreveu em janeiro: “agora estamos confiantes de que sabemos como construir a AGI”. Isso depois de ter dito em um podcast da aceleradora Y Combinator, no final de 2024, que a AGI poderia ser alcançada em 2025 e ter tuitado, em 2024, que a OpenAI tinha “alcançado a AGI internamente”. A OpenAI estava tão fascinada pela AGI que sua diretora de vendas apelidou sua equipe de “sherpas da AGI” e seu ex-cientista-chefe, Ilya Sutskever, liderou os colegas pesquisadores na ideia: “Sinta a AGI!”

A Microsoft, parceira e principal financiadora da OpenAI, publicou um artigo em 2024 afirmando que o modelo de IA GPT-4 da OpenAI exibia “sinais de AGI”. Enquanto isso, Elon Musk fundou a xAI em março de 2023 com a missão de construir a AGI, um desenvolvimento que, segundo ele, poderia ocorrer já em 2025 ou 2026.

Demis Hassabis, cofundador da Googe DeepMind e ganhador do Prêmio Nobel, disse aos repórteres que o mundo estava “à beira” da AGI. O CEO da Meta, Mark Zuckerberg, disse que sua empresa estava comprometida em “construir inteligência geral completa” para impulsionar a próxima geração de seus produtos e serviços. 

Dario Amodei, cofundador e CEO da Anthropic, embora tenha dito que não gostava do termo AGI, afirmou que uma “IA poderosa” poderia chegar até 2027 e inaugurar uma nova era de saúde e abundância — se não acabasse matando todos nós. Eric Schmidt, ex-CEO do Google que se tornou um investidor em tecnologia, disse em uma palestra em abril que teríamos a AGI “dentro de três a cinco anos”.

Agora, a febre da AGI está passando — o que equivale a uma mudança geral de visão em direção ao pragmatismo, em oposição à busca por visões utópicas. Por exemplo, em uma aparição na CNBC, Altman chamou a AGI de “um termo não muito útil”. No New York Times, Schmidt — sim, o mesmo cara que estava falando sobre a AGI em abril — implorou ao Vale do Silício para parar de se fixar na IA super-humana, alertando que a obsessão distrai da construção de tecnologia útil. Tanto o pioneiro da IA, Andrew Ng, quanto o czar da IA dos EUA, David Sacks, chamaram a AGI de “superestimada”.

AGI: mal definida e superestimada

O que aconteceu? Bem, primeiro, um pouco de contexto. Todos concordam que AGI significa “inteligência artificial geral”. E isso é praticamente tudo em que todos concordam. As pessoas definem o termo de maneiras sutilmente diferentes, mas importantes. Um dos primeiros a usar o termo foi o físico Mark Avrum Gubrud, que em um artigo de pesquisa de 1997 escreveu que “por inteligência artificial geral avançada, quero dizer sistemas de IA que rivalizam ou superam o cérebro humano em complexidade e velocidade, que podem adquirir, manipular e raciocinar com conhecimento geral e que são utilizáveis em essencialmente qualquer fase de operações industriais ou militares onde a inteligência humana seria necessária”.

O termo foi posteriormente adotado e popularizado pelo pesquisador de IA, Shane Legg, que viria a cofundar a Googled DeepMind com Hassabis e os colegas cientistas da computação, Ben Goertzel e Peter Voss, no início dos anos 2000. Eles definiram a AGI, de acordo com Voss, como um sistema de IA capaz de aprender a “executar com confiabilidade qualquer tarefa cognitiva que um humano competente possa realizar”. Essa definição tinha alguns problemas — por exemplo, quem decide quem se qualifica como um humano competente? 

E, desde então, outros pesquisadores de IA desenvolveram definições diferentes que veem a AGI como uma IA tão capaz quanto qualquer especialista humano em todas as tarefas, em oposição a apenas uma pessoa “competente”. A OpenAI foi fundada no final de 2015 com a missão explícita de desenvolver a AGI “para o benefício de todos” e acrescentou seu próprio toque ao debate sobre a definição de AGI. O estatuto da empresa diz que a AGI é um sistema autônomo que pode “superar os humanos na maioria dos trabalhos economicamente valiosos”.

Mas seja o que for a AGI, o importante hoje em dia, ao que parece, é não falar sobre ela. E a razão para isso tem a ver com as crescentes preocupações de que o progresso no desenvolvimento da IA possa não estar avançando tão rapidamente quanto os especialistas do setor anunciavam há apenas alguns meses — e com os indícios crescentes de que toda a conversa sobre a AGI estava alimentando expectativas exageradas que a própria tecnologia não poderia satisfazer.

Entre os principais fatores que contribuíram para a queda repentina da AGI, parece ter sido o lançamento do modelo GPT-5 da OpenAI, no início de agosto. Pouco mais de dois anos após a Microsoft afirmar que o GPT-4 mostrava “sinais” de AGI, o novo modelo chegou com um estrondo: melhorias incrementais envoltas em uma arquitetura de roteamento, e não a inovação que muitos esperavam. Goertzel, que ajudou a cunhar a expressão AGI, lembrou ao público que, embora o GPT-5 seja impressionante, ele ainda está longe de ser uma verdadeira AGI — sem compreensão real, aprendizado contínuo ou experiência fundamentada.

O recuo de Altman em relação à AGI é especialmente impressionante, dada sua posição anterior. A OpenAI foi construída com base no hype da AGI: a AGI está na missão fundadora da empresa, ajudou a levantar bilhões em capital e sustenta a parceria com a Microsoft. Uma cláusula em seu acordo afirma que, se o conselho sem fins lucrativos da OpenAI declarar que alcançou a AGI, o acesso da Microsoft à tecnologia futura seria restrito. A Microsoft — após investir mais de US$ 13 bilhões — está supostamente pressionando para remover essa cláusula e até mesmo considerou abandonar o acordo. A Wired também relatou um debate interno na OpenAI sobre se a publicação de um artigo sobre a medição do progresso da IA poderia complicar a capacidade da empresa de declarar que alcançou a AGI.

Uma mudança de visão ‘muito saudável’

Mas, independentemente de os observadores considerarem a mudança de clima uma jogada de marketing ou uma resposta do mercado, muitos, especialmente do lado corporativo, dizem que é algo positivo. Shay Boloor, estrategista-chefe de mercado da Futurum Equities, considerou a mudança “muito saudável”, observando que os mercados recompensam a execução, não narrativas vagas sobre uma “superinteligência futura”.

Outros enfatizam que a verdadeira mudança é afastar-se da fantasia monolítica da AGI e avançar para “superinteligências” específicas de cada domínio. Daniel Saks, CEO da empresa de IA agênica Landbase, argumentou que “o ciclo de hype em torno da AGI sempre se baseou na ideia de uma IA única e centralizada que se torna onisciente”, mas disse que não é isso que ele vê acontecendo. “O futuro está em modelos descentralizados e específicos para cada domínio que alcançam desempenho sobre-humano em campos específicos”, disse ele à Fortune.

Christopher Symons, cientista-chefe de IA da plataforma de saúde digital Lirio, disse que o termo AGI nunca foi útil: aqueles que promovem a AGI, explicou ele, “desviam recursos de aplicações mais concretas, nas quais os avanços da IA podem beneficiar a sociedade de forma mais imediata”.

Ainda assim, o afastamento da retórica da AGI não significa que a missão — ou a expressão — tenha desaparecido. Os executivos da Anthropic e da DeepMind continuam a se autodenominar “AGI-pilled”, que é uma gíria interna. No entanto, até mesmo essa expressão é contestada; para alguns, ela se refere à crença de que a AGI é iminente, enquanto outros dizem que é simplesmente a crença de que os modelos de IA continuarão a melhorar. Mas não há dúvida de que há mais cautela e minimização do que apostas.

E, para alguns, essa cautela é exatamente o que torna os riscos mais urgentes. O ex-pesquisador da OpenAI, Steven Adler, disse à Fortune: “Não devemos perder de vista que algumas empresas de IA têm como objetivo explícito construir sistemas mais inteligentes do que qualquer ser humano. A IA ainda não chegou lá, mas seja lá como for que você chame isso, é perigoso e exige seriedade”.

Outros acusam os líderes de IA de mudar de tom em relação à AGI para confundir as coisas, numa tentativa de evitar a regulamentação. Max Tegmark, presidente do Future of Life Institute, diz que Altman chamar a AGI de “termo inútil” não é humildade científica, mas uma maneira da empresa se livrar da regulamentação enquanto continua a construir modelos cada vez mais poderosos.

“É mais inteligente para eles falarem sobre a AGI em particular com seus investidores”, disse ele à Fortune, acrescentando que “é como um vendedor de cocaína dizer que não está claro se a cocaína é realmente uma droga”, porque é muito complexo e difícil de decifrar.

Chame de AGI ou de outra coisa — o hype pode desaparecer e o clima pode mudar, mas com tanto em jogo, desde dinheiro e empregos até segurança e proteção, as verdadeiras questões sobre onde essa corrida vai levar estão apenas começando.

‘IA com capacidade humana’ já é papo do passado no Vale do Silício, que agora vive pragmatismo – Estadão

Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w  para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/

Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B

Sugestão: Se estiver procurando alguém para implementar uma solução de IA com agentes e engenharia de contexto veja a Aumo | Transformamos dados em soluções de IA avançadas

Deixe um comentário