Polarização digital: do Google ao ChatGPT, buscas com IA reforçam crenças e limitam novas ideias, diz estudo


Pesquisa testou a interação de 10 mil usuários com plataformas que geram respostas por inteligência artificial

Por Juliana Causin — O Globo – 26/03/2025 

Ao personalizarem respostas com base em termos usados pelos usuários, ferramentas de busca baseadas em inteligência artificial — como Google, Bing e ChatGPT — reforçam crenças e reduzem a exposição a pontos de vista diferentes.

Em vez de ampliar o repertório de informações, essas plataformas aprofundam crenças pré-existentes.

A conclusão é de um estudo realizado com 9,9 mil pessoas por pesquisadores da Universidade de Tulane e de Chicago, nos Estados Unidos. Ao todo, foram realizados 21 experimentos que avaliaram o comportamento dos usuários nas buscas com o IA e a forma como os algoritmos influenciam a revisão (ou não) de crenças.

A pesquisa foi publicada nesta segunda-feira na PNAS, revista da Academia Nacional de Ciências dos Estados Unidos.

Os resultados mostram que a polarização de opiniões em diferentes temas, como a pandemia de Covid-19 e até mesmo os efeitos da cafeína para saúde, não está apenas nos algoritmos, mas também na forma como os usuários formulam suas buscas.

De forma recorrente, os participantes utilizaram termos enviesados, que refletiam o que já acreditavam — como “benefícios da cafeína” ou “bitcoin é perigoso” — e acabavam recebendo respostas que confirmavam suas ideias iniciais.

China inunda o mundo com modelos de IA após sucesso da DeepSeek

Desde o lançamento do ChatGPT, em novembro de 2022, a indústria de tecnologia tem acelerado a adoção de sistemas de IA em buscadores. O Bing, da Microsoft, foi o primeiro a integrar um modelo de linguagem em seu mecanismo de busca, com um sistema da OpenAi.

O Google começou a testar o modelo em 2023, e hoje exibe respostas geradas por IA no topo da página. O próprio ChatGPT passou a exibir links nas respostas.

Com a IA, as plataformas costumam entregar respostas para perguntas mais complexas e específicas. O estudo, no entanto, aponta que o viés nessas respostas pode permanecer ou até se intensificar. O processo costuma ser descrito por pesquisadores para a formação das chamadas bolhas de informação, nas quais os usuários são expostos apenas a conteúdos alinhados ao que já acreditam.

Viés de confirmação

“À medida que a inteligência artificial evolui e o acesso à informação se torna cada vez mais mediado por algoritmos, torna-se crucial reconhecer e mitigar os riscos do efeito da busca estreita”, escrevem os autores Eugina Leung e Oleg Urminsky.

Para entender o risco de confirmação de viés, os pesquisadores realizaram estudos em que os participantes primeiro informavam suas crenças sobre determinado tema. Depois, geravam um termo de busca espontaneamente — e esse termo era avaliado quanto ao seu viés.

Em outro conjunto de testes, os participantes eram randomizados para fazer buscas com termos opostos (como“energia nuclear é boa” e “energia nuclear é ruim”) e tinham suas opiniões medidas antes e depois.

No caso da energia nuclear, por exemplo, os participantes que usaram termos positivos terminaram o experimento com uma visão significativamente mais favorável do que aqueles que usaram termos negativos. Com a cafeína, a diferença também foi expressiva. O padrão se repetiu em todas as plataformas testadas.

Entre os 21 testes, os autores avaliaram diferentes formas de reduzir o viés de confirmação. Alertar os usuários sobre seus próprios vieses teve efeito limitado. Já modificar os algoritmos para apresentar pontos de vista diversos se mostrou mais eficaz.

Pesquisadores sugerem ampliar resultados

Mesmo em temas polarizados, oferecer respostas mais abrangentes pode facilitar a atualização de crenças, indicam os pesquisadores. “Nossos resultados sugerem que mudanças estruturais nos algoritmos de busca e de IA, ampliando o escopo das respostas, podem mitigar o viés de confirmação, favorecer a atualização de crenças e promover decisões mais bem informadas”, afirmam os autores.

Uma das propostas avaliadas pelos autores é a criação de uma espécie de botão de “Busca Ampliada” — uma alternativa ao tradicional “Estou com sorte”, do Google. Em um dos experimentos, 84% dos participantes disseram que gostariam de ter acesso a esse recurso.

“Ao incorporar diferentes pontos de vista em uma única resposta, os sistemas de IA podem fornecer tanto a informação solicitada quanto perspectivas que o usuário talvez não tivesse considerado — promovendo revisão de crenças sem reduzir a utilidade percebida”, conclui o estudo.

Polarização digital: do Google ao ChatGPT, buscas com IA reforçam crenças e limitam novas ideias, diz estudo

Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: ttps://chat.whatsapp.com/GBBZ1SCBDTkC2uPqSe6kP7 para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w  para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/

Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV, sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B

Sugestão: Se estiver procurando alguém para implementar uma solução de IA com agentes veja a Aumo | Transformamos dados em soluções de IA avançadas

Deixe um comentário