Aplicativos de vídeos hiper-realistas como o Sora, da OpenAI, inundaram as redes recentemente e levaram a reações como Zelda Williams, filha do ator Robin Williams, que pediu que parassem de lhe enviar conteúdos com a imagem do pai
Por AFP – 24/12/2025
Em uma realidade paralela, a rainha Elizabeth II elogia bolinhos de queijo em um supermercado, um Saddam Hussein armado até os dentes entra se exibindo em um ringue de luta livre e o Papa João Paulo II tenta andar de skate.
Vídeos hiper-realistas de celebridades falecidas, criados com aplicativos de inteligência artificial (IA) fáceis de usar, como o Sora, da OpenAI, inundam as redes sociais e suscitam um debate sobre o controle de imagem de pessoas comuns e personalidades já falecidas.
O aplicativo da OpenAI, lançado em setembro e considerado por muitos uma máquina de deepfakes (ou seja, conteúdos hiper-realistas falsos gerados por IA), produziu um fluxo de vídeos de personalidades históricas, incluindo Winston Churchill, além de celebridades como Michael Jackson e Elvis Presley.
Em um clipe no TikTok, a rainha Elizabeth II, usando coroa e colar de pérolas, chega de scooter em um combate de luta livre, passa pela corda e pula sobre um lutador. Em outro clipe no Facebook, a rainha elogia bolinhos de queijo no corredor de um supermercado. E também aparece jogando futebol em outro.
Pode ser engraçado, mas nem todos os vídeos gerados pelo modelo Sora 2, da OpenAI, provocaram risos.
Em outubro, a gigante da IA impediu os usuários de seu aplicativo Sora de criarem vídeos usando a imagem de Martin Luther King Jr. após queixas de seus herdeiros. Alguns usuários fizeram vídeos nos quais este ícone da luta pelos direitos civis rugia como um macaco durante seu famoso discurso “I have a dream” (“Eu tenho um sonho”), e fazia comentários grosseiros, ofensivos ou racistas.
— Estamos entrando no “vale da estranheza” — explicou Constance de Saint Laurent, professora da Universidade de Maynooth, na Irlanda, em alusão à teoria segundo a qual um objeto que alcança certo grau de semelhança antropomórfica ou de hiper-realismo provoca uma sensação de angústia e mal-estar.
— Se, de repente, você começar a receber vídeos de um ente querido falecido, seria traumático — disse ela. — Estes vídeos têm consequências reais.
Nas últimas semanas, os filhos do ator Robin Williams e do ativista Malcolm X condenaram o uso do Sora para criar vídeos de seus pais falecidos.
Zelda Williams, filha de Robin Williams, pediu recentemente no Instagram que parassem de lhe enviar clipes do pai gerados por IA. “É enlouquecedor”, afirmou ela.
Um porta-voz da OpenAI reconheceu que, embora “em nome da liberdade de expressão exista um forte interesse na representação de figuras históricas”, as personalidades públicas e suas famílias deveriam ter controle final sobre sua imagem. Para as personalidades falecidas recentemente, representantes autorizados agora podem solicitar que sua imagem não seja usada no Sora, acrescentou.
— Apesar de a OpenAI afirmar sua vontade de permitir às pessoas controlar sua imagem, publicaram uma ferramenta que claramente faz o contrário — afirmou Hany Farid, cofundador da empresa americana de cibersegurança GetReal Security e professor da Universidade da Califórnia em Berkeley. — Embora, em grande medida, tenham posto fim à criação de vídeos de Martin Luther King Jr., não impedem que os usuários se apropriem da identidade de muitas outras celebridades.
Falta de restrição
O problema é que o uso da imagem de determinadas personagens públicas não está restrito a um único sistema de inteligência artificial.
— Para além de a OpenAI implementar certas proteções para essa figura política, haverá outro modelo de IA que não o fará, e portanto este problema só vai piorar — advertiu Farid.
Isto ficou evidente após o assassinato este mês do diretor de cinema americano Rob Reiner, morto com a mulher, Michelle Singer, por um filho do casal, Nick. Os checadores da AFP descobriram clipes com sua imagem gerados por IA divulgados on-line.
À medida que proliferam as ferramentas avançadas de IA, a vulnerabilidade não se limita mais às figuras públicas: pessoas falecidas não famosas também podem ter seus nomes, sua imagem e suas palavras distorcidos com objetivos de manipulação.
Pesquisadores advertem que a propagação descontrolada de conteúdo sintético — chamado “AI slop” (“lixo de IA”, em tradução livre) — poderia, em última instância, afugentar os usuários das redes sociais.
— O problema da desinformação em geral não é tanto que as pessoas acreditem nela. Muita gente não acredita — disse Saint Laurent. — O problema é que veem informação real e não confiam que seja verdade. E ferramentas como o Sora vão amplificar massivamente este fenômeno.
Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/
Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B
Sugestão: Se estiver procurando alguém para implementar uma solução de IA com agentes e SLM veja a Aumo | Transformamos dados em soluções de IA avançadas