Chance de o Brasil ter o próprio ChatGPT é baixa, mas há alternativas para nós no xadrez da IA


Na segunda divisão global da tecnologia, o País pode mirar modelos ajustados para a realidade nacional, além de focar IAs de função específica

Por João Paulo Vicente – Estadão – 07/06/2025 

O Brasil saiu atrás. Sempre bem colocado em rankings globais de pesquisas científicas em inteligência artificial (IA), o País não foi capaz de acompanhar a explosão recente da tecnologia. Para governo, mercado e academia, a prioridade hoje é recuperar esse atraso — ainda que isso seja feito longe da construção de grandes modelos, como o GPT, da OpenAI, ou o Gemini, do Google.

Por um lado, pesquisadores, empreendedores e representantes de órgãos públicos dizem que ainda há um trabalho intenso a ser feito em cima dos modelos de IA criados nos Estados Unidos, Europa e China. O objetivo é atender demandas do mercado, otimizar setores produtivos e criar produtos mais adequados à nossa realidade, com grande potencial de exportação para outros mercados.

Por outro, porém, eles demonstram preocupação com o excesso de dependência de grandes modelos criados no exterior e acreditam que o País precisa dar um passo além no jogo global, criando a sua própria tecnologia do zero. Como, então, equilibrar essas demandas?

“Se a gente pensar (o setor de IA) em cinco divisões, o Brasil está na segunda”, diz Anderson Soares, professor da Universidade Federal de Goiás (UFG) e coordenador do Centro de Excelência em IA (CEIA). “A gente não é ruim, mas fica um sentimento de que o jogo recomeça nas grandes mudanças tecnológicas e sua chance melhora. Depois correr atrás é muito difícil”, diz.

Lançado em 2024 e saindo lentamente do papel, o Plano Brasileiro de Inteligência Artificial (PBIA) traz estratégias para aproveitar a atual janela de oportunidade em inovação e prevê investimentos de R$ 23 bilhões até 2028. Se der certo, o plano pode transformar o papel global que o Brasil desempenha no xadrez da IA — hoje, somos grandes consumidores.

“Essa é a grande questão. O Brasil não quer mais ser apenas um consumidor”, afirma Hugo Valadares, diretor do Departamento de Ciência, Tecnologia e Inovação Digital (DECTI) do Ministério de Ciência, Tecnologia e Inovação (MCTI). “A gente vai criar o novo ChatGPT? Talvez não seja isso. Mas o País quer se desenvolver dentro das inúmeras aplicações da tecnologia.”

Outras formas de usar IA

O Brasil já tem um número significativo de empresas que desenvolvem aplicações de IA. Fundada em 2017, a Associação Brasileira de Inteligência Artificial (Abria) hoje tem mais de 860 empresas em seu ecossistema, um número que aumentou 44% só no último ano. Para completar, diversos centros de pesquisa ligados a universidades públicas desenvolvem projetos em parceria com o setor privado, como o CEIA e o Recod.ai, laboratório de inteligência artificial da Unicamp.

“A gente vai criar o novo ChatGPT? Talvez não seja isso. Mas o País quer se desenvolver dentro das inúmeras aplicações da tecnologia”

Hugo Valadares

diretor no Ministério da Ciência, Tecnologia e Inovação

É um caminho que não leva a um novo ChatGPT, mas que aproveita as bases de tecnologia já existentes para criar novas ferramentas e adaptar modelos para a realidade brasileira. “O Brasil é bom em construir produtos. Ou seja, é pegar o que existe e construir solução para resolver problemas do mundo real”, diz João Granzotti, diretor de dados da Tractian, startup que usa IA para fazer manutenção preventiva no ramo industrial.

Em 2024, a startup foi incluída na lista da Forbes das 50 empresas de IA mais promissoras do mundo. Ela trabalha com uma variedade de técnicas de IA, desde as mais sofisticadas, com modelos generativos, até soluções simples. “Nosso foco é resultado. Se o resultado é uma soma num banco de dados que evita problemas, isso para mim é o suficiente”, explica Granzotti.

Isso ajuda a entender como há um mundo de possibilidade para uso da IA fora das opções mais midiáticas. Em alguns casos, nem sequer é possível usar grandes modelos de linguagem, que demandam um volume gigantesco de dados. Sandra Avila, professora do Instituto de Computação da Unicamp e parte do Recod.ai, cita um deles: doenças raras. “Você não vai ter muitos dados para doenças raras. Elas são raras! Então é necessário trabalhar de outra forma para lidar com esse problema”, diz ela.

Modelos de IA abrasileirados

Sandra se lembra também de uma palestra que deu em 2016 para um grupo de dermatologistas. Na época, ela defendeu a necessidade de o País se organizar em relação aos dados de casos de doenças de pele registrados aqui. Caso contrário, estaríamos fadados a comprar soluções de IA que nem sequer funcionam para os pacientes brasileiros.

Ou seja, o que ela estava defendendo era uma coleta de dados que refletisse as particularidades da nossa população — o que poderia resultar em algoritmos mais precisos e eficientes para a realidade nacional. Resolver esse impasse demanda o que Rodrigo Nogueira chama de “country focused AI”, ou IAs focadas em um país. Ele é fundador da Maritaca AI, empresa que desenvolve o Sabiá, uma espécie de GPT brasileiro.

Este é um processo que não é feito do zero, mas que refina com dados locais IAs já disponíveis. É uma técnica conhecida como fine-tuning, mais barata do que criar um grande modelo do zero — é uma forma também de não ficar completamente fora do campo das IAs voltadas para a linguagem.

Uma das grandes provas de fogo do Sabiá é encarar o linguajar específico do Judiciário brasileiro, uma área que se mostra desafiadora até para as IAs mais sofisticadas do mundo. Atualmente, a startup firmou uma parceria com o Jusbrasil para criar IAs generativas especializadas no “juridiquês”. “Recebemos um investimento deles e criamos um conjunto de modelos para serem utilizados no nosso contexto jurídico”, conta Nogueira.

Pequenos e eficientes

Há, no entanto, tarefas e problemas que não demandam uma capacidade de análise tão grande — e é um caminho mais barato e eficiente para criar soluções.

Imagine só: se a demanda de uma loja é construir uma IA para atender consumidores com capacidade de interpretação contextual, ela não precisa usar um grande modelo que é capaz de recomendar os melhores restaurantes em Jacarta, traduzir textos do português para romeno ou criar imagens realistas de Jesus abraçando uma capivara.

Esses modelos menores são chamados de Small Language Models (SML). “Essas IAs gigantes custam caro para treinar e para servir porque elas têm de saber o mundo todo”, explica o fundador da Maritaca. “Quando a gente foca, consegue deixar esse modelo mais enxuto, o treino sai mais barato e a gente consegue servir esse modelo a um preço menor.”

“Quando a gente foca, consegue deixar o modelo mais enxuto, o treino sai mais barato e a gente consegue servir esse modelo a um preço menor”

Rodrigo Nogueira

fundador da Maritaca AI

Esses modelos são menores porque têm um volume menor de parâmetros, a relação matemática que conecta palavras em IAs. Para comparação, estima-se que o GPT-4, da OpenAI, tenha 1,76 trilhão de parâmetros, enquanto uma versão pequena do Llama, da Meta, tem 8 bilhões.

É comum que os SLMs sejam desenvolvidos a partir de variações de grandes modelos de código aberto, como o Llama, da Meta — o próprio DeepSeek, a sensação chinesa que assustou gigantes americanas, foi criado desta forma. Assim, programadores de outras empresas conseguem fazer adaptações.

“Fica claro que o open source é o melhor caminho, ainda mais em IA, que é uma coisa extremamente poderosa. É melhor que esteja na mão de todos e que todos possam utilizar”, afirma Gabriel Almeida, fundador da Langflow, uma startup brasileira de IA comprada no ano passado pela americana DataSax, numa transação que envolveu um investimento de R$ 100 milhões — atualmente, a IBM está no processo para adquirir todo o grupo.

O Brasil não se destaca em diferentes rankings de IA, mas está sempre à frente do restante dos países da América Latina e África — e compartilha diversos problemas e desafios em áreas como educação, saúde e infraestrutura.

“A gente tem muita matéria-prima intelectual para resolver problemas comuns ao Sul Global”, afirma o advogado Luiz Prado, do conselho consultivo da Associação Brasileira de Inteligência Artificial (Abria). Esse pode ser um primeiro passo para tornar o País mais relevante em termos globais, sugere ele. “Fazer essa ‘tropicalização’ e se tornar um exportador de soluções de IA para a América Latina como um todo, para a África e para a região do Sul da Ásia.”

O Brasil precisa do seu próprio ChatGPT?

Para Anderson Soares, da UFG e do CEIA, está clara a capacidade do Brasil de extrair valor da ciência, ou seja, dos grandes modelos construídos nos Estados Unidos, Europa e China. Mas isso é pouco para elevar o patamar do País. “É ruim isso? Não. Só não é o melhor ganho”, diz. “Isso nunca vai nos levar ao G8. Vai nos manter no G10, G12, G15.” Em outras palavras, trabalhar com tecnologia concebida no primeiro mundo da IA não é suficiente para nos colocar neste grupo.

Para chegar ao G8, afirma ele, é necessário a cadeia completa: produzir conhecimento, transformá-lo em aplicação e ser competitivo globalmente. Parte dessa equação envolve um ponto que está longe de ser um consenso entre todos os atores envolvidos nessa discussão: a necessidade de criar um LLM brasileiro do zero. O único ponto em que todos parecem estar de acordo é que esta não é uma prioridade imediata.

Mas no longo prazo os ventos podem mudar, e o acesso às arquiteturas de bases de IA se tornar mais difícil. Essa é uma preocupação que aflige tanto Rodrigo Nogueira, da Maritaca AI, quanto Sandra Ávila, da Unicamp.

“Tanto a Maritaca quanto várias outras empresas dependem da benevolência de dez big techs. Se as coisas esquentarem, pode ser que isso mude, a gente não fique mais com IA de ponta”, diz Nogueira. Sandra concorda. “O que acontece se alguma dessas empresas decidir que não libera mais nada? Ficar dependente nesse processo vai custar muito caro para o País”, afirma.

A resposta de como diminuir a dependência não é simples. Se fazer fine-tuning ou treinar modelos a partir de IAs de código aberto já são operações custosas, criar algo como o ChatGPT é exponencialmente mais caro. Mesmo o DeepSeek, desenvolvido com menos recursos, ainda está longe da realidade brasileira.

“A gente tem muita matéria-prima intelectual para resolver problemas comuns ao Sul Global”

Luiz Prado

advogado e membro do conselho consultivo da Associação Brasileira de Inteligência Artificial (Abria)

Soares conta que neste ano o Centro de Excelência em IA recebeu R$ 42 milhões para investimentos em infraestrutura, um montante significativo para o País. “É 10% do estimado para fazer o DeepSeek. Mas quanto mais você investe nisso, mais você diminui o tempo do que consegue fazer em relação ao estado da arte”, explica.

Para ele, os R$ 42 milhões permitem trabalhar em equipamentos de ponta de dois ou três anos atrás. Com valores na casa de R$ 300 milhões, chega-se ao patamar de um ano atrás. R$ 1 bilhão colocaria o Brasil em par com os centros mais avançados do mundo.

Supercomputador pode dar uma ‘mãozinha’

Este é um dos objetivos do PBIA, o plano do governo federal. Uma das ações é o investimento de R$ 1,8 bilhão na criação de um supercomputador, que ficará a cargo do Laboratório Nacional de Computação Científica (LNCC). No papel, a ideia é que este fosse um dos cinco supercomputadores mais poderosos do mundo. “Se ficar top dez eu fico muito feliz”, fala Fábio Borges, diretor do LNCC.

Um supercomputador como esse é chave para o Brasil desenvolver um modelo fundacional próprio — ou fazer fine-tuning e treinamentos a partir de plataformas de código aberto dentro do nosso território. Hoje, há uma dependência de infraestruturas no exterior para se fazer isso. O primeiro modelo grande da Maritaca, por exemplo, foi treinado em um cluster de computadores do Google nos Estados Unidos durante quatro meses por meio de uma espécie de concessão gratuita da big tech norte-americana.

O futuro supercomputador do LNCC, no entanto, terá uma janela limitada de uso. “Faz uma conta rápida: treinar uma LLM grande demora cem dias. Aí você pega e divide por dez instituições, passam a ser mil dias”, afirma Fábio Borges, do LNCC. “Então é inviável. Os grupos vão ter de se unir para atacar problemas grandes.”

Por grupos, entende-se governo, academia e iniciativa privada. De volta ao argumento de estabelecer uma cadeia completa de IA no País, depois de produzir o conhecimento é preciso transformá-lo em aplicação — um equilíbrio entre pesquisa e mercado. Vai funcionar? Ainda é cedo para dizer. Mas, pelo menos em relação ao supercomputador do LNCC, Borges é otimista. “O dinheiro existe, vai ser investido cedo ou tarde.”

Se isso acontecer, é a resposta para um paralelo interessante traçado por Rodrigo Nogueira. A ideia de que o Brasil precisa olhar para a IA da mesma forma como fez com a política de industrialização em meados do século 20, em especial com a criação da Companhia Siderúrgica Nacional (CSN). “Mais importante que a camada de desenvolvimento é ter a tal da CSN, um cluster para gente treinar essa IA. Hoje é difícil ter acesso a isso lá fora. Ter essa empresa capaz de produzir o ‘aço bruto’ para a gente fomentar a indústria é o mais importante”, afirma.

Coordenação geral e edição: Ana Carolina Sacoman e Bruno Romani; Editora de infografia: Regina Elisabeth Silva; Editores-assistentes de infografia: Adriano Araujo e William Mariotto; Design: Lucas Almeida; Infografista Multimídia: Gisele Oliveira e Lucas Thaynan; Head do núcleo de vídeos: Manuella Menezes; Subeditor do núcleo de vídeos: Everton Oliveira; Editor de fotografia: Clayton de Souza; Pesquisa de foto: Sérgio Neves; Editor Executivo de Economia, Negócios e Link: Ricardo Grinbaum; Editor do Link: Bruno Romani; Editor Executivo de Distribuição, Engajamento e Vídeo: Leonardo Cruz.

Chance de o Brasil ter o próprio ChatGPT é baixa, mas há alternativas para nós no xadrez da IA – Estadão

Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w  para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/

Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B

Sugestão: Se estiver procurando alguém para implementar uma solução de IA com agentes e engenharia de contexto veja a Aumo | Transformamos dados em soluções de IA avançadas

Deixe um comentário