Algoritmos: como funciona a caixa preta que define o que vemos ao acessar uma rede social

R. Marie Santini – The Conversation –  27 junho 2025 

  • Professora da Escola de Comunicação e diretora do NetLab (Internet and Social Media Research Lab), Universidade Federal do Rio de Janeiro (UFRJ)

Declaração de transparência R. Marie Santini não presta consultoria, trabalha, possui ações ou recebe financiamento de qualquer empresa ou organização que poderia se beneficiar com a publicação deste artigo e não revelou nenhum vínculo relevante além de seu cargo acadêmico.

À luz da recente decisão do Supremo Tribunal Federal (STF) – que na última quinta-feira, dia 27 de junho de 2025, decidiu que redes sociais podem ser responsabilizadas por postagens de terceiros após notificação extrajudicial – iniciamos a segunda série de artigos em parceria com a revista FCW Cultura Científica, da Fundação Conrado Wessel, com textos de especialistas que investigam os impactos das redes sociais na sociedade. Neste abaixo , a pesquisadora R. Marie Santini, fundadora e diretora do Netlab (Laboratório de Estudos de Internet e Redes Sociais/UFRJ) discute o funcionamento dos sistemas de curadoria algorítmica e seu impacto na forma de consumo de conteúdo nas redes sociais. Entre outros temas urgentes, ela aborda também a evolução da indústria de desinformação e a necessidade de regulação e transparência das plataformas digitais.


Apesar da frequência com que se fala de algoritmos, pouco se discute a lógica por trás dos sistemas de recomendação que selecionam o conteúdo que vemos ao acessar uma rede social ou plataforma. Eles fazem uma curadoria do que vemos a partir de padrões de consumo de perfis semelhantes ao nosso. A lógica por trás disso vem da identificação de comunidades de gosto, uma ideia que a sociologia já conhecia e que a computação traduziu em códigos e previsões algorítmicas.

A música foi um grande laboratório de tudo que aconteceria com o consumo cultural online e outros campos, como as questões ambientais, a comunicação e questões e campanhas políticas, por ser facilmente digitalizável e compartilhável. Foi o primeiro tipo de conteúdo a sofrer os impactos da internet — pirataria, crise da indústria fonográfica — e por isso atraiu esforços de inovação tecnológica. Assim, os primeiros sistemas de recomendação foram desenvolvidos para sugerir músicas. A partir dessa lógica de comunidades de gosto, o modelo foi sendo replicado para outros tipos de conteúdos, como vídeos, notícias, textos e anúncios, ou seja, todo tipo de conteúdo online.

Os algoritmos do gosto

Esses sistemas de recomendação trabalham a partir da análise do comportamento de grandes grupos de usuários. Quando você consome um conteúdo, o sistema cruza seus dados com os de outras pessoas que tiveram comportamentos semelhantes. Ele não prevê o seu gosto individual, mas o da comunidade de gosto à qual você pertence. Esse é o princípio da recomendação colaborativa. O sistema associa o indivíduo a um grupo com padrões de consumo parecidos e, com base nisso, sugere conteúdos de que você provavelmente vai gostar, se interessar ou achar relevante baseado no que alguém com perfil parecido com o seu consumiu ontem. Parece algo muito inteligente, mas é simplesmente uma identificação de padrões.

No começo, houve uma tentativa de analisar o conteúdo a partir de elementos da própria música — por exemplo, o timbre de bateria ou guitarra — para prever o próximo conteúdo a ser oferecido, como se houvesse um “dna” musical que determinasse a preferência dos usuários. Logo percebeu-se que era mais eficiente prever com base no comportamento de outros usuários. Isso porque a comunidade não consome um tipo de conteúdo totalmente homogêneo. Ela combina conteúdos diferentes na sua preferência, mas cria identidade a partir dos perfis. Isso muda totalmente a lógica da curadoria. Esses sistemas de recomendação algorítmica passaram então a organizar a oferta e a demanda dos conteúdos. Isso foi genial para as empresas, já que nesse sistema não há excedente: todo conteúdo chega em algum usuário, de alguma maneira.

Impacto na indústria cultural

Antes, apenas cerca de 20% dos produtos culturais geravam lucro — era a chamada cultura pop, que vendia tanto que acabava pagando os outros 80%. Por outro lado, a sociedade pressionava por mais diversidade cultural, de conteúdos, opiniões. Mas a diversidade não era viável economicamente. Com os sistemas de recomendação, mesmo os conteúdos de nicho se tornaram monetizados, porque esses conteúdos passaram a ser direcionados para o público certo. Isso salvou setores como o fonográfico e o audiovisual, que passaram a depender da recomendação de conteúdo personalizada para tornar a diversidade lucrativa.

Essa lógica, porém, beneficia muito mais as plataformas do que os criadores, que seguem sendo mal remunerados. As plataformas centralizam tudo: dados, distribuição, publicidade, e ainda definem e controlam as métricas de performance que entregam aos artistas. O criador não sabe quantas vezes sua música foi tocada e não sabe os critérios utilizados para a recomendação de conteúdo, a não ser pelos números que a própria plataforma oferece a cada um deles. Essa questão do direito autoral é muito séria. As plataformas estimulam que os artistas produzam conteúdos e os coloquem lá de graça porque concentram todo o poder de distribuição e definem os padrões de consumo. Esse material então passa a ser encarado como divulgação e o artista tem que ganhar dinheiro de outra forma.

Controle máximo, transparência mínima

Na área da comunicação, os efeitos são ainda mais preocupantes. Especialmente por conveniência, as pessoas se deixam levar e passaram a confiar na curadoria algorítmica da mesma forma que confiavam na programação de rádio ou na manchete de um jornal. Imaginavam que aquela música tinha sido selecionada por alguém porque tinha uma relevância social, e não porque alguém pagou — o chamado jabá, que inclusive é proibido no Brasil e muitos países. As pessoas seguem confiando na curadoria e, para além disso, acreditam que o que aparece nas plataformas foi selecionado de forma neutra. Mas o algoritmo é uma programação feita por humanos, com pesos baseados em interesses e ganhos econômicos. E o que vemos é que as plataformas priorizam o que gera mais atenção e lucro, não o que é mais relevante, de qualidade ou confiável. O que engaja mais, aparece mais.

A transparência sobre como as plataformas funcionam é mínima. Quando essas empresas de tecnologia surgiram, elas eram vistas como startups inovadoras, que entregavam tudo de graça para as pessoas, dando acesso à informação e fazendo uma revolução cultural. Essa visão foi cultivada durante vinte anos e teve algumas consequências. Uma delas, de ordem cultural, é essa confiança na curadoria algorítmica. E essa excessiva confiança e esperança depositada na tecnologia teve consequências econômicas e jurídicas: essas empresas cresceram muito e avançaram sem nenhuma regulamentação. Quando abrimos os olhos, elas eram as empresas mais poderosas do mundo, possuindo mais dados do que qualquer Estado (e até mesmo regimes autoritários) jamais teve sobre cada um dos cidadãos. Elas são os novos gatekeepers da informação. E trabalham para manter e aumentar esse poder, sem regulamentação, sob a bandeira de que não produzem conteúdo – fazem “apenas” curadoria – e, portanto, não têm responsabilidade sobre o que as pessoas colocam nas plataformas. A consequência disso tudo é que informações de baixa qualidade ou falsas circulam com mais intensidade que conteúdos jornalísticos sérios.

Muitos veículos jornalísticos acabaram se submetendo a essa lógica do conteúdo de baixa qualidade para aumentar engajamento, feito sem nenhum investimento. Os grandes veículos de comunicação, por sua vez, aqueles que têm poder econômico, começaram a brigar com as plataformas, porque elas não pagam o direito autoral, e porque, enfim, estão disputando o mercado publicitário. Paralelamente, há um incômodo global sobre essa quantidade de conteúdo de baixa qualidade dentro das redes sociais. As plataformas então começaram a buscar os conteúdos de empresas tradicionais de comunicação, especialmente os de menor porte, que precisam de visibilidade para sobreviver. Elas oferecem “apoio técnico” e monetário e, com isso, moldam o formato e a lógica da produção de conteúdo jornalístico. O Google, por exemplo, financia projetos jornalísticos no mundo todo, mas ensina como produzir conteúdos mais “recomendáveis” para o seu sistema. Ou seja, as plataformas criaram um modelo em que o jornalismo precisa delas para sobreviver.

A regra que vale no jornalismo, estabelecida com muita luta, é que se há dinheiro ou permuta por trás de uma recomendação, é jabá — e o público precisa saber. Nas redes sociais esse debate não avançou, deixando oculto se há pagamento nas sugestões. Isso escancara a falta de neutralidade algorítmica e a desigualdade da visibilidade: os conteúdos têm pesos diferentes.

Desinformação como mercado rentável

A desinformação sempre existiu, mas nos dias de hoje opera como uma indústria global, com escala mundial e instantaneidade. E não é mais, necessariamente, uma questão política ou ideológica. É um mercado profissionalizado que atrai interesse de diversos setores. E se antes havia grupos que atuavam como militantes ou hackers isolados, agora ela é movida por interesses políticos, econômicos e criminosos e prospera nas plataformas graças ao alcance massivo, pouca regulação e algoritmos que premiam o sensacionalismo. Vemos isso claramente na política, na saúde e no meio ambiente.

Nas eleições, por exemplo, há uso massivo de desinformação para manipular a percepção pública e interferir nos resultados. Essa indústria passa a fazer parte do conjunto de empresas que são contratadas em campanhas eleitorais  para a produção de peças de propaganda para manipular o eleitor. Elas atuam disseminando informações falsas sobre candidatos, governos etc.; ou turbinando artificialmente algum assunto de interesse – dando a sensação de que a opinião pública está indo para um determinado lado, que as pessoas estão discutindo algum assunto porque o consideram relevante, quando na verdade nada disso é real. Vimos isso acontecer em 2016, na campanha eleitoral Trump, nos Estados Unidos, e no referendo do Brexit, no Reino Unido. Ali surgiu a propaganda computacional que manipula o debate público em larga escala. Bots e perfis falsos inflam engajamento, fabricam controvérsias, atacam adversários e ampliam discursos extremistas. A chegada das ferramentas da IA generativa tornam esse campo ainda mais complexo, com a possibilidade de gerar conteúdos em massa que parecem legítimos, mas foram criados para enganar, manipular ou apenas lucrar.

Especialmente nas campanhas eleitorais, é preciso garantir acesso à informação de qualidade e transparência, para que as pessoas possam tomar suas decisões com base no que é real. Se não há informação qualificada, se a população é manipulada com base em informações falsas, a democracia está realmente ameaçada.

A tempestade perfeita

Nos últimos cinco anos, a indústria da desinformação se sofisticou e cresceu sem nenhuma punição ou monitoramento. Sua atuação no campo da saúde, por exemplo, é extremamente preocupante. Nas redes, influenciadores, grupos e empresas promovem curas milagrosas e desinformação sobre vacinas, cultivando um enorme problema de saúde pública.

Na pauta ambiental, há uma guerra de desinformação para sabotar políticas públicas e desacreditar a ciência climática. São operações com objetivos claros e financiamentos diversos — de grupos políticos a setores econômicos. A desinformação virou ferramenta de lobby. E mesmo quem não acredita nela sofre os seus efeitos.

Grupos políticos que eram mais outsider, especialmente de extrema direita, usaram as plataformas para disseminar suas narrativas e conteúdos, e começaram a se estruturar no mundo digital. À margem da mídia tradicional — que tinha espaço para a direita, mas não para a extrema direita — ocuparam o novo espaço digital e passaram a defender as plataformas como aliadas estratégicas.

Ou seja, eles não estão inseridos no establishment tradicional e têm a rede como infraestrutura. Em troca da visibilidade que recebem, atuam contra qualquer tentativa de regulação. É uma relação de conveniência: as plataformas garantem espaço e alcance, e esses grupos oferecem apoio político para manter o ambiente desregulado. Com a falta de regulamentação das redes, eles próprios têm a garantia de que não serão responsabilizados pelos discursos de ódio ou pelas estratégias de comunicação baseadas em desinformação. Esses grupos de extrema direita se apropriaram da narrativa da liberdade de expressão para proteger um ambiente que lhes é extremamente favorável. Aliaram interesse econômico e o interesse político. Um casamento perfeito ou, no meu ponto de vista, uma tempestade perfeita.

Modelo centrado no lucro, mas poderia ser diferente

O enfrentamento desse problema envolve ações e soluções que passam por três camadas: cultural, política e econômica. Primeiro, precisamos entender que a desinformação não é um problema individual, mas coletivo. Não se trata, por exemplo, de ensinar o usuário a identificar fake news ou de responsabilizar pais, mães e cuidadores pelos conteúdos a que os adolescentes têm acesso hoje nas redes. A responsabilidade precisa ser das plataformas — e não do usuário. As plataformas não são apenas espaços técnicos ou neutros — elas são ambientes com implicações sociais e políticas profundas. Precisamos discutir qual modelo de comunicação digital queremos como sociedade. Hoje, o modelo é centrado na atenção e no lucro das grandes empresas. Mas poderia ser outro, baseado em direitos, diversidade e interesse público. Essa mudança exige engajamento social, mobilização e vontade política. E, principalmente, exige que deixemos de naturalizar o caos informacional em que estamos vivendo.

Do ponto de vista econômico, uma das saídas passa pela articulação social de setores da economia que percebam a gravidade e o impacto da desinformação para o seu próprio negócio. Da sua mobilização e força para enfrentar o interesse dessas empresas específicas, que precisam de algum limite. No campo político, não há outra saída: é necessário regulamentar. Precisamos exigir transparência nos sistemas de recomendação e responsabilização das plataformas. Isso passa por regulamentação e fiscalização, além de legitimidade e força política para aplicação de leis já existentes.

Algoritmos: como funciona a caixa preta que define o que vemos ao acessar uma rede social

Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w  para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/

Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B

Sugestão: Se estiver procurando alguém para implementar uma solução de IA com agentes e engenharia de contexto veja a Aumo | Transformamos dados em soluções de IA avançadas

Como a IA está impactando a relação de confiança entre alunos e professores

A simples suspeita de que um aluno usou inteligência artificial generativa já está afetando as relações dentro da sala de aula

ELISE SILVA – Fast Company Brasil – 24-07-2025 

Muito se tem discutido sobre os impactos da IA generativa no ensino superior. Mas, apesar de haver um número cada vez maior de pesquisas sobre esse tema, um grupo essencial ainda tem sido pouco ouvido nessas conversas – justamente o mais apto a falar sobre o assunto: os estudantes.

Na Universidade de Pittsburgh, nos Estados Unidos, nossa equipe conduziu uma série de grupos focais com 95 alunos. O que descobrimos foi que, mesmo quando nem professores nem alunos fazem uso da IA, a tecnologia já está afetando significativamente as relações interpessoais, a aprendizagem e, principalmente, a confiança dentro da sala de aula.

Ferramentas como ChatGPT, Gemini e Claude estão, sim, mudando a forma como os alunos estudam. Mas mais do que isso: estão transformando as dinâmicas com professores – e também entre os próprios colegas.

Veja também

A maioria dos participantes contou já ter recorrido à inteligência artificial, principalmente quando estavam perto da data de entrega, quando viam a tarefa como “sem sentido” ou simplesmente ficavam travados diante das dificuldades. Eles nem sempre começam os trabalhos com IA, mas acabam usando em algum momento.

Muitos relataram experiências positivas com a tecnologia – seja para estudar, tirar dúvidas ou obter feedback. Alguns chegaram a dizer que preferem usar inteligência artificial a pedir ajuda a professores, tutores ou monitores.

Para alguns alunos, conversar com um chatbot é menos intimidador do que marcar um horário com o professor – que, às vezes, pode parecer distante ou até “arrogante”. Como disse uma das entrevistadas: “com o ChatGPT, você pode perguntar o que quiser, sem medo de ser julgado.”

Mas o julgamento pode vir de outro lugar. Apesar de alguns estarem empolgados com as possibilidades da IA, muitos também disseram sentir culpa ou vergonha por usá-la – seja por questões éticas, ambientais ou por medo de parecerem preguiçosos.

ANSIEDADE, DESCONFIANÇA E DESINTERESSE

Muitos estudantes têm a impressão de que os professores são “totalmente contra o ChatGPT”, mas também reclamam da falta de clareza sobre o que pode ou não ser usado.

Como resumiu uma aluna de urbanismo: “não sei direito o que esperam da gente”. Um colega acrescentou: “os alunos e os professores não estão na mesma página. Ninguém sabe ao certo o que é permitido”.

Também ouvimos relatos de frustração e desconfiança entre os próprios estudantes, especialmente em relação a colegas que, segundo eles, dependem demais da IA. Um exemplo: um aluno pediu ajuda a um colega e recebeu como resposta “usei o ChatGPT”, percebendo que nem havia se preocupado em entender o conteúdo.

Em trabalhos em grupo, o uso de inteligência artificial chega a ser visto como “um grande sinal de alerta”, fazendo com que alguns percam o respeito pelos colegas.

Essa desconfiança tem se espalhado pelas relações, tanto entre alunos e professores quanto entre os próprios alunos. Muitos têm receio de ficar para trás caso outros estejam usando IA para tirar notas melhores. Isso acaba criando um distanciamento emocional e um clima de cautela entre colegas.

Nossos achados confirmam o que outras pesquisas já apontam: só a suspeita de que alguém usou IA já é suficiente para abalar a confiança em sala de aula. Os alunos têm tanto medo de serem acusados injustamente quanto de serem descobertos caso, de fato, usem a tecnologia.

IMPACTO DA IA GENERATIVA NO ENSINO SUPERIOR VAI ALÉM DO QUE SE IMAGINAVA

Sabemos que a conexão entre professores e alunos é essencial para o aprendizado, assim como os laços entre os próprios colegas.

Se os estudantes estão evitando conversar com professores ou deixando de trocar experiências com seus pares por insegurança diante de regras confusas ou que mudam o tempo todo sobre o uso da IA generativa no ensino superior, as universidades precisam buscar novas formas de fortalecer essas relações.

As aulas presenciais, por exemplo, podem ser uma boa oportunidade para valorizar os encontros cara a cara. Professores podem incentivar os alunos a comparecer mais aos horários de atendimento. Iniciativas como projetos de pesquisa, programas de mentoria ou eventos informais também podem fazer a diferença.

O USO DE FERRAMENTAS DE IA GENERATIVA ESTÁ TRANSFORMANDO AS DINÂMICAS ENTRE ALUNOS E PROFESSORES E TAMBÉM ENTRE OS PRÓPRIOS COLEGAS.

Esperamos que a nossa pesquisa ajude a mudar o olhar sobre os alunos que usam IA. Em vez de vê-los como “trapaceiros”, é preciso reconhecer a complexidade dessa situação. Muitos estão tentando lidar com uma nova realidade, sem regras claras e com pouco suporte.

Com a IA cada vez mais presente no dia a dia e as universidades ainda buscando respostas, nossos grupos focais mostram o quanto é importante escutar os estudantes e pensar em formas de ajudá-los a se sentirem mais à vontade para se conectar com seus colegas e professores.

Entender essas novas dinâmicas nas relações é essencial. Afinal, a forma como usamos a tecnologia está influenciando diretamente a maneira como nos relacionamos uns com os outros.

Pelo que ouvimos, os estudantes estão mais do que prontos para conversar sobre isso – e sobre o impacto que essa mudança pode ter no futuro deles.

Este artigo foi republicado do “The Conversation” sob licença Creative Commons. Leia o artigo original.


SOBRE A AUTORA

Elise Silva é diretora de politicas de pesquisa no Instituto para Lei Cibernética, Política e Segurança da Universidade de Pittsburgh. 


Como a IA está impactando a relação de confiança entre alunos e professores | Fast Company Brasil

Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w  para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/

Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B

Sugestão: Se estiver procurando alguém para implementar uma solução de IA com agentes e engenharia de contexto veja a Aumo | Transformamos dados em soluções de IA avançadas

A Grande Evasão nos Cursos Superiores: o Exemplo da Engenharia Civil

Roberto Lobo* – Estadão –  14 de julho de 2025

A baixa mobilidade interna no ensino superior brasileiro — exemplificada neste texto pelos cursos de Engenharia Civil — decorrente da ausência de uma política institucional voltada à recuperação dos alunos menos preparados, talvez seja uma das principais razões para os elevados índices de evasão e, consequentemente, para as reduzidas taxas de titulação dos cursos superiores.

Embora ilustrado aqui pela Engenharia Civil, trata-se de um problema que reflete uma tendência generalizada no ensino superior do país.

Para você

Muitas instituições aceitam estudantes sem a devida preparação e não oferecem programas de nivelamento paralelos às aulas regulares. Como resultado, os alunos com maiores dificuldades acumulam defasagens até que a evasão se torne, para muitos, a única saída possível.

Para mensurar a eficiência dos cursos superiores no Brasil — expressa pelas taxas de titulação — utilizamos os “Indicadores de Trajetória” do INEP, que acompanham individualmente os estudantes desde o ingresso no curso até sua conclusão, ou abandono.

Este estudo baseia-se nos dados do fluxo estudantil entre 2017 e 2023, consistentes com levantamentos anteriores, como o de 2010 a 2017 do INEP.

A partir do estudo do INEP consideraremos como concluintes os estudantes que finalizam o curso até dois anos após o tempo previsto de integralização — no caso da Engenharia Civil, sete anos (cinco mais dois) — prática alinhada com estudos internacionais.

A análise dos dados revela uma tendência alarmante de evasão nos cursos de Engenharia Civil, evidenciando alto grau de ineficiência institucional e desperdício de recursos — especialmente nas instituições públicas, onde o investimento é estatal e o retorno comprometido. Os dados da Engenharia Civil pouco diferem do panorama geral dos cursos de Engenharia.

As estatísticas mais recentes sobre titulação na Engenharia Civil são preocupantes:

1) 20% dos cursos apresentam taxas de titulação abaixo de 25%;

2) 50% registram taxas abaixo de 40%;

3) 80% não alcançam 55%.

Nos Estados Unidos — que também enfrentam desafios relacionados à evasão — apenas 10% dos cursos de Engenharia formam menos de 25% dos ingressantes, e metade forma mais de 47%. Mesmo em um cenário adverso, o desempenho norte-americano é superior ao brasileiro.

Falando da Europa, a taxa de graduação em Engenharia varia entre 70% e 80% no Reino Unido – resultado da alta retenção nas universidades tradicionais, do apoio acadêmico estruturado, do sistema de monitoramento individual (“tracking”) e da forte conexão dos cursos com a empregabilidade. Na França, os índices variam entre 50% e 65%.

No Brasil, as maiores taxas de evasão ocorrem nos três primeiros anos, tanto em instituições públicas quanto privadas. Entre os ingressantes de 2016:

o Em 2017, apenas 85% permaneciam matriculados ou haviam concluído o curso;

o Em 2019, esse número caiu para 52%;

o Em 2021, chegou a 34%.

Para verificar se essa tendência era exclusiva da Engenharia Civil, ampliamos a análise para todos os cursos de Engenharia, com resultados semelhantes:

o 86% em 2017

o 53% em 2019

o 37% em 2021

Na análise da evasão acumulada por tipo de instituição, as públicas se saem melhor, mas não há muito a comemorar:

o Setor privado: 16,5% no primeiro ano, 48,8% no terceiro, 62,5% no quinto e 68,2% no sétimo.

o Setor público: 8,9% no primeiro ano, 25,6% no terceiro e 32,6% no quinto e 40,7% no sétimo.

A explicação mais plausível para essa diferença está no desempenho médio dos ingressantes: enquanto apenas 1,5% dos alunos do setor público entram com notas 1 ou 2 no ENEM, esse percentual salta para 17,3% no setor privado.

Considerando o intervalo de notas entre 1 e 3, a diferença é ainda mais expressiva: 17,1% no setor público e 73,1% no privado. Esse desnível inicial raramente é compensado por programas de recuperação, o que contribui fortemente para a evasão precoce.

As causas da evasão são múltiplas: desencanto com a profissão, dificuldades acadêmicas, deficiências na formação básica, desmotivação provocada por currículos pouco atrativos nos primeiros anos, entre outras. A falta de mobilidade interna e o baixo estímulo ao engajamento inicial são também fatores críticos, já identificados por diversos estudiosos da área.

Outros dados sobre as taxas de titulação na Engenharia Civil mostram que:

o Apenas 18% dos estudantes concluem o curso em cinco anos;

o Em sete anos, o índice sobe para 30%;

o No setor público: 15,5% se formam em cinco anos; 42,3% em sete;

o No setor privado: 18,5% se formam em cinco anos; apenas 28,5% em sete.

Ou seja, dos alunos que ingressaram em 2017, apenas três em cada dez haviam se formado até 2024.

São números preocupantes, especialmente em um país que precisa expandir urgentemente sua base de profissionais qualificados para sustentar o crescimento econômico e a competitividade internacional.

O Instituto Lobo tem trabalhado há anos com a análise da evasão no ensino superior e, também, com a formação nas engenharias, contribuindo com estudos e análises das necessidades dessa área tão importante para qualquer país.

Mais uma vez afirmamos que os dados sinalizam desafios futuros, especialmente se o Brasil quiser retomar taxas de crescimento semelhantes às de décadas anteriores — o que exigirá engenheiros em quantidade e qualidade adequadas.

Nos Estados Unidos, embora as taxas de evasão também sejam elevadas, diversas instituições utilizam o SAT (equivalente ao ENEM) como ferramenta preditiva. Há evidência sólida de correlação negativa entre o desempenho no SAT e a evasão: quanto menor a nota, maior a probabilidade de abandono, especialmente entre o primeiro e o segundo ano.

O SAT tem se mostrado relevante também em programas de apoio acadêmico e retenção, implementados em diversas instituições.

Um exemplo é o estudo de Rohr (2012-2013), publicado no Journal of College Student Retention, que analisou a relação entre as notas do SAT e o GPA (média escolar) na retenção de alunos das áreas de STEM (Ciência, Tecnologia, Engenharia e Matemática) e Administração. Com base em dados de 803 alunos, o estudo aplicou regressão logística e concluiu que essas duas variáveis previam com boa precisão os índices de permanência nos cursos.

A modernização curricular — com a introdução de novas práticas e competências, projetos motivadores nos primeiros anos e estímulo à inovação — pode mitigar esse quadro.

Essas propostas são tratadas no nosso livro “Engenheiros, Para Quê?”, publicado que mostra meus estudos sobre o tema e conta com a colaboração de diversos especialistas, que publicado pela EDUSP em 2018.

Também estão presentes no relatório de Ruth Graham para o MIT, “The Global State of the Art in Engineering Education, também de 2018, que apresenta experiências internacionais de transformação no ensino de Engenharia.

No Brasil, estudos semelhantes são escassos — mas extremamente necessários. A compreensão das causas do sucesso, ou fracasso estudantil, inclusive da própria definição desses termos, requer investigação mais profunda, sistemática e contínua.

Lembrando que, ao contrário do que muitos pensam, ou defendem a questão financeira do estudante não está, na maioria dos estudos realizados no mundo e pelo Instituto Lobo, no topo das principais causas da evasão, o que deveria levar os gestores públicos e privados, assim como os professores, a uma reflexão mais acadêmica e científica desse fenômeno que tanto prejudica acadêmica, social e financeiramente os alunos, as instituições e os países.

*Roberto Lobo é PhD em física e doutor honoris causa pela Purdue University, foi reitor da USP e é presidente do Instituto Lobo

A Grande Evasão nos Cursos Superiores: o Exemplo da Engenharia Civil – Estadão

Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w  para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/

Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B

Sugestão: Se estiver procurando alguém para implementar uma solução de IA com agentes e engenharia de contexto veja a Aumo | Transformamos dados em soluções de IA avançadas

Como eu, você e todos nós estamos nos transformando em uma nuvem de dados – e isto não é nada bom

Marcelo Soares – The Conversation – 18 julho 2025 

  • Marcelo Soares
    Professor de jornalismo de dados e digital e mestre em Divulgação Científica e Cultural, Laboratório de Estudos Avançados em Jornalismo da Universidade Estadual de Campinas (Unicamp)

Declaração de transparência

Marcelo Soares não presta consultoria, trabalha, possui ações ou recebe financiamento de qualquer empresa ou organização que poderia se beneficiar com a publicação deste artigo e não revelou nenhum vínculo relevante além de seu cargo acadêmico.

Parceiros

Em parceria com a revista FCW Cultura Científica, da Fundação Conrado Wessel, o The Conversation Brasil traz uma série de artigos sobre os impactos das redes sociais na sociedade. No texto abaixo, o professor Marcelo Soares, especialista em jornalismo digital e de dados, explica como as redes sociais coletam e processam dados dos usuários em diversas camadas, sem transparência e escondendo critérios e algoritmos, dificultando a fiscalização e favorecendo a disseminação de desinformação. A lógica de engajamento prioriza o conteúdo emocional e polêmico, criando bolhas personalizadas que isolam os usuários e podem levá-los ao extremismo.

Oito em cada dez usuários de internet no Brasil usam as redes sociais com frequência, de acordo com dados de 2024 do Núcleo de Informação e Coordenação do Ponto Br (NIC.Br). Silenciosamente, enquanto você navega, as redes sociais coletam muito mais informação do que aquilo que fornecemos conscientemente.

Esses dados são coletados em várias camadas. A camada “zerésima” corresponde às informações básicas que preenchemos – nome, idade, interesses, nossa rede de contatos. A partir dessa base, existem nas outras camadas um universo de dados comportamentais sendo monitorado. As redes observam o que curtimos, compartilhamos, comentamos, assistimos, o tempo que passamos em um post ou vídeo. Esses padrões são comparados estatisticamente aos de outros usuários e, a partir disso, vão inferindo com quem se parecem os nossos gostos, desejos e até aspectos da nossa personalidade.

O consultor de mídia dinamarquês Thomas Baekdal chama isso de dados de primeira ordem. São criados pelas plataformas, refinando tudo aquilo que extraem da nossa atividade e que pode permitir fazer inferências sobre o que abre nosso bolso. Esses dados são organizados em perfis vendidos para anunciantes de forma automatizada, em leilões que ocorrem em microssegundos.

Eles não precisam acertar 100%; se errarem, o pior que pode acontecer é ignorarmos algum anúncio. A segunda camada, portanto, está na relação comercial das plataformas com anunciantes a partir dos nossos dados. A partir de tudo que sabem sobre nós e mais o que inferem, as plataformas constroem perfis super detalhados. Não precisam saber necessariamente quem você é, mas sabem que, se acertarem no seu gosto e no seu momento, você pode assistir a um vídeo, clicar num anúncio ou comprar alguma coisa. É um pouco de demografia, um pouco de psicografia e um tanto de matreirice.

Cookies a serviço de terceiros

Há ainda uma terceira camada, a dos cookies de terceiros, ainda mais invasivos que os das plataformas. É assim que os anúncios perseguem você de um site a outro. Cookies são pequenos arquivos que os sites despejam no seu navegador quando você visita uma página. A finalidade é identificá-lo na próxima visita, e com isso eles viram uma espécie de diário de bordo de tudo o que você fez no site.

Eles podem ser do próprio site acessado: ao retornar a um site de noticias, os links que você já clicou aparecem roxos em vez de azuis. Mas no lucrativo negócio dos cookies de terceiros, os cookies despejados no seu computador pelo site que você visita podem vir de redes de anúncios presentes também em outros sites. A relação dessas redes não é diretamente com você, mas com os sites que acessa. Se a mesma empresa do cookie monitora um site de notícias e um site de alimentação, por exemplo, ela vê quem visita os dois ou não. Por isso é que tantos sites usem pop-ups pedindo sua autorização para cookies: se não usam cookies de terceiros, não é preciso pedir licença.

Essas empresas coletam dados da sua navegação para refinar um perfil comercializável seu. Num nível mais alto, esses dados são vendidos e cruzados com bases externas, tipo dados vazados do Serasa, histórico comercial e até dados de saúde. É assim que surgem os corretores de dados (data brokers). Eles não têm relação com o seu uso da internet e nem com os sites por onde você passa. São empresas que compilam tudo isso para vender perfis completos, muitas vezes contendo nome, CPF, telefone ou nomes de parentes. Esse mercado alimenta desde a publicidade legítima até golpes e fraudes, seja via publicidade (84% das reclamações sobre anúncios são de anúncios digitais) ou mais diretos. Pessoas que aplicam golpes no WhatsApp, por exemplo, muitas vezes compraram o perfil da vítima, com foto e tudo, num site que fornece isso.

Quem está nesses bancos de dados nem faz ideia que está sendo comercializado como produto. Parte das pessoas que faz ideia disso acaba embarcando na ideia falaciosa de que “todos os nossos dados já são públicos”. É uma falácia: nesses casos mais graves, eles foram roubados ou obtidos mediante falsas premissas.

Ilha de estímulos personalizados

O efeito mais direto é que o conteúdo que aparece para você nas redes sociais não é neutro. As plataformas têm interesse em manter você dentro delas pelo máximo de tempo possível, porque assim podem lhe mostrar mais anúncios. Você verá mais postagens dos amigos com quem interage mais, e não daqueles de quem tem mais saudade. Geralmente, interage mais com quem usa mais a plataforma, posta mais bobagem ou coisas mais engajantes. Se em vez de amigo é um assunto, a plataforma vai jogar os assuntos que fazem você dar mais sinais de que gostou – curtidas, compartilhamentos.

Se você abrir o YouTube num browser recém-instalado, sem se logar, vai ver o retrato do universo paralelo do que mais engaja no Brasil. Depois que a plataforma começa a lhe conhecer, personaliza tudo o que pode para segurar você lá dentro. Quanto mais tempo passa, mais dados ela coleta, mais sedutora fica e mais tempo você continua lá. Esse ciclo é vicioso. Essa lógica vem sendo comparada com à das máquinas caça-níqueis.

O feed infinito é uma dessas táticas. As plataformas mais agressivas também “punem” links. O Facebook, por exemplo, reduz o alcance de postagens com links porque tiram o usuário da plataforma. O Instagram nem permite link clicável em posts comuns. O Twitter, agora X, também passou a privilegiar conteúdo nativo. O objetivo é manter o usuário dentro da bolha, para poder seguir coletando dados e vendendo anúncios. Segundo a autora Shoshanna Zuboff, as plataformas transformam o comportamento do usuário para torná-lo mais previsível e definir melhor o que oferecer. O problema é que isso cria bolhas muito fechadas. É um sistema que transforma cada um de nós numa ilha de estímulos personalizados.

Algoritmos que empurram para abordagens extremas

As plataformas usam a ideia de “transparência” de forma muito elástica. Há a transparência voltada ao consumidor — a opção de ver em quais categorias de anúncios você caiu — mas é difícil de acessar, oculta nas configurações e com linguagem vaga. Já a transparência pública, sobre como as plataformas operam, está sendo sistematicamente desmontada: a API do Twitter, que permitia pesquisar quem falava com quem sobre determinados temas, foi encerrada com a compra pelo Elon Musk em 2022. O fechamento mediante cobrança de um valor abusivo foi o prego no caixão desses estudos, de modo que perdemos a capacidade de monitorar articulações de desinformação e extremismo em tempo real e de embasar demandas de responsabilização.

Ao longo da última década, as redes sociais passaram a dificultar o acesso à informação confiável. As pessoas foram perdendo o hábito de ir diretamente a quem produz notícias, esperando que as plataformas lhes entregassem o que fosse essencial. Além de prejudicar o jornalismo, isso reforçou o mito de que “se for importante vai chegar até mim” — ideia que nasceu por volta de 2012, quando estávamos todos apaixonados pelas redes sociais. Só que o que circula mais nas redes não é o essencial, mas o que for mais clicável e que causa emoções fortes.

Jonah Berger, professor de marketing na Universidade da Pensilvânia (EUA) e autor do livro “Contagious: Why Things Catch On”, mostra isso com clareza em seu estudo. Notícias com maior carga emocional são mais lidas e compartilhadas e têm mais chances de viralizar, especialmente se causam raiva. Essa mobilização permanente tem consequências políticas, sociais e até interpessoais. E, claro, o algoritmo privilegia esse tipo de conteúdo justamente porque engaja. O algoritmo não quer que você se informe; quer que você reaja curtindo, compartilhando, comentando, desde que seja tudo no jardinzinho murado das plataformas. Politicamente, isso acaba desmobilizando e mobilizando de maneira assimétrica.

Zeynep Tufekci, professora de sociologia e relações públicas na Universidade de Princeton (EUA), mostrou no YouTube que esse modelo pode conter uma trilha para o extremismo. Você começa buscando vídeos sobre alimentação saudável e, se for seguindo as indicações da plataforma, ela vai subindo o tom gradualmente até mostrar teorias conspiratórias sobre vacinas. O algoritmo empurra para o conteúdo mais extremo daquele tema porque é o que mais prende atenção. Quanto mais você acata a sugestão do algoritmo, mais o seu comportamento se torna previsível e mais fácil fica alvejá-lo com anúncios. Mesmo que sua própria família deixe de suportá-lo.

Máquinas de encher linguística

A IA já está presente há muito tempo nesses processos, especialmente na forma de aprendizado de máquina (machine learning). Ela analisa no agregado o que foi visto, clicado e ignorado, compara e usa isso para prever o que pessoas com gostos parecidos podem querer ver a seguir. Isso vale para redes sociais, para o Netflix e para qualquer plataforma que recomenda conteúdo. Na pior hipótese, você escolhe outra coisa pra ver na mesma plataforma, o que para eles é mais um sinal importante, ou desliga a TV e vai dormir.

Com a IA generativa, o cenário fica ainda mais complexo. Já tem gente usando esses modelos para produzir conteúdo em escala – vídeos, livros, podcasts –, às vezes com informações falsas. Em 2023, saíram dez “biografias” de Claudia Goldin, vencedora do Prêmio Nobel de Economia, no dia seguinte ao anúncio, algumas delas geradas por IA. Esses modelos simulam uma linguagem muito convincente, despejada na tela com base na probabilidade. Eu brinco que são “máquinas de encher linguística”, que chutam com a autoconfiança de um homem branco de meia-idade em uma mesa de bar. Quem usa a IA gerativa sem checar direito o seu resultado tem uma probabilidade alta de espalhar desinformação pelo mundo. Quem checa direito e corrige o resultado do que gera nas máquinas de encher linguística, por outro lado, corre o risco de perder todo o tempo que ganhou usando o assistente digital. Ou até mais.

Uma das grandes urgências da atualidade é garantir a transparência nas plataformas: obrigá-las a abrir o funcionamento de seus algoritmos à auditoria – para sabermos quem vê o quê, por que vê e quem pagou para aparecer – e liberar os dados das postagens. Como faz o Bluesky ou fez o falecido Twitter, algo que Facebook e Instagram nunca fizeram. Igualmente, é essencial regulamentar influenciadores, cujo poder de vender produtos, ideias e até apostas, como evidenciado na CPI das Bets, atuou sem regulação clara, explorando comercialmente a relação de confiança criada na pandemia de maneira muitas vezes abusiva, o que exige limites. Somente entender essa lógica de funcionamento das redes e legislar com base nela, e não apenas na comunicação tradicional, poderá conter essa escalada de baixaria.

Ao mesmo tempo, há redes sociais com outra dinâmica. O Bluesky, por exemplo, não exibe algoritmos de viralização: quem posta de manhã só alcança quem está online naquele momento, e repostagens são necessárias para aumentar o alcance. Não penaliza links nem privilegia conteúdo polêmico, tornando o ambiente menos tóxico. As ferramentas de automoderação permitem desconectar comentários ofensivos, seguir listas comunitárias e bloquear perfis em massa. O Mastodon tem um protocolo ainda mais aberto do que o Bluesky, e permite maneiras muito mais flexíveis de moderar, mas muitos consideraram uma rede técnica demais e acabou não pegando no Brasil fora de comunidades mais técnicas mesmo.

A esperança existe, mas depende de nós: precisamos entender melhor como essas plataformas funcionam, cobrar transparência, apoiar iniciativas de regulação e buscar ambientes mais saudáveis para o debate público. Tem muita gente boa pesquisando e propondo caminhos – como os pesquisadores Letícia Cesarino (UFSC), Rosana Pinheiro Machado, Francisco Brito Cruz (fundador do InternetLab e hoje independente), Rafael Evangelista (Labjor/Unicamp) e tantas outras vozes críticas e técnicas.

As redes sociais moldam o que vemos, o que pensamos e até como nos comportamos; não dá para deixar esse poder todo nas mãos de empresas que podem ser compradas ou implodir os mecanismos de proteção dos usuários. Precisamos pensar coletivamente em como queremos nos informar, nos comunicar e construir nossa visão de mundo, tentando cortar gradualmente a dependência de cada “big tech” e buscar alternativas. Essas alternativas existem, mas são péssimas vendedoras de si próprias.

Mais importante ainda seria desplugar com mais frequência os laços sociais, conversar olho no olho sem obrigação de viralizar e sem ser assediado por anúncios. A vida offline é o que dá sentido a qualquer coisa que ocorra na tela

Como eu, você e todos nós estamos nos transformando em uma nuvem de dados – e isto não é nada bom

Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w  para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/

Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B

Sugestão: Se estiver procurando alguém para implementar uma solução de IA com agentes e engenharia de contexto veja a Aumo | Transformamos dados em soluções de IA avançadas

Trem chinês de 450 km/h entra em operação no ano que vem

Novo modelo não exige mudança de infraestrutura; rede de alta velocidade alcança 48 mil km, 70% do total mundial

Nelson de Sá – Folha – 20.jul.2025

Pequim

Em 2026 deve entrar em operação comercial na China o CR450, trem desenvolvido para alcançar 450 km/h de velocidade máxima e 400 km/h de média.

Foi o que informou Wang Lei, projetista-chefe da CRRC Changchun, uma das divisões da CRRC, a maior fabricante no mundo, em meio à exposição dos veículos durante o congresso mundial do setor, semana passada em Pequim.

São dois protótipos, CR450AF e CR450BF, de subsidiárias diferentes da estatal chinesa. Seu desenvolvimento começou há sete anos, para atualizar e inovar sobre os atuais CR400, que têm 400 km/h de velocidade máxima e 350 km/h de média.

Wang calcula que uma viagem entre Pequim e Xangai, a principal linha no país, passará a demorar pouco mais de três horas, contra as atuais quatro horas e 18 minutos, naquela com menos paradas.

O novo trem não requer troca dos trilhos atuais. Em números do final do ano passado, a rede de ferrovias de alta velocidade alcançou 48 mil quilômetros na China, 70% do total mundial. A projeção é chegar a 50 mil quilômetros no final deste ano. Só nos últimos cinco anos, foram acrescentados mais de 10 mil.

Entre outros avanços citados por Li Yongheng, diretor de tecnologia de equipamentos do Ministério da Ciência e Tecnologia da Informação, a segurança estrutural do CR450 é maior e a distância de frenagem é menor em alta velocidade.

Houve diminuição de cerca de 10% no peso do trem e de 20% no consumo de energia. O ruído interno foi mantido no nível do CR400, apesar da velocidade média maior, com redesenho estrutural dos vagões e materiais de redução de barulho.

Na apresentação, os protótipos haviam acabado de encerrar seis meses de testes em linhas de Pequim e Wuyi. Agora partem para nova temporada, em que devem completar 600 mil quilômetros cada um.

TRENS QUE ‘VOAM’ ATRAEM A ATENÇÃO

Na exposição, outros dois protótipos chineses disputaram os cliques das câmeras com o CR450AF e o CR450BF. Sem prazo para entrar em operação e ainda sem nome, eles não estavam nem sequer em trilhos, mas suspensos em plataformas, isolados.

São maglev, trens de levitação magnética, que exigem infraestrutura própria e que, no caso dos protótipos da CRRC, teriam alcançado velocidade máxima de 600 km/h –superior à velocidade de decolagem de jatos comerciais.

Segundo Shao Nan, engenheiro sênior da CRRC Changchun, eles vão ocupar o nicho de mercado entre os trens de alta velocidade e a aviação comercial, conectando cidades separadas por até 2.000 quilômetros. Entre Pequim e Xangai, seriam duas horas e meia.

Shao não deu prazo para a entrada em operação. O modelo não deve ser confundido com os trens maglev hoje em uso demonstrativo no país, inclusive com linha em Pequim, de velocidade menor. Nem com o maglev “hyperloop”, de projetados 1.000 km/h, ainda mais distante.

A rede chinesa de trens de alta velocidade e seus novos modelos foram apresentados no congresso mundial do setor como trunfos na estratégia do país para os vizinhos e outros clientes pelo mundo.

Os destaques estrangeiros foram autoridades de Uzbequistão e Quirguistão, na Ásia Central, Indonésia e Laos, no Sudeste Asiático, Mongólia e Arábia Saudita. Embora o Brasil já tenha projetado uma linha de trem-bala entre São Paulo e Rio, o país não foi citado no evento.

Pela parte chinesa, o vice-primeiro-ministro Zhang Guoqing abriu o congresso enfatizando “o fortalecimento da cooperação”, prometendo “compartilhar os avanços” e “posicionar as ferrovias de alta velocidade como infraestrutura chave na construção da Iniciativa Cinturão e Rota”.

Chamou a atenção o protagonismo do Banco de Exportação e Importação da China (Cexim). Seu executivo-chefe de risco, que concentra a aprovação de projetos da Iniciativa, destacou o financiamento de 4.000 quilômetros de ferrovias de velocidade comum fora da China –da Hungria, na União Europeia, a Bangladesh, no Sul da Ásia, e o Quênia, na África.

Trem chinês de 450 km/h entra em operação no ano que vem – 20/07/2025 – Mercado – Folha

Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w  para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/

Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B

Sugestão: Se estiver procurando alguém para implementar uma solução de IA com agentes e engenharia de contexto veja a Aumo | Transformamos dados em soluções de IA avançadas

Esqueça a ‘engenharia de prompt’: a nova onda da IA é engenharia de contexto

A prática vai além dos comandos bem escritos e envolve orquestrar memórias, ferramentas e fluxos de dados em sistemas complexos

Por Henrique Sampaio – Estadão – 20/07/2025

Você fez tudo como a cartilha de boas práticas da IA pede: alimentou o ChatGPT com dados próprios, como arquivos e relatórios do Google Drive, fez solicitações pontuais e, por alguns minutos, ele respondeu adequadamente. De repente, contudo, a inteligência artificial (IA) começa a cuspir respostas e dados sem sentido ou inventadas, mesmo que com prompts (solicitações) adequados e documentos delimitados. Isso tem explicação: trata-se de um problema de contexto. E, a solução, se torna cada vez mais clara: um conjunto de estratégias chamadas de “engenharia de contexto”.

O que antes era resolvido no ChatGPT com comandos bem escritos hoje exige um novo tipo de atenção: estruturar corretamente o ambiente em que a IA opera. Com modelos mais poderosos, conectados a bases de dados, documentos e ferramentas externas, o desafio deixou de ser “o que perguntar” e passou a ser “como organizar a informação para que a IA responda bem”.

Engenharia de contexto vai além dos prompts bem escritos e envolve orquestrar memórias, ferramentas e fluxos de dados em sistemas complexos. 

É nesse cenário que engenharia de contexto (context engineering) ganha força, um campo que lida com a curadoria e o gerenciamento das informações que os modelos acessam antes de gerar uma resposta.

“A gente não está mais falando apenas em criar o melhor prompt e esperar que o LLM (grande modelo de linguagem) responda com base nele. Estamos tratando de um contexto mais amplo”, explica Samuel Fernando, arquiteto de IA. “Esse contexto surge porque agora há outras integrações: banco de dados com memória histórica das conversas, fluxo de RAG (técnica que busca dados externos), chatbots paralelos, prompts de sistema, ferramentas como Google Drive, entre muitas outras.”

Para você

A mudança de paradigma não é por acaso. De um lado, os LLMs ficaram mais poderosos, com maior capacidade de raciocínio e janelas de contexto gigantescas — ou seja, conseguem processar mais informação por vez. Do outro, surgiram integrações, ferramentas e arquiteturas que transformaram os LLMs em parte de um ecossistema muito mais sofisticado, com bancos de dados, memórias, APIs externas e agentes automatizados.

“Desde 2022, com o lançamento do ChatGPT, observamos algumas tendências principais. A primeira é o aumento da capacidade de raciocínio dos modelos de IA. A segunda envolve aplicações e integrações. E, por fim, há avanços como o MCP, um protocolo de comunicação entre agentes. Já estamos numa camada de aplicação muito mais avançada do que no início”, explica Samuel.

.

“Estamos falando de janelas de até 10 milhões de tokens (unidades de texto que a IA usa para processar informações). Isso cria um cenário onde os LLMs estão muito mais integrados aos conjuntos de tecnologias e sistemas usados por uma empresa e infraestruturas das organizações, com mais inteligência, maior capacidade de processamento e menor custo”, complementa.

Afinal, o que é engenharia de contexto?

O conceito pode ser definido como a prática de projetar sistemas que determinam o que o modelo de IA deve ver antes de gerar uma resposta. Em vez de escrever um comando direto, como “escreva um e-mail profissional”, você constrói um ambiente onde a IA tem acesso à conversa anterior, histórico do usuário, documentos relevantes e até ferramentas como agendas, planilhas ou buscadores externos.

“A engenharia de contexto consiste em montar, otimizar e organizar todas essas informações que circulam nos fluxos e repassá-las ao LLM de forma eficiente. Isso vai muito além de escrever um prompt bonito”, diz Samuel.

Essa mudança é especialmente visível dentro de empresas, onde os LLMs já estão sendo integrados a estruturas completas de dados e serviços. “A atuação se dá muito mais na camada das integrações, como um full stack, do que diretamente no modelo em si — que, na prática, raramente é manipulado isoladamente.”

Prompts bem elaborados não são mais suficientes; agora é preciso pensar no contexto mais amplo das solicitações 

Por que os prompts sozinhos não são mais suficientes

A engenharia de prompt, que era a palavra da moda na esteira do lançamento do ChatGPT, não desapareceu, mas passou a fazer parte de algo maior. Se antes ela era a principal interface com os modelos, agora virou apenas uma das engrenagens de um sistema mais complexo. Como disse o cientista Andrej Karpathy, “a engenharia de prompt é o que você faz no dia a dia; já a engenharia de contexto é a arte delicada de preencher a janela de contexto com exatamente as informações certas”.

Samuel detalha a diferença: “Quando falamos de prompt, estamos lidando com uma estrutura para uma interação sequencial com a IA. Você organiza, otimiza, envia o input e recebe um output direto com base nesse prompt. É algo restrito ao universo daquela solicitação.”

Context engineering, segundo ele, é a capacidade de organizar isso tudo de forma inteligente, mantendo a essência do que se quer da IA. É uma estratégia, não uma técnica única, e envolve vários métodos para manter e gerenciar o contexto da melhor forma.

A arte do contexto

Essa estratégia envolve desafios técnicos consideráveis. Em contextos muito extensos, há riscos como o envenenamento (quando uma informação errada se propaga pelo sistema), a distração (quando o modelo se perde em dados irrelevantes), a confusão (quando informações conflitantes atrapalham a resposta) e o uso excessivo de ferramentas. A engenharia de contexto ajuda a mitigar esses problemas com técnicas como validação, sumarização, poda de dados e controle inteligente de ferramentas disponíveis.

Samuel dá um exemplo: “Você já deve ter pedido algo ao ChatGPT e recebido um texto enorme, mas que não corresponde à real necessidade daquele momento. A engenharia de contexto é, da nossa parte, organizar nossas demandas e solicitações da forma mais inteligente possível.”

Entre as tecnologias que pavimentaram esse caminho estão os sistemas RAG (retrieval-augmented generation), que permitem buscar informações externas e injetá-las na janela de contexto, e os agentes de IA, que automatizam o uso de ferramentas em tempo real, como APIs de clima, planilhas ou bases de dados corporativas.

Além disso, o custo cada vez menor dos tokens, a unidade de processamento dos LLMs, viabilizou sistemas mais sofisticados e persistentes. Isso inclui assistentes que acumulam memória ao longo do tempo, bots que cruzam dezenas de documentos para responder perguntas específicas, e codificadores que compreendem toda a arquitetura de um projeto de software antes de sugerir modificações.

Leia mais:

Desafio para as empresas

No contexto empresarial, já se compreende que o principal desafio atual é gerenciar o contexto das informações enviadas à IA. Segundo Samuel, porém, ainda não há maturidade para aplicar isso plenamente. “A gente ainda não tem toda a verticalização — a integração de produtos, aplicativos, dados e APIs dentro da organização. Estamos caminhando para ter.”

Essa falta de integração total dificulta a aplicação prática da engenharia de contexto, mesmo quando o potencial é evidente. “Existe o risco de ficarmos perdidos. Imagina ter fluxos de IA, de prompts, de comandos e ferramentas, sem essa estratégia de contexto. Estamos discutindo e tentando entender todas essas novas possibilidades.” Samuel cita como exemplo o lançamento recente do Claude, da Anthropic, voltado para o setor financeiro: “Vai ser usado internamente para tarefas de analistas, consultores e técnicos. Ele vai ter conectores para todas as bases e APIs de uma instituição financeira. É muito robusto.”

Esse avanço, segundo ele, também tende a mudar o papel dos profissionais de IA. “Muito em breve, as tarefas que a gente faz para criar integrações, hacks ou customizações vão desaparecer, porque as grandes plataformas estão oferecendo soluções cada vez mais prontas.”

Para ele, o futuro passa por um novo tipo de especialização: “Daqui um ano talvez a gente tenha engenheiros de contexto. É uma atividade muito mais de curadoria para IA, no contexto empresarial, de habilitar e organizar toda essa stack de soluções que estão surgindo.”

Com isso, Samuel acredita que o termo engenharia de contexto ou “context engineering” tem tudo para virar buzzword do momento, como ocorreu com “prompt engineering”, mas isso não o desvaloriza. “Mesmo que vire buzzword, context engineering é uma técnica séria e necessária para quem atua de fato com isso. A diferença é que ela é mais abstrata. Não dá pra transformar em uma ferramenta ou numa lista do tipo ‘10 passos para aplicar’.”

Esqueça a ‘engenharia de prompt’: a nova onda da IA é engenharia de contexto – Estadão

Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w  para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/

Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B

Sugestão: Se estiver procurando alguém para implementar uma solução de IA com agentes e engenharia de contexto veja a Aumo | Transformamos dados em soluções de IA avançadas

Ciência, tecnologia e o futuro do Brasil

Futuro do Brasil depende do investimento na formação de profissionais de áreas estratégicas

Por Ludhmila Hajjar – O Globo – 18/07/2025 

Num mundo cada vez mais movido por dados, algoritmos e inovação, o Brasil permanece na contramão da História. Enquanto as principais potências investem em formação científica e tecnológica, seguimos estagnados, com baixíssimos índices de estudantes e profissionais nas áreas de STEM, sigla em inglês para Ciência, Tecnologia, Engenharia e Matemática. O futuro do Brasil depende de uma virada concreta nessa realidade. E o momento é agora.

A crise climática, as pandemias, a transição energética, a inteligência artificial e a biomedicina personalizada são apenas alguns dos desafios e oportunidades do século XXI. Todos eles exigem formação técnica qualificada, pensamento crítico e soluções com base em evidência e engenharia.

Os números falam por si. Na China, cerca de 50% dos formandos universitários estão em cursos de STEM. Trata-se de uma verdadeira política de Estado: a cada ano, o país forma mais de 1,3 milhão de engenheiros, muitos deles com domínio técnico de ponta, voltados para inovação. Nos Estados Unidos, o índice gira em torno de 33%, com incentivos bilionários em inteligência artificial, cibersegurança, física avançada, engenharia biomédica e computação quântica. Já a Índia forma cerca de 30% dos seus graduandos nas áreas de STEM, com especial destaque para engenharia da computação e tecnologia da informação.

E o Brasil? Apenas 13% dos formandos estão nas áreas de STEM, segundo dados do Censo da Educação Superior. Ainda pior: esse número não cresce de forma sustentada nos últimos dez anos, e a evasão nos cursos de ciências exatas e engenharia segue altíssima. O resultado é um apagão de talentos que compromete a competitividade do país, a sustentabilidade do sistema de saúde e até mesmo a segurança alimentar e energética. Não é surpresa, portanto, que ocupemos as últimas posições no ranking de inovação do Fórum Econômico Mundial. O investimento em pesquisa e desenvolvimento (P&D) no Brasil corresponde a menos de 1,2% do PIB, enquanto países como a Coreia do Sul investem mais de 4,5%.

É urgente estabelecer uma estratégia nacional para STEM, com políticas integradas desde a educação básica até o ensino superior e a pesquisa aplicada. Precisamos:

  • Garantir alfabetização científica e digital universal;
  • Fortalecer as universidades públicas e institutos federais como centros de em STEM;
  • Criar programas de bolsas e mentorias específicas para mulheres, negros e indígenas nessas áreas, reduzindo desigualdades;
  • Estimular parcerias com o setor produtivo, gerando inovação de impacto;
  • Valorizar professores de ciências e matemática com formação continuada, salários dignos e reconhecimento social;
  • Estabelecer metas claras: por exemplo, chegar a 25% de graduandos em STEM até 2030 e dobrar o investimento em P&D.

Investir em STEM não é um luxo, é uma necessidade. Não haverá soberania nacional sem tecnologia própria, sem inovação médica, sem segurança de dados, sem inteligência energética. E isso só se constrói com gente bem formada, bem equipada, bem paga e valorizada. Em 2024, o Brasil ultrapassou os 1,3 milhão de óbitos acumulados por doenças cardiovasculares e câncer na última década. Quantas dessas mortes poderiam ter sido evitadas com diagnóstico precoce apoiado por IA, engenharia de dispositivos médicos acessíveis, análise de dados populacionais? A resposta está na ciência.

A tragédia de Brumadinho, as queimadas na Amazônia, o colapso de barragens, os apagões em grandes cidades: todos são retratos de um país que negligencia sua infraestrutura científica e tecnológica. Enquanto formos dependentes da importação de chips, de insumos farmacêuticos e até de reagentes básicos, seremos uma nação vulnerável, periférica e eternamente desigual.

Ciência, tecnologia e o futuro do Brasil

Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w  para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/

Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B

Sugestão: Se estiver procurando alguém para implementar uma solução de IA com agentes veja a Aumo | Transformamos dados em soluções de IA avançadas

A Fascinante Escalada da Coreia do Sul: Uma Jornada da Cópia à Criação Tecnológica

Bruno Stefani – Efeito Rede – 18 de julho de 2025

Nerd.Partners | Liderando Transformação e Inovação | Board Member | PhD | Fã do Brasil

Conteúdo do artigo

A impressionante ascensão da Coreia do Sul, de uma nação agrícola devastada pela guerra a uma potência tecnológica global em poucas décadas, é o cerne da obra “Da Imitação à Inovação: A Dinâmica do Aprendizado Tecnológico da Coreia”, de Linsu Kim. Neste livro seminal, Kim desvenda a extraordinária metamorfose das empresas sul-coreanas, que, entre as décadas de 1960 e 1990, navegaram com maestria do simples ato de copiar para o complexo universo da inovação criativa, revelando os alicerces desse salto sem precedentes.

Kim propõe um modelo em três estágios para decifrar essa progressão tecnológica singular. Inicialmente, a Coreia embarcou na fase da imitação duplicativa, um período onde a engenharia reversa de produtos maduros era a tática predominante. O objetivo primordial não era apenas replicar, mas sim dominar as tecnologias existentes, desvendando seus segredos internos. A partir daí, o país avançou para a imitação criativa, um estágio crucial de transição onde a mera cópia deu lugar à adaptação e melhoria das tecnologias estrangeiras. Essa fase, muitas vezes indistinguível da inovação pura em sua essência, frequentemente resultava em produtos que superavam os originais em desempenho e funcionalidade. Finalmente, no ápice dessa jornada, as empresas coreanas atingiram o estágio da inovação genuína, onde passaram a desenvolver suas próprias tecnologias pioneiras, consolidando sua posição no cenário global de pesquisa e desenvolvimento.

Por trás desse sucesso espetacular, Linsu Kim identifica um conjunto de seis fatores interligados que atuaram como catalisadores. A própria Guerra da Coreia, paradoxalmente, serviu como um agente transformador, dissolvendo uma sociedade de classes rígida em uma estrutura mais fluida e meritocrática, aberta a novas ideias e talentos. O governo desempenhou um papel central e orquestrador, delineando e implementando políticas industriais e de ciência e tecnologia que guiaram o desenvolvimento do país com uma visão estratégica de longo prazo. Os poderosos chaebols, grandes conglomerados empresariais como Samsung e Hyundai, emergiram como verdadeiros motores de crescimento, acumulando capital e investindo em tecnologia em uma escala massiva, fundamental para a competitividade global. Além disso, o capital humano provou ser um recurso inestimável; a Coreia investiu incansavelmente em educação, formando uma força de trabalho altamente qualificada, disciplinada e com uma ética de trabalho inabalável, alicerçada nos valores confucianos. A estratégia orientada para exportação impôs uma pressão competitiva vital, forçando as empresas a buscar a excelência tecnológica para sobreviver e prosperar no mercado internacional. Por fim, a construção de crises foi uma tática engenhosa empregada pelo governo e pelos chaebols, que estrategicamente utilizavam momentos de adversidade e metas ambiciosas para acelerar o aprendizado e a adaptação tecnológica, transformando desafios em férteis oportunidades de inovação.

É fundamental compreender que a engenharia reversa na Coreia, conforme Kim demonstra, estava longe de ser um processo passivo de plágio. Era, na verdade, uma atividade intensamente estratégica, que envolvia a busca proposital por informações, uma comunicação e interação eficazes entre as equipes técnicas, e uma colaboração dinâmica com fornecedores, clientes e institutos de P&D. Essa abordagem sistemática permitiu não apenas a assimilação, mas também a adaptação e, crucialmente, a melhoria contínua das tecnologias importadas. A obra de Kim ressalta, com clareza, que a linha divisória entre imitação e inovação é, muitas vezes, tênue e permeável. A “imitação criativa”, em particular, provou ser um catalisador fundamental, permitindo que as empresas coreanas não apenas replicassem, mas superassem consistentemente as tecnologias estrangeiras, impulsionando-as para a vanguarda tecnológica.

“Da Imitação à Inovação” é, sem dúvida, uma contribuição monumental para a literatura sobre desenvolvimento tecnológico em economias emergentes. A minuciosa análise de Kim sobre a experiência coreana serve como um farol para outros países em desenvolvimento que anseiam por acelerar seu progresso tecnológico. O livro enfatiza a vital importância de políticas governamentais integradas, de um investimento substancial e contínuo em educação e pesquisa, e de uma visão estratégica de longo prazo para a inovação. A lição central é clara: a imitação, quando abordada como um processo ativo e estratégico de aprendizado e aprimoramento, pode se tornar o trampolim essencial para a construção de capacidades inovadoras robustas e a conquista da competitividade no palco global.

(3) A Fascinante Escalada da Coreia do Sul: Uma Jornada da Cópia à Criação Tecnológica | LinkedIn

Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w  para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/

Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B

Sugestão: Se estiver procurando alguém para implementar uma solução de IA com agentes veja a Aumo | Transformamos dados em soluções de IA avançadas

Só um em cada 4 brasileiros tem altas habilidades digitais; entenda como isso foi medido

Índice de analfabetismo funcional incorporou atividades que envolvem tecnologia; compra online e busca de filmes foram itens que tinham de ser resolvidos no celular pelos participantes

Por Renata Cafardo – Estadão – 05/05/2025

Só um em cada quatro brasileiros (23%) de 15 a 64 anos tem altas habilidades digitais, independentemente do seu nível de alfabetismo ou educacional. As dificuldades para lidar com as atividades que envolvem tecnologia aparecem mais entre os que têm mais de 40 anos, mas há problemas até mesmo entre os jovens.

Esses são alguns dos resultados do Indicador de Alfabetismo Funcional (Inaf), divulgado nesta segunda-feira, 5, realizado pela consultoria Conhecimento Social, pela Ação Educativa e pela Fundação Itaú. É a primeira vez que a pesquisa mediu também o alfabetismo no contexto digital.

Com o futuro do trabalho cada vez mais focado numa economia digitalizada, as chamadas competências digitais são consideradas essenciais para o desenvolvimento pleno do cidadão e de um País competitivo.

Foram três atividades propostas aos entrevistados: a compra de um tênis, a inscrição em um evento e a busca por filmes em um serviço de streaming – essa última teve o menor índice de acertos (9%) mesmo entre os que têm nível mais alto de alfabetismo.

A partir de uma conversa fictícia com um amigo no WhatsApp, que dizia querer assistir a um documentário específico, o participante precisava acessar a plataforma de streaming e ler três sinopses para encontrar qual seria a obra sobre a qual estava sendo questionado.

Segundo a diretora da Conhecimento Social e responsável pela pesquisa, Ana Lucia Lima, a dificuldade maior apareceu na hora de escrever uma mensagem de volta ao amigo fictício, explicando os motivos que o levaram a escolher tal documentário.

“A construção de um texto argumentativo é uma habilidade de letramento”, explica. “A gente queria entender se o digital ajuda ou atrapalha as pessoas a funcionar numa sociedade letrada.”

As três tarefas era respondidas em um celular e tinham, cada uma, 14 atividades do mundo digital. Os níveis de habilidades – baixo, médio e alto – foram definidos a partir da quantidade de acertos (ver abaixo).

Se a pessoa conseguisse, por exemplo, acessar os filmes no streaming, mas não explicar de forma compreensível em mensagem de texto a sua escolha, a pesquisa não considerava que ela havia acertado completamente a atividade.

Os outros itens impunham tarefas como preencher dados em cadastros, fazer pagamento, criar senhas com exigências específicas, anexar fotos.

Segundo ela, há muitas limitações ainda para se entender os símbolos do mundo digital. “É desafiador para algumas pessoas compreender uma outra linguagem, ícones, memes, é quase um vocabulário novo, como se tivesse aprendendo a ler chinês.”

Veja os níveis de habilidades digitais:

  • Baixo – acerta até 1/3 das atividades propostas no celular – 25% dos brasileiros estão nesse nível
  • Médio – acerta até 2/3 das atividades propostas no celular – 53% estão nesse nível
  • Alto – acerta mais de 2/3 das atividades propostas no celular – 23% estão nesse nível

O estudo mostra também que o Brasil tem hoje 29% de analfabetos funcionais, que são aqueles que só conseguem fazer leituras bastante simples de palavras, pequenas frases e números familiares, como o do telefone ou de preços.

Para medir o nível do alfabetismo, os participantes fazem provas escritas sobre questões do cotidiano, tanto relacionadas à Linguagem quanto à Matemática. Entre os analfabetos funcionais, só 3% têm nível alto de habilidades digitais.

A maior parte da população brasileira se encontra no que o índice chama de alfabetismo elementar (36%); são pessoas que conseguem ler textos de extensão média, selecionando informações e fazendo algumas inferências, mas com vocabulário limitado.

Nesse grupo, chama a atenção o fato de 18% estarem no nível alto de habilidades digitais; outros 67% estão no médio, um resultado mais esperado. “Por alguma razão, o ambiente digital abre possibilidades que algumas pessoas não teriam no mundo analógico e elas têm performance melhor”, afirma Ana. Mas há outros 15% que estão no nível mais baixo, o que mostra uma dupla exclusão.

Na população geral, um quarto (25%) está nesse nível inferior e 53% no médio. O estudo aplicou testes a uma amostra de 2,5 mil pessoas, entre dezembro de 2024 e fevereiro de 2025.

Dificuldades entre o mais velhos

Segundo a pesquisa, os mais jovens, de 15 e 29 anos, têm o melhor desempenho no contexto digital, com mais de 30% deles nos níveis altos, independentemente do quanto são alfabetizados. Entre os que têm de 40 a 49 anos, são 17%, e entre 50 e 64 anos, 6%.

A tarefa de selecionar o filme foi a que foi feita com mais facilidade pelos jovens; já os mais velhos se saíram melhor na inscrição a um evento.

Ana explica que ainda não há consenso nas pesquisas sobre como definir de forma clara o letramento digital. E que os dados do Inaf vão contribuir com essa discussão.

“Até pouco tempo se dizia que a pessoa tinha um letramento digital, midiático, quando conseguia produzir algo usando a tecnologia, textos, imagens, tabelas. Mas agora vem a inteligência artificial e produz tudo para você. A tecnologia avança muito rápido e esses conceitos não estão consolidados”, afirma.

O Inaf foi lançado pela primeira vez em 2001 pelo Ibope e pelo Instituto Paulo Montenegro, quando foi medido pela primeira vez o analfabetismo funcional no Brasil. Na primeira edição, eram 39% de analfabetos funcionais no País.

O Inaf havia sido realizado pela última vez em 2018, quando o índice registrado foi o mesmo de 2024, 29%. A pesquisa deste ano foi feita em parceria com a ⁠Fundação Roberto Marinho, ⁠Instituto Unibanco, Unesco e Unicef.

Só um em cada 4 brasileiros tem altas habilidades digitais; entenda como isso foi medido – Estadão

Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w  para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/

Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas(em negociação para uma próxima temporada) que faço no rádio e TV, sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B

Dois avanços que passaram despercebidos, mas podem mudar o jogo da IA

Pesquisas recentes podem representar um ponto de virada no desenvolvimento da inteligência artificial geral

TOM BARNETT – Fast Company Brasil – 01-07-2025 

Nem sempre as maiores inovações são as que ganham as manchetes. Dois avanços recentes no campo da inteligência artificial talvez nem viralizem no TikTok ou no YouTube, mas marcam um momento crucial que pode acelerar – e muito – a chegada da chamada inteligência artificial geral (IAG), uma IA que aprende sozinha e é capaz de agir como os seres humanos.

DESPERTANDO OS SENTIDOS: WILDFUSION

Nós, humanos, usamos todos os nossos sentidos para entender e interagir com o mundo – visão, audição, tato, paladar e olfato. Até agora, no entanto, a maioria dos sistemas de IA se baseava quase exclusivamente na visão.

Isso está começando a mudar com o WildFusion, um novo sistema desenvolvido por pesquisadores da Universidade de Duke, nos EUA, que combina visão, tato e vibração.

O robô usado nos testes tem quatro patas e é equipado com câmeras, microfones e sensores táteis. Ele é capaz, por exemplo, de identificar o tipo de superfície em que pisa – como folhas secas ou areia molhada – a partir do som e medir a pressão e a resistência para manter o equilíbrio.

Veja também

Todas essas informações são integradas em uma única representação, que vai sendo refinada à medida que o robô acumula novas experiências. O plano da equipe é ir além e permitir que o sistema perceba também variações de temperatura e umidade.

Ao integrar dados sensoriais mais diversos, a IA dá um passo importante em direção a uma forma de inteligência mais ampla, parecida com a nossa.

UMA IA QUE APRENDE A APRENDER

O segundo avanço vem de uma parceria entre as universidades de Surrey, no Reino Unido, e de Hamburgo, na Alemanha. Ainda em fase inicial, a pesquisa abre caminho para que robôs sociais – aqueles que interagem com humanos – aprendam sozinhos, com pouca intervenção humana.

A chave está em ensiná-los a direcionar o olhar de forma parecida com o que fazemos em situações sociais. Por exemplo: ao conversar com alguém, aprendemos a olhar para o rosto da pessoa ou para o objeto que ela aponta, e não para os pés dela ou para o nada.

Robôs não sabem disso naturalmente – precisam ser treinados. E, até agora, esse tipo de aprendizado exigia supervisão humana constante. Com a nova abordagem, os robôs usam simulações para observar, analisar e – o mais importante – melhorar suas interações sociais por conta própria.

Esse avanço representa um passo significativo para a robótica social e pode acelerar de forma decisiva o desenvolvimento da inteligência artificial geral. Afinal, uma IA capaz de aprender sozinha tem potencial para evoluir em velocidade exponencial – o que pode ser tanto empolgante quanto preocupante, dependendo do ponto de vista.

MENOS ESPETÁCULO, MAIS EVOLUÇÃO

Robôs que dançam ou cães robóticos são impressionantes, mas ainda se encaixam na categoria de IA estreita – aquela projetada para executar tarefas específicas.

Esses exemplos chamam atenção, mas os dois avanços apresentados aqui mudam completamente o jogo: mostram novos caminhos para a IA perceber o mundo e aprender com ele de forma contínua. Isso tem potencial para transformar radicalmente nossa relação com a tecnologia.

Somados aos esforços de pesquisadores e inovadores pelo mundo, esses desenvolvimentos representam um ponto de virada no desenvolvimento da inteligência artificial geral. Pode ser que estejamos nos aproximando do momento em que os passos lentos de hoje se tornarão uma verdadeira corrida rumo ao futuro.


SOBRE O AUTOR

Tom Barnett é sócio e chief data officer do escritório de advocacia Jackson Lewis. saiba mais

Dois avanços que passaram despercebidos, mas podem mudar o jogo da IA | Fast Company Brasil

Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w  para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/

Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV, sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B

Sugestão: Se estiver procurando alguém para implementar uma solução de IA com agentes veja a Aumo | Transformamos dados em soluções de IA avançadas