Esqueça a ‘engenharia de prompt’: a nova onda da IA é engenharia de contexto


A prática vai além dos comandos bem escritos e envolve orquestrar memórias, ferramentas e fluxos de dados em sistemas complexos

Por Henrique Sampaio – Estadão – 20/07/2025

Você fez tudo como a cartilha de boas práticas da IA pede: alimentou o ChatGPT com dados próprios, como arquivos e relatórios do Google Drive, fez solicitações pontuais e, por alguns minutos, ele respondeu adequadamente. De repente, contudo, a inteligência artificial (IA) começa a cuspir respostas e dados sem sentido ou inventadas, mesmo que com prompts (solicitações) adequados e documentos delimitados. Isso tem explicação: trata-se de um problema de contexto. E, a solução, se torna cada vez mais clara: um conjunto de estratégias chamadas de “engenharia de contexto”.

O que antes era resolvido no ChatGPT com comandos bem escritos hoje exige um novo tipo de atenção: estruturar corretamente o ambiente em que a IA opera. Com modelos mais poderosos, conectados a bases de dados, documentos e ferramentas externas, o desafio deixou de ser “o que perguntar” e passou a ser “como organizar a informação para que a IA responda bem”.

Engenharia de contexto vai além dos prompts bem escritos e envolve orquestrar memórias, ferramentas e fluxos de dados em sistemas complexos. 

É nesse cenário que engenharia de contexto (context engineering) ganha força, um campo que lida com a curadoria e o gerenciamento das informações que os modelos acessam antes de gerar uma resposta.

“A gente não está mais falando apenas em criar o melhor prompt e esperar que o LLM (grande modelo de linguagem) responda com base nele. Estamos tratando de um contexto mais amplo”, explica Samuel Fernando, arquiteto de IA. “Esse contexto surge porque agora há outras integrações: banco de dados com memória histórica das conversas, fluxo de RAG (técnica que busca dados externos), chatbots paralelos, prompts de sistema, ferramentas como Google Drive, entre muitas outras.”

Para você

A mudança de paradigma não é por acaso. De um lado, os LLMs ficaram mais poderosos, com maior capacidade de raciocínio e janelas de contexto gigantescas — ou seja, conseguem processar mais informação por vez. Do outro, surgiram integrações, ferramentas e arquiteturas que transformaram os LLMs em parte de um ecossistema muito mais sofisticado, com bancos de dados, memórias, APIs externas e agentes automatizados.

“Desde 2022, com o lançamento do ChatGPT, observamos algumas tendências principais. A primeira é o aumento da capacidade de raciocínio dos modelos de IA. A segunda envolve aplicações e integrações. E, por fim, há avanços como o MCP, um protocolo de comunicação entre agentes. Já estamos numa camada de aplicação muito mais avançada do que no início”, explica Samuel.

.

“Estamos falando de janelas de até 10 milhões de tokens (unidades de texto que a IA usa para processar informações). Isso cria um cenário onde os LLMs estão muito mais integrados aos conjuntos de tecnologias e sistemas usados por uma empresa e infraestruturas das organizações, com mais inteligência, maior capacidade de processamento e menor custo”, complementa.

Afinal, o que é engenharia de contexto?

O conceito pode ser definido como a prática de projetar sistemas que determinam o que o modelo de IA deve ver antes de gerar uma resposta. Em vez de escrever um comando direto, como “escreva um e-mail profissional”, você constrói um ambiente onde a IA tem acesso à conversa anterior, histórico do usuário, documentos relevantes e até ferramentas como agendas, planilhas ou buscadores externos.

“A engenharia de contexto consiste em montar, otimizar e organizar todas essas informações que circulam nos fluxos e repassá-las ao LLM de forma eficiente. Isso vai muito além de escrever um prompt bonito”, diz Samuel.

Essa mudança é especialmente visível dentro de empresas, onde os LLMs já estão sendo integrados a estruturas completas de dados e serviços. “A atuação se dá muito mais na camada das integrações, como um full stack, do que diretamente no modelo em si — que, na prática, raramente é manipulado isoladamente.”

Prompts bem elaborados não são mais suficientes; agora é preciso pensar no contexto mais amplo das solicitações 

Por que os prompts sozinhos não são mais suficientes

A engenharia de prompt, que era a palavra da moda na esteira do lançamento do ChatGPT, não desapareceu, mas passou a fazer parte de algo maior. Se antes ela era a principal interface com os modelos, agora virou apenas uma das engrenagens de um sistema mais complexo. Como disse o cientista Andrej Karpathy, “a engenharia de prompt é o que você faz no dia a dia; já a engenharia de contexto é a arte delicada de preencher a janela de contexto com exatamente as informações certas”.

Samuel detalha a diferença: “Quando falamos de prompt, estamos lidando com uma estrutura para uma interação sequencial com a IA. Você organiza, otimiza, envia o input e recebe um output direto com base nesse prompt. É algo restrito ao universo daquela solicitação.”

Context engineering, segundo ele, é a capacidade de organizar isso tudo de forma inteligente, mantendo a essência do que se quer da IA. É uma estratégia, não uma técnica única, e envolve vários métodos para manter e gerenciar o contexto da melhor forma.

A arte do contexto

Essa estratégia envolve desafios técnicos consideráveis. Em contextos muito extensos, há riscos como o envenenamento (quando uma informação errada se propaga pelo sistema), a distração (quando o modelo se perde em dados irrelevantes), a confusão (quando informações conflitantes atrapalham a resposta) e o uso excessivo de ferramentas. A engenharia de contexto ajuda a mitigar esses problemas com técnicas como validação, sumarização, poda de dados e controle inteligente de ferramentas disponíveis.

Samuel dá um exemplo: “Você já deve ter pedido algo ao ChatGPT e recebido um texto enorme, mas que não corresponde à real necessidade daquele momento. A engenharia de contexto é, da nossa parte, organizar nossas demandas e solicitações da forma mais inteligente possível.”

Entre as tecnologias que pavimentaram esse caminho estão os sistemas RAG (retrieval-augmented generation), que permitem buscar informações externas e injetá-las na janela de contexto, e os agentes de IA, que automatizam o uso de ferramentas em tempo real, como APIs de clima, planilhas ou bases de dados corporativas.

Além disso, o custo cada vez menor dos tokens, a unidade de processamento dos LLMs, viabilizou sistemas mais sofisticados e persistentes. Isso inclui assistentes que acumulam memória ao longo do tempo, bots que cruzam dezenas de documentos para responder perguntas específicas, e codificadores que compreendem toda a arquitetura de um projeto de software antes de sugerir modificações.

Leia mais:

Desafio para as empresas

No contexto empresarial, já se compreende que o principal desafio atual é gerenciar o contexto das informações enviadas à IA. Segundo Samuel, porém, ainda não há maturidade para aplicar isso plenamente. “A gente ainda não tem toda a verticalização — a integração de produtos, aplicativos, dados e APIs dentro da organização. Estamos caminhando para ter.”

Essa falta de integração total dificulta a aplicação prática da engenharia de contexto, mesmo quando o potencial é evidente. “Existe o risco de ficarmos perdidos. Imagina ter fluxos de IA, de prompts, de comandos e ferramentas, sem essa estratégia de contexto. Estamos discutindo e tentando entender todas essas novas possibilidades.” Samuel cita como exemplo o lançamento recente do Claude, da Anthropic, voltado para o setor financeiro: “Vai ser usado internamente para tarefas de analistas, consultores e técnicos. Ele vai ter conectores para todas as bases e APIs de uma instituição financeira. É muito robusto.”

Esse avanço, segundo ele, também tende a mudar o papel dos profissionais de IA. “Muito em breve, as tarefas que a gente faz para criar integrações, hacks ou customizações vão desaparecer, porque as grandes plataformas estão oferecendo soluções cada vez mais prontas.”

Para ele, o futuro passa por um novo tipo de especialização: “Daqui um ano talvez a gente tenha engenheiros de contexto. É uma atividade muito mais de curadoria para IA, no contexto empresarial, de habilitar e organizar toda essa stack de soluções que estão surgindo.”

Com isso, Samuel acredita que o termo engenharia de contexto ou “context engineering” tem tudo para virar buzzword do momento, como ocorreu com “prompt engineering”, mas isso não o desvaloriza. “Mesmo que vire buzzword, context engineering é uma técnica séria e necessária para quem atua de fato com isso. A diferença é que ela é mais abstrata. Não dá pra transformar em uma ferramenta ou numa lista do tipo ‘10 passos para aplicar’.”

Esqueça a ‘engenharia de prompt’: a nova onda da IA é engenharia de contexto – Estadão

Se você tiver interesse e ainda não estiver inscrito para receber diariamente as postagens de O Novo Normal, basta clicar no link: https://chat.whatsapp.com/GeLUPi5zQ2582nGKD6JFey para WhatsApp e https://t.me/joinchat/SS-ZohzFUUv10nopMVTs-w  para Telegram. Este é um grupo restrito para postagens diárias de Evandro Milet. Além dos artigos neste blog, outros artigos de Evandro Milet com outras temáticas, publicados nos fins de semana no Portal ES360, encontram-se em http://evandromilet.com.br/

Acesse o link abaixo para entrar no meu grupo do WhatsApp onde publico meus artigos semanais e entrevistas que faço no rádio e TV(em renegociação), sempre na temática inovação e negócios: https://chat.whatsapp.com/HqlJjC80rJ0Bu9lmsZgw5B

Sugestão: Se estiver procurando alguém para implementar uma solução de IA com agentes e engenharia de contexto veja a Aumo | Transformamos dados em soluções de IA avançadas

Deixe um comentário