Resposta direta
Um agente de IA é um sistema que combina um modelo de linguagem com a capacidade de planejar passos, chamar ferramentas externas e iterar sobre o próprio output até atingir um objetivo definido ou bater numa condição de parada.
Agente de IA é a categoria que está no centro do investimento corporativo em 2026. Pesquisa da Deloitte mostra que 79% das organizações que estão escalando IA generativa já têm pelo menos um caso de uso agêntico em produção ou piloto. A diferença em relação a um chatbot é estrutural: o agente persegue um objetivo, não apenas responde uma pergunta. Entender essa diferença muda o tipo de pergunta que você faz pra avaliar uma proposta de iniciativa.
A diferença entre chatbot e agente
Um chatbot recebe uma pergunta e devolve uma resposta. A interação é stateless e atômica. Você pergunta "quanto vendemos no Q1?", o chatbot consulta uma tabela ou alucina um número, e a conversa termina.
Um agente recebe um objetivo e executa um plano. "Identifique os 3 produtos com queda de venda no Q1, levante hipóteses pra cada um e proponha próximo passo" é uma instrução agêntica. O agente decompõe o objetivo em sub-tarefas, consulta dados, formula hipótese, valida, escreve relatório. Cada passo gera uma decisão sobre o próximo. O agente continua até concluir, esgotar o orçamento de execução ou bater num erro que não consegue resolver sozinho.
Tecnicamente, o agente é um LLM acoplado a um loop de planejamento, execução e verificação. O modelo continua sendo o mesmo Claude, GPT ou Gemini que você usa no ChatGPT. O que muda é a infraestrutura ao redor.
O agent loop
A iteração que define um agente segue quatro passos: plan, act, observe, reflect. O agente decide o próximo passo (plan), executa via tool use chamando uma API, script ou busca (act), lê o resultado (observe), avalia se progrediu em direção ao objetivo (reflect), e decide se continua ou para. O ciclo se repete até atingir uma condição de parada.
As condições de parada típicas são três: objetivo cumprido, orçamento esgotado (limite de iterações, tokens ou custo), ou erro não recuperável. Loop sem condição de parada bem desenhada é onde projeto de IA queima caro. Agente que "tenta de novo" infinitamente consome API, gera relatório poluído, e parece estar trabalhando.
O engenheiro Eugene Yan resume essa lógica em uma frase útil: "se você não consegue desenhar a condição de parada, você não está construindo um agente, está construindo um piloto automático". A diferença é que o agente sabe quando para; o piloto automático precisa que alguém pare ele.
Os 6 componentes do harness
A estrutura ao redor do modelo que torna o agente confiável tem nome técnico: harness. Pesquisadores de Tsinghua publicaram em 2026 um paper formalizando os seis componentes que precisam estar explícitos para um harness funcionar (Pan et al, Natural-Language Agent Harnesses).
O primeiro são contratos. Input, output, validação, gates de qualidade. Sem contrato escrito, o agente faz coisa que parece certa e a equipe descobre só na sexta-feira que era a errada. O segundo são papéis. O agente que executa não revisa o próprio output; quem revisa é outro agente, ou um humano. A separação é deliberada, porque agente que avalia o que ele mesmo produziu tende a aprovar tudo.
O terceiro é estrutura de etapas. Explora, planeja, executa, verifica, conserta se deu errado. Sem etapas explícitas, o agente vai direto ao hands-on e pula a parte de entender o problema. O quarto são adapters e scripts: hooks determinísticos que o agente chama. Quando precisa rodar teste, chama o script de teste. Quando precisa parsear documento, chama o parser. Cada um faz uma coisa só, e o agente sabe quando chamar.
O quinto é semântica de estado: o que persiste entre passos, sessões e handoffs. O agente precisa saber em que ponto parou para continuar, ou para outro agente continuar. Arquivo de instruções monolítico falha; o que funciona é mapa curto com conhecimento detalhado em diretório estruturado, validado por linters.
O sexto é a taxonomia de falhas: modos de falha nomeados que disparam recuperação. Artifact ausente, path errado, falha do verifier, erro de tool, timeout. Cada um dispara um plano B definido. Sem taxonomia, agente cai em loop ou para no meio sem aviso.
Onde agente de IA gera valor real
Tarefa repetitiva de baixo risco é o primeiro território. Triagem inicial de incidente, primeira síntese de feedback, classificação de ticket, primeira pesquisa exploratória num dataset desconhecido. Em cada um, o agente faz o trabalho de descoberta inicial, e a pessoa qualificada entra na decisão consequente.
Workflow com ferramenta diversa é o segundo. Quando a tarefa exige consultar documento, calcular, gerar gráfico e escrever relatório, um agente bem desenhado coordena melhor que uma sequência de scripts. O ganho aparece quando a tarefa muda de formato com frequência e a parametrização explícita é cara.
Pesquisa de baixa especificação é o terceiro. "Levante o que está sendo dito sobre regulação X em fontes A, B e C, e me devolva síntese com citação" cabe num agente. A pessoa especifica o quê, o agente escolhe o como.
Onde agente de IA quebra
Decisão de alto custo de erro sem revisão humana é a primeira armadilha. Aprovação de crédito, diagnóstico médico, decisão regulatória, comunicação com cliente em momento sensível. Em cada um, o agente pode até preparar o material; quem decide e assina é a pessoa responsável.
Tarefa que exige garantia de consistência é a segunda. Cálculo financeiro, fechamento contábil, processamento de pagamento, aplicação de regra contratual. Pra essas, regra explícita em código bate agente em qualquer dia da semana. Agente entra como camada de orquestração, não como executor da regra.
Caso de uso sem critério de "missão cumprida" é a terceira. Agente sem objetivo claro vira piloto automático que executa sem entender o porquê. Trabalha muito, entrega errado, com confiança alta. O sintoma típico: equipe debate na retrospectiva se o piloto "rendeu o esperado" sem chegar a lugar, porque ninguém escreveu o que era o esperado.
Como avaliar uma proposta de agente na empresa
Quatro perguntas antes de aprovar piloto:
Quem é o dono do caso de uso? Não o dono do projeto técnico, o dono da decisão. Quem define o que conta como "triagem certa", qual o threshold pra escalar pra humano, e quem audita semanalmente se as sugestões continuam batendo com a realidade. Sem dono, o piloto roda sem critério.
Quais ferramentas o agente vai chamar, e com que permissão? Cada ferramenta é poder e risco. Ferramenta de leitura tem escopo amplo; ferramenta de escrita exige aprovação humana ou auditoria. Sem essa separação, agente vira ataque insider.
Qual a condição de parada do loop? "Se não bateu com 95% de confiança em 3 tentativas, escala pra humano" é uma condição. "Termina quando achar a resposta" não é. Loop sem parada definida é onde o orçamento agêntico vira surpresa de fim de mês.
Como vamos medir se está funcionando? Eval com casos representativos, métricas objetivas, slice analysis e regression detection. Sem eval, a equipe debate "achei melhor" sem evidência.
A pergunta que importa pra liderança
Modelo de IA virou commodity, e isso já entrou no consenso de quem opera no setor. A estrutura ao redor não. Harness é o moat (jargão de strategy pra "vantagem competitiva durável") que separa empresa que opera IA bem da que não opera. É costura entre engenharia, dados, produto, segurança, governança e negócio, com uma figura específica que opera o merge e governa os combinados ao longo do tempo.
Esse desenho é tema do artigo Agent Harness na prática, no Medium, e do módulo IA, Agentes e Futuro da formação Data Translator. Quem quer mapear seus gaps nas competências relacionadas pode fazer o Radar de Competências em 5 minutos. Quem quer entender vocabulário antes de decisão tem o glossário de IA pro Translator com 18 termos em quatro níveis de profundidade.
Referências
- Pan, Y. et al (2026). Natural-Language Agent Harnesses. Tsinghua University.
- Yan, E. (2024). Patterns for Building LLM-based Systems & Products.
- Deloitte (2025). State of Generative AI in the Enterprise Quarterly Survey.
- Anthropic (2024). Introducing the Model Context Protocol.
