Resposta direta
Alucinação em IA é o output gerado por um modelo de linguagem que parece factualmente correto e bem articulado, mas é incorreto, inconsistente com a fonte fornecida ou completamente inventado, com confiança aparente igual à de quando o modelo está certo.
A IA não mente. Ela alucina. A diferença é técnica, e importa pra quem decide investimento em IA. Mentira pressupõe intenção. Alucinação é o resultado natural de como o modelo funciona: sempre gera a próxima palavra mais provável, mesmo quando não tem dado de suporte. A consequência é que output plausível e output correto têm a mesma cara, e nenhuma análise textual sozinha distingue um do outro.
Por que acontece
LLMs são treinados com objetivo de prever a próxima token dado um contexto. Quando você pergunta "quem foi o presidente do Brasil em 1985?", o modelo não consulta uma base de dados; ele estima a sequência de tokens mais provável dado tudo que viu durante o treinamento. Quando o dado de treinamento foi consistente sobre o assunto, a resposta sai certa. Quando o dado foi conflitante, escasso ou ausente, o modelo continua gerando, agora com base em padrões mais gerais. O resultado pode parecer igualmente confiante.
Pesquisadores chamam isso de "viés de plausibilidade". O modelo é otimizado pra produzir texto que pareça correto na superfície, com gramática, sintaxe e estrutura argumentativa coerentes. Não há mecanismo nativo pra distinguir afirmação verdadeira de afirmação inventada. Esse é o ponto técnico que paper de pesquisa da OpenAI sobre redução de alucinação detalha: o problema é estrutural, e mitigação exige instrumentação ao redor do modelo, não dentro dele.
Os tipos comuns de alucinação
Citação inventada é o primeiro. O modelo cria uma referência que parece real, com autor, ano, journal e doi, e nada disso existe. Em uso jurídico, isso já gerou caso documentado nos Estados Unidos onde um advogado submeteu peça com seis citações inventadas e foi sancionado pela corte. O sintoma é um texto que cita "Smith et al, 2019, Journal of Applied Risk Management" sem que esse paper exista.
Número fabricado é o segundo. Modelo afirma "47% das empresas brasileiras adotaram IA generativa em 2024" sem ter base. Quando questionado, gera mais detalhes plausíveis. Em decisão de negócio, esse tipo de alucinação é particularmente caro porque número parece sempre mais confiável que afirmação genérica.
Código que não existe é o terceiro. Modelo escreve uma chamada a uma API que não existe na biblioteca, ou usa um método que foi removido em versão antiga. Pra desenvolvedor experiente, é fácil de pegar. Pra pessoa que não conhece a biblioteca, vira meia hora de debug.
Fato datado é o quarto. Modelo afirma o que era verdade na data de corte do treinamento como se fosse verdade hoje. CEO atual da empresa, regulação atual, preço atual, métrica atual. A confiança é a mesma; a verdade, não.
Inferência sem suporte é o quinto. Modelo lê um documento curto sobre um tema e elabora conclusões que não estão no documento. Em RAG mal desenhado, isso é frequente: o modelo recebe contexto incompleto e completa com invenção plausível.
Por que é tão difícil distinguir
Output alucinado e output correto têm assinatura textual idêntica. O modelo não muda tom quando inventa. Não há sinal de incerteza embutido. A confiança expressa no texto vem do treinamento em milhões de textos confiantes, não de uma medida real de probabilidade da afirmação.
Pesquisa da Stanford sobre HELM (Holistic Evaluation of Language Models) mostra que mesmo benchmarks específicos pra factualidade detectam apenas parte do problema, e modelos com performance similar em factualidade média podem ter taxas muito diferentes em domínios específicos. Empresa que opera IA em domínio regulado precisa de eval próprio, não pode confiar em benchmark genérico.
Como mostrei em Você ainda lê o que assina?, o problema fica pior quando a equipe usa o output como insumo pra decisão sem ler com atenção crítica. A IA gera output plausível, a pessoa assina sem verificar, e a alucinação vira fato organizacional documentado. O ciclo se repete e o gap de percepção entre o que o modelo entrega e o que o time entende cresce com o tempo.
Como mitigar de forma realista
Alucinação não é eliminável. É mitigável por instrumentação. Quatro práticas que funcionam.
A primeira é grounding via RAG bem implementado. Em vez de pedir resposta direta ao modelo, o sistema busca documentos internos relevantes e passa pro modelo com instrução de responder com base apenas no contexto fornecido. Reduz alucinação significativamente quando os documentos são bons; não resolve quando o parser entrega lixo ou quando o modelo é induzido a "completar" o que falta.
A segunda é citação obrigatória. Modelo é instruído a citar a fonte específica de cada afirmação. Se não consegue citar, deve abster-se. Implementação via prompt estruturado e validação de output. Combinado com RAG, dá rastreabilidade real.
A terceira é eval com fact-checking automatizado. Um segundo modelo, ou processo determinístico, verifica afirmações factuais em base externa antes do output ir pra usuário. Caro pra todas as chamadas; viável pra subset de alto risco.
A quarta é processo humano de verificação proporcional ao risco. Output que vai pra rascunho interno tem revisão amostral. Output que vai pra decisão executiva, comunicação com cliente ou peça regulatória tem revisão integral, com dupla checagem em fontes primárias. Esse é o processo que o Translator desenha quando participa do projeto.
A pergunta que define o desenho
A pergunta certa pra cada caso de uso de IA não é "como elimino alucinação?". É "qual o custo de erro neste caso, e qual o nível de verificação proporcional?". Output que vira email interno tem custo de erro baixo; uma alucinação a cada 100 saídas é tolerável. Output que vira diagnóstico médico ou parecer jurídico tem custo de erro altíssimo; alucinação tolerável é zero, e o desenho precisa garantir isso por estrutura, não por confiança.
A frase que vale carregar pra reunião: alucinação é a forma normal do modelo falar. Empresa que opera IA bem desenha processo pra que alucinação não vire ação consequente. Aprofundamento no glossário de IA pro Translator e conexão com governança no eixo Governança e Qualidade do Radar.
Referências
- OpenAI (2024). Why language models hallucinate. arXiv.
- Stanford CRFM (2024). Holistic Evaluation of Language Models (HELM).
- Coimbra, V. (2026). Você ainda lê o que assina? O gap de percepção entre o que a IA entrega e o que o time entende. Medium.
