Chain of thought (raciocínio em cadeia)

Como funciona

  1. Instrução de raciocínio. O prompt pede explicitamente que o modelo mostre o caminho. A forma mais simples é adicionar "vamos pensar passo a passo" no fim da pergunta.
  2. Geração de passos intermediários. O modelo produz uma sequência de raciocínios menores antes de chegar à resposta. Cada passo serve de contexto pro próximo.
  3. Derivação da resposta final. Ao terminar a cadeia, o modelo combina os passos pra entregar a resposta. A presença dos passos no contexto reduz erro de salto lógico.

Por que importa

  • Eleva precisão em problemas complexos. Matemática, lógica, decisão multi-passo. Wei et al. (2022) mostrou ganho consistente em modelos com 100B+ parâmetros.
  • Aumenta transparência da resposta. Em vez de só ver o resultado, o usuário vê o caminho. Útil em auditoria e debug.
  • Reduz alucinação em raciocínio. Forçar o modelo a explicitar passos diminui salto lógico não justificado.
  • É alavanca barata de qualidade. Não pede infraestrutura nem fine-tuning. Só ajuste de prompt.

O que muda para cada perfil

Para o Translator

Leitura transversal: como o conceito muda o papel de quem alinha tech, dados e negócio.

O que muda pra você. CoT é a alavanca mais barata de qualidade em tarefa complexa. Não pede infra nova nem fine-tune, só prompt diferente. O Translator que entende isso distingue caso onde vale custo extra (decisão analítica complexa) de caso onde resposta direta basta.

Analogia. É como pedir pra apresentar a planilha de cálculo, em vez de só o número final. O número fica mais defendível, mas a apresentação custa mais tempo.

Pergunta-âncora. Antes de partir pra reasoning model (que custa 10x a 50x mais), CoT no prompt resolve? Em muitos casos sim, e o ganho é gratuito.

Para DPM

Linguagem e exemplos para Data Product Managers e Analytics Leads.

O que muda pra você. CoT é técnica simples de elevar qualidade da resposta em produto que envolve raciocínio multi-passo. Custa mais tokens (resposta fica mais longa), mas em análises complexas paga rápido em acerto.

Analogia. É como pedir pro analista mostrar a conta. Em decisão simples, é teatro. Em decisão complexa, é o que diferencia resposta certa de resposta plausível.

Pergunta-âncora. Esse caso pede raciocínio explícito ou resposta direta basta? Pra FAQ e classificação, CoT é desperdício de token.

Para Produto

Linguagem e exemplos para Product Managers.

O que muda pra você. CoT pode ser exposto ao usuário (mostra o raciocínio) ou ocultado (só resposta final aparece, mas o modelo raciocinou internamente). UX precisa decidir.

Analogia. É a diferença entre receber resposta de assistente que diz "fiz X, Y, Z e por isso a resposta é A" e assistente que só diz "A". Útil em decisão crítica, ruído em conversa casual.

Pergunta-âncora. O usuário se beneficia de ver o raciocínio ou prefere a resposta direta? Pra ferramenta analítica, mostrar; pra chatbot, ocultar.

Para Engenharia

Linguagem e exemplos para Data Engineers, ML Engineers e Arquitetos.

O que muda pra você. Variantes: zero-shot CoT (só "vamos pensar passo a passo"), few-shot CoT (com exemplos do raciocínio esperado), self-consistency (múltiplas chains com voto majoritário, Wang 2022), Tree of Thoughts (Yao 2023). Trade-off: mais tokens de output = mais latência e custo.

Analogia. É como adicionar logs de debug à execução. A função fica mais demorada e gera mais output, mas dá pra rastrear o que aconteceu.

Pergunta-âncora. O ganho de qualidade compensa o aumento de tokens em produção? Mensurar antes de cravar como default.

Para Gestão

Linguagem e exemplos para TPMs, Engineering Managers e líderes de time.

O que muda pra você. CoT é técnica de prompt que multiplica custo unitário em troca de qualidade. Não tem dependência técnica nova, só decisão de quando aplicar. Sem governança, time aplica em tudo e a fatura cresce sem retorno proporcional.

Analogia. É como decidir quando usar consultoria especializada. Vale quando o problema é complexo. Não vale como default pra qualquer pergunta.

Pergunta-âncora. Quem decide onde CoT é aplicado em produção? Decisão por feature, não por instinto da engenharia.

Para Negócio

Linguagem e exemplos para Estratégia, Operações e FP&A.

O que muda pra você. CoT é alavanca barata pra elevar qualidade de IA em problema multi-passo. Pago em tokens (alguns centavos por chamada extra), entrega ganho de acerto em decisão crítica. Vale conhecer porque é diferença entre "IA respondeu mais ou menos certo" e "IA respondeu com explicação clara".

Analogia. É como pedir pro consultor mostrar o raciocínio antes de cravar a resposta. Custa mais tempo, mas o resultado é defensável.

Pergunta-âncora. Em decisões críticas que dependem de IA, exigimos que o modelo mostre o raciocínio? Onde a resposta vai pra cliente final ou auditoria, sim. Onde é uso interno casual, não precisa.

Citado nestes artigos

Ainda não há artigos do blog citando esse termo.

Ver todos os artigos do blog →

Fazer diagnóstico →