Como medir ROI de projeto de IA

Medir ROI de IA exige mapear custo total (modelo, integração, governança, manutenção) contra ganho concreto (redução de custo, receita, qualidade).

Como medir ROI de projeto de IA
Vinícius Coimbra
Vinícius Coimbra
LinkedIn X

Resposta direta

ROI de projeto de IA mede o ganho concreto (redução de custo operacional, aumento de receita, melhoria de qualidade auditável) contra o custo total (modelo, integração, dado, governança, manutenção, sunset). Sem critério antes do piloto, ROI vira teatro retroativo.

ROI de projeto de IA é difícil de medir, e essa dificuldade gera dois resultados igualmente ruins. O primeiro é a empresa que decide sem critério ("é estratégico", "todo mundo está fazendo") e descobre depois que o ganho não bate o custo. O segundo é a empresa que mede depois que o piloto rodou e adapta o critério ao resultado, transformando ROI em teatro retroativo. A saída é definir critério antes do piloto, com método estruturado e variáveis explícitas.

O que entra no custo total

A maioria das estimativas de custo de IA olha só pro modelo. Modelo é a parte visível e a mais fácil de calcular: tokens consumidos × preço por token. Em projetos reais, modelo é uma fração do TCO. O restante esconde-se em integração, dado, governança, manutenção e sunset.

A tabela abaixo lista padrões documentados em USM Systems, AI Software Cost 2025 sobre TCO de IA empresarial. Os valores não são percentuais arbitrários do total; são padrões observados que distorcem estimativa otimista.

Padrão observadoMagnitude documentada
Implementação total vs preço advertised do vendor3 a 5x acima
Hidden costs (compliance, retraining, overhead operacional)inflam TCO em 200 a 400%
Budget overrun no primeiro ano30 a 40%
Data prep não planejadaUS$ 10.000 a US$ 90.000 extra
Integração com sistemas legacy25 a 35% acima da estimativa
De 90% pra 99% de acurácia3 a 5x mais esforço de implementação
POC típico em produçãopassa de US$ 60.000 (POC) pra US$ 250.000 (produção)

A leitura combinada: orçamento que contemplou só licença de modelo + integração inicial chega na operação real subdimensionado em ordem de grandeza. Custo de token escala com volume × iterações; em arquitetura agêntica, é fácil multiplicar por dez. Pesquisa da Andreessen Horowitz mostrou que custos de inferência caíram em magnitudes nos últimos dois anos, e isso ajuda, mas a queda do preço unitário não cobre projeto sem orçamento explícito pros componentes acima.

Cabe a ressalva: a tabela acima compila padrões de uma única fornecedora (USM Systems), e o leitor deve cruzar com fonte institucional na hora de cotar projeto específico. Pesquisa de Gartner em 2025 reforça o padrão pelo lado oposto: estima que mais de 40% dos projetos agentic serão cancelados até o fim de 2027 por escalada de custos, valor de negócio incerto e controle de risco inadequado. Pesquisa adicional do Gartner sobre adoção corporativa identificou dificuldade de integração (48% dos respondentes) e falta de orçamento (50%) como principais barreiras de adoção.

O que entra no ganho concreto

Ganho de IA aparece em três categorias mensuráveis.

A primeira é redução de custo operacional. Tarefa que custava X horas-pessoa por semana, agora custa Y. A subtração precisa considerar três coisas: o custo do tempo poupado realocado pra atividade de mesmo valor (se o tempo poupado vira ócio, não há ganho real), o custo de revisão humana adicional (output de IA exige verificação proporcional ao risco), e o custo de erro residual (alucinação que escapa custa caro mesmo quando rara).

A segunda é aumento de receita. Mais conversão por mesma audiência, ticket médio maior, retenção mais alta, vendas adicionais. Atribuição é difícil, e empresa que mede ROI sério usa A/B test, controle por coorte ou diferença em diferenças, não comparação simples antes-depois.

A terceira é melhoria de qualidade auditável. Resposta mais rápida ao cliente, decisão melhor fundamentada, conformidade regulatória aumentada. Quando a melhoria não cabe em métrica direta, vale traduzir em risco evitado: quanto custaria o erro que esse desenho previne.

A pesquisa McKinsey State of AI 2024 com 876 organizações globais identificou que apenas 46 (cerca de 5%) atribuíam impacto material em EBIT à adoção de IA generativa. A versão 2025 da pesquisa mostrou que 17% das empresas relatam contribuição de 5% ou mais em EBIT, mas mais de 80% ainda não veem impacto tangível em nível corporativo. Os casos com retorno mais consistente concentram-se em quatro categorias: marketing/vendas, software engineering, atendimento ao cliente e operações de pesquisa.

Como medir antes do piloto

Quatro variáveis pra calcular antes de aprovar o investimento.

Volume real. Não estimativa otimista. Quantas execuções por dia, semana ou mês esse caso de uso vai realmente ter, no estado atual da operação? Volume baixo aniquila ROI, mesmo com modelo bem desenhado. Volume alto exige planejamento de custo unitário e governança.

Tempo médio da tarefa hoje. Cronometrado, não estimado de cabeça. Pessoa típica leva quanto pra fazer essa tarefa do início ao fim, incluindo revisão? Esse número é a base contra a qual o ganho vai ser medido.

Custo de erro residual. Mesmo com IA bem desenhada, alguma porcentagem de output vai estar errada. Quanto custa cada erro que escapa? Erro de email interno custa centavos. Erro de comunicação a cliente, de decisão regulada ou de cálculo financeiro custa muito mais.

Custo de implementação completo. Modelo + integração + dado + operação + pessoa, com margem de erro de 30%. Estimativa otimista mata projeto. Estimativa realista permite decidir.

A fórmula direta:

ROI = (Ganho - Custo total) / Custo total

Onde Ganho é a redução de custo + aumento de receita + risco evitado, anualizado, e Custo total é a soma das seis componentes da tabela acima.

Heurística operacional que uso na prática (não está em literatura formal; é critério de campo que vale revisar com a área financeira da sua empresa): ROI projetado abaixo de 2x em horizonte de 18 meses provavelmente não vale a pena, considerando o risco operacional. ROI projetado acima de 5x em horizonte de 12 meses pede crítica de premissa, porque normalmente está otimista demais.

Como medir depois

Três medidas em três horizontes.

A primeira é medida operacional, em ciclo de duas semanas. Está funcionando? Eval bate o threshold acordado? Volume real está em linha com a estimativa? Custo unitário está dentro do orçamento?

A segunda é medida de impacto, em ciclo de dois a três meses. O ganho projetado se materializou? O tempo poupado virou atividade de mesmo valor ou virou ócio mascarado? O erro residual está custando dentro do esperado?

A terceira é medida estratégica, em ciclo anual. O caso de uso continua relevante? A capacidade nativa do modelo evoluiu a ponto de o desenho atual virar legado? Aparecem novos casos de uso adjacentes que aproveitam a fundação?

Empresa que mede só a primeira camada (operacional) acha que está dando certo até o trimestre fechar e o ROI não aparecer no demonstrativo. Empresa que mede as três tem chance de ajustar antes de queimar o orçamento.

Erros comuns na medição

Comparar tempo de IA com tempo de humano sem incluir revisão é o primeiro. IA gera em segundos; humano leva minutos. Conta inicial parece ótima. Quando soma a revisão necessária pra output que vai pra cliente ou decisão, o ganho líquido é menor, e em alguns casos negativo.

Atribuir aumento de receita à IA sem controle é o segundo. Vendas subiram 12% no trimestre que rodou o piloto. Foi a IA, foi sazonalidade, foi promoção, foi o concorrente que tropeçou? Sem controle, atribuição é ficção contábil.

Não contar custo de erro é o terceiro. Em exemplo ilustrativo: modelo que erra 2% das vezes em operação com 1.000 execuções/mês gera 20 erros/mês. Se cada erro custar R$ 5.000 em retrabalho, comunicação ou prejuízo direto, são R$ 100.000/mês de custo invisível que não aparece na fatura da OpenAI mas drena valor real. O número absoluto depende inteiramente do caso de uso; a categoria de custo precisa estar mapeada antes do go-live.

Esquecer custo de oportunidade é o quarto. O time de engenharia gastou três meses construindo o piloto. Esse tempo poderia ter rodado outro projeto. Custo de oportunidade entra no business case, mesmo quando ninguém pediu pra entrar.

Quando ROI vira teatro

A retrospectiva clássica de IA: "o piloto entregou ganhos significativos em produtividade, sentimento positivo do time e exploração de capacidades emergentes". Tradução: ninguém mediu ROI real, então a retrospectiva mediu o que dava pra contar.

Sintomas de que o ROI virou teatro: falta de eval objetiva, métrica anedótica em vez de quantitativa, declaração de "estratégico" sem business case, escopo que cresce indefinidamente sem critério de parada, ausência de plano de sunset. Empresa que opera IA com ROI sério evita os cinco sintomas acima desde o kickoff.

Como argumento em O ROI do não, o projeto que você matou bem vale mais que o projeto que você entregou mal. Pra IA, isso é especialmente verdade: piloto morto sem ROI economiza orçamento pro próximo caso de uso. Piloto vivo sem ROI consome orçamento sem entregar.

A pergunta que define a decisão

Quatro perguntas antes de aprovar investimento em IA:

  1. O ganho projetado, descontado de custo total e custo de erro, supera o custo de oportunidade do mesmo time fazer outra coisa?
  2. A medição depende de premissa que controlamos ou de premissa do mercado?
  3. Temos plano de sunset definido se o ROI não aparecer em três ciclos?
  4. Quem assume responsabilidade individual pelo número, não a equipe?

Se a resposta a qualquer das quatro é "vamos ver", o investimento ainda não está pronto. Esse critério faz parte do módulo Economia de Dados da formação executiva Data Translator, que prepara profissionais pra ocupar a mesa onde decisão de investimento em dados e IA acontece. Aprofundamento em decisão de portfolio em Como avaliar uma proposta de IA na empresa.

Referências

Descubra seus gaps em dados →