O que é IA generativa

IA generativa produz conteúdo novo a partir de um prompt. Útil pra rascunho e síntese, inadequada pra cálculo determinístico, regulado ou datado.

O que é IA generativa
Vinícius Coimbra
Vinícius Coimbra
LinkedIn X

Resposta direta

IA generativa é a categoria de modelos de inteligência artificial que produzem conteúdo novo, como texto, imagem, áudio, vídeo ou código, a partir de um prompt, em vez de apenas classificar ou prever.

IA generativa é a categoria de modelos por trás do ChatGPT, Claude, Gemini, Midjourney e ElevenLabs. Cada um deles produz conteúdo novo a partir de uma instrução em linguagem natural: texto, imagem, áudio, vídeo, código. O termo virou sinônimo de "IA" no debate corporativo, e isso atrapalha a decisão. Saber distinguir o que IA generativa faz bem do que ela só parece fazer bem é o que separa investimento que volta de investimento que vira teatro.

O que diferencia IA generativa de outras formas de IA

Modelos de IA tradicionais foram desenhados pra classificar ("este email é spam ou não?"), prever ("qual a probabilidade de churn no próximo trimestre?") ou recomendar ("que produto este usuário tem chance de comprar?"). Eles operam dentro de um vocabulário fixo de respostas. IA generativa quebra esse limite: a saída é um espaço aberto. Quando você pede "escreva uma carta de demissão respeitosa pra um chefe que você ainda quer manter como referência", não existe um conjunto pré-definido de respostas. O modelo gera algo novo a cada chamada.

A pesquisa que fundamenta os modelos atuais começou em 2017, com o paper Attention is All You Need, do time do Google que introduziu a arquitetura transformer. Essa arquitetura virou base de quase todos os LLMs (Large Language Models) modernos. Em 2022, o ChatGPT trouxe a tecnologia pro grande público. Em 2026, a IA generativa entrou no cotidiano corporativo.

As três categorias que importam pra empresa

Pra decidir investimento, vale separar IA generativa em três famílias com critérios próprios.

A primeira é texto, sustentada por LLMs. É a mais madura em ambiente corporativo, com APIs estáveis (Anthropic Claude, OpenAI GPT, Google Gemini), modelos open-weight (Llama, Mistral, Qwen) e ecossistema de tooling consolidado. Casos de uso típicos: rascunho de documento, síntese de transcrição, classificação de ticket, extração de informação de PDF, atendimento de primeira linha, análise de feedback aberto.

A segunda é imagem e vídeo, baseada em modelos de diffusion. Maturidade variável conforme o caso de uso. Geração de imagem está pronta pra produção em marketing, ilustração e visualização rápida; vídeo ainda apresenta inconsistências em movimento longo e composição de cena. Casos típicos: prototipagem visual, mood boards, ilustração editorial, primeira versão de banner.

A terceira é código, que usa LLMs especializados em sintaxe e padrões de programação. Aceitação acelerada em times de engenharia. Pesquisa do GitHub mostra que o Copilot acelera tarefas específicas em até 55% para desenvolvedores, embora ganhos variem por contexto e maturidade do time. Casos típicos: autocomplete de função, migração entre frameworks, geração de testes unitários, revisão de pull request, exploração de API desconhecida.

IA generativa, ML tradicional e automação clássica

A confusão entre as três categorias atrapalha a decisão de investimento. Cada uma resolve um tipo de problema, com custo de operação e perfil de erro distintos.

CategoriaQuando usarExemplo de caso de usoCusto típico
Automação clássica (script, RPA, workflow)Tarefa segue regra explícita estávelReconciliação contábil, preenchimento de formulário, conferência de NFBaixo
ML tradicional (supervisionado, não supervisionado)Tarefa exige aprender padrão a partir de dado, sem regra explícitaPrevisão de churn, detecção de fraude, segmentação de clienteMédio
IA generativa (LLMs, diffusion)Tarefa envolve texto livre, imagem ou linguagem natural com ambiguidade altaSíntese de feedback, classificação de ticket, rascunho de comunicaçãoMédio (paga por token)
Agente de IA (LLM em loop com ferramentas)Tarefa exige autonomia em fluxo com múltiplas decisõesTriagem inicial de incidente, primeira pesquisa, orquestração de toolsAlto (escala com iterações)

Aprofundamento dessa distinção em Diferença entre IA, machine learning e automação. A maioria dos casos corporativos resolve com automação clássica ou ML supervisionado tradicional. IA generativa entra em uma fração específica de problemas, e agente em uma fração ainda menor. Inverter essa pirâmide é onde o investimento queima.

Onde IA generativa funciona bem na empresa

A regra prática que tem sustentado decisões boas: IA generativa funciona bem quando o output passa por revisão humana antes de virar ação consequente. Rascunho que será editado, síntese que será conferida, classificação que será amostrada, código que entra em pull request. Em cada um desses, o modelo gera, a pessoa decide, e o ciclo segue.

A qualidade do output depende fortemente do prompt e do contexto fornecido. Empresa que opera IA generativa bem trata prompt como ativo: versionado, testado, documentado. Sem isso, cada engenheiro reinventa o pedido, e a qualidade fica inconsistente.

Quando o caso de uso envolve conhecimento específico da empresa, a arquitetura padrão é RAG (Retrieval Augmented Generation): o sistema busca documentos internos antes de gerar a resposta. RAG bem implementado reduz alucinação e dá rastreabilidade da fonte. RAG mal implementado, com parser ruim e chunking aleatório, fica pior que IA generativa sem RAG, porque entrega lixo plausível.

Onde IA generativa não funciona, e por quê

Cálculo determinístico é o primeiro território onde a aplicação direta falha. Modelos generativos não calculam; eles preveem a próxima palavra mais provável. Pedir pra um LLM "calcular o ROI projetado de 3 cenários" sem tool use é receber um número plausível, sem garantia de consistência. A solução padrão é dar ao modelo acesso a uma calculadora ou API externa via tool use, em vez de confiar no modelo bruto.

Fonte da verdade regulada também não cabe em geração direta. Se o output precisa servir como base de decisão jurídica, médica, regulatória ou financeira auditável, a saída precisa vir de fonte confirmada, não de geração probabilística. O modelo pode ajudar a interpretar, sintetizar ou resumir uma fonte primária, e a decisão precisa ser ancorada na fonte.

Fato datado é a terceira armadilha. Modelos têm data de corte de treinamento, geralmente alguns meses ou um ano antes da publicação. Pergunta sobre evento recente, regulamentação atualizada, preço de mercado ou métrica em tempo real precisa de busca via API ou tool use. Pedir o fato direto ao modelo sem essa instrumentação devolve resposta confiante e desatualizada.

Como avaliar uma proposta de IA generativa na empresa

Seis perguntas antes de aprovar piloto:

  1. Qual a decisão que esse output muda? Se a resposta é "nenhuma, é só interno pra acelerar", o critério de qualidade é mais frouxo. Se é "vai influenciar decisão de cliente, decisão executiva ou ação regulada", o critério precisa ser muito mais alto e o desenho precisa incluir verificação humana e rastreabilidade.

  2. Qual o custo de erro? Modelo errado em rascunho de email custa um clique em "regerar". Modelo errado em diagnóstico médico, parecer jurídico ou alocação de orçamento custa muito mais. O custo do erro determina o nível de instrumentação necessária: eval, guardrails, monitoramento e processo de correção.

  3. Qual a estratégia de dado? Caso de uso que precisa de conhecimento da empresa exige inventário de fonte, parser confiável, governança de acesso e atualização. Empresa que entra em RAG sem essa fundação rebobina o projeto em três meses.

  4. Qual o orçamento de operação? IA generativa cobra por token. Volume × custo unitário precisa entrar na conta antes do go-live, não depois. Documento longo, prompt longo ou histórico extenso podem fazer um piloto barato virar uma operação cara em escala.

  5. Qual o aderência regulatória do tratamento? Caso o piloto envolva dado pessoal de pessoa natural, LGPD aplica integralmente. Definir base legal antes do go-live, mapear transferência internacional de dado pra fornecedor estrangeiro, e desenhar processo de revisão de decisão automatizada pra atender o Art. 20.

  6. Qual o plano de sunset? Pilotos sem critério de parada rodam indefinidamente porque "deu trabalho montar". Três cenários precisam estar escritos: (a) não atingiu eval em três ciclos, (b) atingiu eval mas economia projetada não materializou, (c) caso de uso virou comoditizado por capacidade nativa do modelo. Aprofundamento em Como avaliar uma proposta de IA na empresa.

Erros comuns no desenho de iniciativa

Tratar IA generativa como engine de pesquisa é o primeiro. Modelo não busca; ele gera. Quando a empresa pergunta "o que diz nossa política de RH sobre Y?", e o modelo responde sem consultar a política, o output é invenção plausível. A arquitetura correta é RAG, com a política indexada e recuperada antes da geração.

Esperar que o modelo julgue o próprio trabalho é o segundo. Modelo que gera o output e depois é instruído a "verificar se está correto" tende a aprovar o que produziu. Como já mostrei em Você ainda lê o que assina?, a separação entre quem gera e quem verifica precisa ser estrutural, não retórica.

Ignorar custo em escala é o terceiro. Piloto rodando com 50 usuários pode custar centavos por dia. Mesmo prompt em produção com 50 mil usuários, sem caching e sem chunking, vira conta de cinco dígitos por mês.

A distinção que separa hype de valor

A frase que vale carregar pra reunião: IA generativa é boa pra rascunho, síntese e exploração; inadequada pra cálculo determinístico, fonte da verdade regulada e fato datado. Cada caso de uso pede uma abordagem. Hype mistura tudo; decisão precisa separar.

Aprofundamento em vocabulário e arquitetura está no glossário de IA pro Translator, com 18 termos em quatro níveis de profundidade. Pra quem quer aprender critério estruturado de avaliação de propostas de IA, o módulo ML e IA sem Hype faz parte da formação Data Translator.

Referências

Descubra seus gaps em dados →