Como funciona
- Modelo base pré-treinado. Parte-se de um modelo já treinado em corpus geral (Llama, Mistral, GPT, etc.). Os pesos do modelo são o ponto de partida.
- Dataset específico. Coleta-se exemplos do domínio ou tarefa: pares de pergunta-resposta, exemplos de estilo, dados rotulados. Qualidade do dataset define qualidade do fine-tuning.
- Treinamento adicional. O modelo roda gradient descent sobre o dataset novo, ajustando pesos pra melhor performar na tarefa específica. PEFT (LoRA, QLoRA) treina só uma fração dos pesos, mais barato.
- Avaliação e deploy. Eval específico mede ganho. Se vale, o modelo customizado vai pra produção; se não, volta pra base.
Por que importa
- Adapta modelo a vocabulário próprio. Domínio com jargão único (jurídico, médico, financeiro especializado) pode se beneficiar.
- Reduz latência via modelo menor. Modelo pequeno fine-tunado pode performar melhor que modelo grande genérico em tarefa específica.
- Cria capability proprietária. Fine-tune com dado interno único é diferenciação que API genérica não replica.
- Mas é caro e raramente necessário. Custa 10 a 100 vezes mais que RAG pra resolver problemas equivalentes. Em maioria dos casos, RAG bem feito + prompt resolve.
O que muda para cada perfil
Para o Translator
Leitura transversal: como o conceito muda o papel de quem alinha tech, dados e negócio.
O que muda pra você. Fine-tuning é caro e raramente vale o investimento sem evidência de gap consistente que prompt e RAG não resolvem. O Translator evita projeto que assume "precisamos fazer fine-tuning" antes de explorar as alternativas mais baratas.
Analogia. É como reformar a casa antes de testar se mover os móveis resolve. Mover é mais barato e geralmente resolve.
Pergunta-âncora. Em cerca de 80% dos casos, prompt e RAG resolvem antes de fine-tune. Estamos em algum dos 20% restantes? A evidência tem que ser específica, não conjectura.
Para DPM
Linguagem e exemplos para Data Product Managers e Analytics Leads.
O que muda pra você. Fine-tuning é decisão de roadmap: investimento alto, retorno depende de gap real entre modelo genérico e necessidade do produto. Sem evidência de gap consistente, não é a ferramenta certa.
Analogia. É como mandar funcionário fazer MBA pra resolver problema que treinamento interno de 1 semana resolve. Mais caro, raramente justifica.
Pergunta-âncora. Existe gap consistente que prompt e RAG não resolvem? Se a resposta for "talvez", é prompt e RAG.
Para Produto
Linguagem e exemplos para Product Managers.
O que muda pra você. Fine-tuning faz sentido em produto cujo diferencial depende de comportamento ou estilo proprietário. Em produto que pode ser servido por modelo genérico bem promptado, fine-tune é overhead.
Analogia. É como ter manual de marca tão específico que precisa de redator interno. Vale pra alguns; pra maioria, free-lancer com briefing resolve.
Pergunta-âncora. A diferenciação do produto depende de fine-tune ou de prompt mais RAG? Em quase todo caso, é o segundo.
Para Engenharia
Linguagem e exemplos para Data Engineers, ML Engineers e Arquitetos.
O que muda pra você. Approaches: full fine-tuning, PEFT (LoRA, QLoRA, adapters, IA³), instruction tuning, RLHF, RLAIF, DPO, KTO. Trade-offs: catastrophic forgetting, overfitting em domínio pequeno, custo de inferência de modelo customizado, manutenção em base model upgrades. Stack moderno: Unsloth, Axolotl, TRL, MLX-LM.
Analogia. É como manter fork de software open-source. Você ganha customização, mas paga em manutenção pra integrar updates upstream.
Pergunta-âncora. Tem time pra manter o modelo fine-tunado quando a base atualizar? Sem isso, daqui a 6 meses fica com versão obsoleta.
Para Gestão
Linguagem e exemplos para TPMs, Engineering Managers e líderes de time.
O que muda pra você. Fine-tuning é projeto caro com retorno incerto. Aprovar sem evidência de gap, sem dataset curado e sem time pra manter é receita pra desperdício.
Analogia. É como aprovar reforma estrutural. Custo previsível alto, retorno depende de muitas variáveis.
Pergunta-âncora. Antes de aprovar fine-tuning, alguém mediu o gap real do modelo atual no nosso caso? Sem essa medição, é fé, não decisão.
Para Negócio
Linguagem e exemplos para Estratégia, Operações e FP&A.
O que muda pra você. Fine-tuning é raramente o caminho mais barato pra resolver problema de IA na empresa. Em maior parte dos casos, prompt bem feito mais RAG entrega o mesmo resultado por fração do custo.
Analogia. É como customizar carro de fábrica antes de testar se modelo padrão atende. Custo da customização não volta.
Pergunta-âncora. Antes de ouvir "vamos fine-tunar", alguém testou prompt e RAG por 2-3 meses? Em quase todo caso, fine-tune deixa de ser necessário depois desse teste.
Citado nestes artigos
4 artigos do blog referenciam Fine-tuning.
LGPD e IA no Brasil
LGPD aplica-se integralmente a projetos de IA que tratam dado pessoal. Decisão automatizada, base legal, anonimização e governança pedem desenho específico.
RAG vs fine-tuning: quando cada um cabe
RAG entrega conhecimento atualizável e auditável. Fine-tuning entrega estilo, formato e domínio com vocabulário próprio. Decisão arquitetural com efeito direto em custo.
O que é RAG (Retrieval Augmented Generation)
RAG combina busca semântica em base interna com geração de texto. Forma mais barata e auditável de fazer IA usar conhecimento da empresa.
Diferença entre IA, machine learning e automação
IA, machine learning e automação são categorias diferentes. Confundir as três faz projeto virar teatro corporativo, com investimento que não volta.