O agente está alucinando (inventando informação). O que faço?

Viewed 6

Meu agente está dando respostas factualmente erradas. Como reduzir alucinações?

1 Answers

Alucinação é quando o modelo inventa informação que parece verdadeira mas é falsa. Cinco estratégias para reduzir:

1. Use RAG para dados factuais
Anexe uma base de conhecimento e obrigue o agente a usar. Adicione no prompt do sistema:

"Sempre consulte a base de conhecimento antes de responder. Se a informação não estiver nos documentos disponíveis, diga explicitamente 'Não encontrei nos documentos internos' em vez de inventar."

2. Reduza a temperatura
Troque temperature de 0.7 para 0.1-0.3 em casos factuais (jurídico, compliance, técnico). Valores baixos = respostas mais determinísticas.

3. Exija citações

"Cite sempre a fonte de cada afirmação entre colchetes: [nome-do-documento.pdf, pág.X]. Se não puder citar, não afirme."

4. Use modelo de raciocínio
Modelos com 'thinking' (gpt-5, claude-opus-4-7, o3) são significativamente menos propensos a alucinar em tarefas complexas.

5. Habilite busca web se a pergunta depende de info atualizada
Modelos não têm dados pós corte-de-treinamento. Para notícias, regulamentações recentes, preços atuais → use ferramenta de busca web.

Regra crítica: alucinações não são bugs, são característica estatística dos LLMs. Sempre revise fatos críticos antes de decidir.

📖 Documentação completa na Wiki: