Meu agente está dando respostas factualmente erradas. Como reduzir alucinações?
Meu agente está dando respostas factualmente erradas. Como reduzir alucinações?
Alucinação = modelo inventa informação que parece verdadeira. 5 estratégias:
1. Use RAG para dados factuais
Obrigue consultar base:
'Sempre consulte a base de conhecimento. Se não estiver lá, diga "Não encontrei nos documentos internos" em vez de inventar.'
2. Reduza temperatura para 0.1-0.3 em tarefas factuais
3. Exija citações
'Cite sempre a fonte entre colchetes: [documento, pág.X]. Se não pode citar, não afirme.'
4. Use modelo de raciocínio
gpt-5, claude-opus-4-7, o3 alucinam menos em tarefas complexas.
5. Habilite busca web se depende de info atualizada.
Regra crítica: alucinações são característica estatística dos LLMs, não bugs. Sempre revise fatos críticos.
📖 Documentação completa na Wiki: