O agente está alucinando. O que fazer?

Viewed 2

Meu agente está dando respostas factualmente erradas. Como reduzir alucinações?

1 Answers

Alucinação = modelo inventa informação que parece verdadeira. 5 estratégias:

1. Use RAG para dados factuais
Obrigue consultar base:

'Sempre consulte a base de conhecimento. Se não estiver lá, diga "Não encontrei nos documentos internos" em vez de inventar.'

2. Reduza temperatura para 0.1-0.3 em tarefas factuais

3. Exija citações

'Cite sempre a fonte entre colchetes: [documento, pág.X]. Se não pode citar, não afirme.'

4. Use modelo de raciocínio
gpt-5, claude-opus-4-7, o3 alucinam menos em tarefas complexas.

5. Habilite busca web se depende de info atualizada.

Regra crítica: alucinações são característica estatística dos LLMs, não bugs. Sempre revise fatos críticos.

📖 Documentação completa na Wiki: