Como implementar streaming na integração?

Viewed 2

Quero mostrar a resposta do agente aparecendo em tempo real. Como?

1 Answers

Basta setar stream=True na requisição. A API retorna Server-Sent Events (SSE).

Python:

stream = client.chat.completions.create(
    model="claude-sonnet-4-6",
    messages=[{"role": "user", "content": "Escreva texto longo"}],
    stream=True,
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="", flush=True)

Node.js:

const stream = await client.chat.completions.create({
  model: "claude-sonnet-4-6",
  messages: [{ role: "user", content: "..." }],
  stream: true,
});

for await (const chunk of stream) {
  process.stdout.write(chunk.choices[0]?.delta?.content || '');
}

Quando usar:

  • ✅ Interface de chat ao vivo (melhora percepção de velocidade)
  • ✅ Respostas longas
  • Não use em JSON mode (parsing complexo)
  • Não use em integração batch/webhook

📖 Documentação completa na Wiki:

Related