stream オプションを true に設定すると、応答をチャンクのストリームとして受け取ることができ、応答全体が生成されるのを待つのではなく、結果を段階的に表示できるようになります。
ストリーミング出力は、すべてのホストされた Models でサポートされています。特に reasoning models での使用を推奨します。ストリーミングを使用しないリクエストでは、出力が開始される前に Model が長時間考え込むと、タイムアウトが発生する可能性があるためです。
- Python
- Bash
thoughtful mini-thought-thought止 W&B Inference でストリーミング出力を使用する方法
stream オプションを true に設定すると、応答をチャンクのストリームとして受け取ることができ、応答全体が生成されるのを待つのではなく、結果を段階的に表示できるようになります。
ストリーミング出力は、すべてのホストされた Models でサポートされています。特に reasoning models での使用を推奨します。ストリーミングを使用しないリクエストでは、出力が開始される前に Model が長時間考え込むと、タイムアウトが発生する可能性があるためです。