これはインタラクティブなノートブックです。ローカルで実行するか、以下のリンクを使用してください:
Audio データで Weave を使用する方法:OpenAI の例
このデモでは、OpenAI の chat completions API と GPT 4o Audio Preview を使用して、テキストプロンプトに対する音声レスポンスを生成し、それらを Weave で追跡します。
高度なユースケースとして、OpenAI Realtime API を活用してリアルタイムで音声をストリーミングします。動画デモを見るには、次のサムネイルをクリックするか、こちらをクリックしてください。
セットアップ
まず、OpenAI (openai) と Weave (weave) の依存関係、および API キー管理用の依存関係 set-env をインストールします。
google.colab.userdata の代替となる set_env を使用します。使用方法については こちら を参照してください。
音声ストリーミングと保存の例
次に、音声モダリティを有効にした OpenAI の completions エンドポイントへのコールを設定します。まず、OpenAI クライアントを作成し、Weave の Projects を開始します。prompt_endpont_and_log_trace を定義します。この関数には主に 3 つのステップがあります:
-
テキストと音声の入出力に対応した
GPT 4o Audio Previewモデルを使用して、completion オブジェクトを作成します。- モデルに対し、アクセントを変えながらゆっくりと 13 まで数えるようにプロンプトを出します。
- completion を “stream” に設定します。
- ストリームされたデータがチャンクごとに書き込まれる新しい出力ファイルを開きます。
- 音声ファイルへのオープンファイルハンドラーを返し、Weave がトレース内に音声データをログに記録するようにします。
テスト
以下のセルを実行します。システムプロンプトとユーザープロンプト、および出力音声が Weave のトレースに保存されます。 セルを実行した後、”🍩” 絵文字の隣にあるリンクをクリックしてトレースを確認してください。高度な使い方:Weave を使った Realtime Audio API