メインコンテンツへスキップ
Open In Colab
セットアップなしで Weave 上で OpenAI モデルを試してみたいですか? LLM Playground をお試しください。

トレース (Tracing)

開発中およびプロダクション環境の両方で、LLM アプリケーションの トレース を中央データベースに保存することは重要です。これらの トレース は、デバッグや、アプリケーションを改善する際の 評価 に使用するトリッキーな例の データセット を構築するのに役立ちます。 Weave は openai python library の トレース を自動的にキャプチャできます。 お好みの プロジェクト 名を指定して weave.init(<project-name>) を呼び出すことで、キャプチャを開始します。OpenAI は、インポートするタイミングに関係なく自動的にパッチが適用されます。 weave.init() を呼び出す際に W&B の チーム を指定しない場合は、デフォルトの Entity が使用されます。デフォルトの Entity の確認や更新については、W&B Models ドキュメントの User Settings を参照してください。 自動パッチ適用 (Automatic Patching) Weave は、weave.init() の前後のどちらでインポートされたかにかかわらず、OpenAI に自動的にパッチを適用します。
from openai import OpenAI
import weave

weave.init('emoji-bot')  # OpenAI は自動的にパッチされます!

client = OpenAI()
response = client.chat.completions.create(
  model="gpt-4",
  messages=[
    {
      "role": "system",
      "content": "You are AGI. You will be provided with a message, and your task is to respond using emojis only."
    },
    {
      "role": "user",
      "content": "How are you?"
    }
  ]
)
明示的なパッチ適用 (任意) きめ細かな制御が必要な場合は、引き続き明示的にパッチを適用することもできます。
import weave

weave.init('emoji-bot')
weave.integrations.patch_openai()  # OpenAI のトレースを有効化

from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create(
  model="gpt-4",
  messages=[
    {"role": "user", "content": "Make me a emoji"}
  ]
)
実際のトレースを表示
OpenAI FunctionsOpenAI Assistants の関数呼び出しツールもキャプチャします。

構造化出力 (Structured Outputs)

Weave は OpenAI を使用した構造化出力もサポートしています。これは、LLM のレスポンスが特定の形式に従うようにするのに役立ちます。
from openai import OpenAI
from pydantic import BaseModel
import weave

class UserDetail(BaseModel):
    name: str
    age: int

client = OpenAI()
weave.init('extract-user-details')

completion = client.beta.chat.completions.parse(
    model="gpt-4o-2024-08-06",
    messages=[
        {"role": "system", "content": "Extract the user details from the message."},
        {"role": "user", "content": "My name is David and I am 30 years old."},
    ],
    response_format=UserDetail,
)

user_detail = completion.choices[0].message.parsed
print(user_detail)

非同期サポート (Async Support)

Weave は OpenAI の非同期関数もサポートしています。
from openai import AsyncOpenAI
import weave

client = AsyncOpenAI()
weave.init('async-emoji-bot')

async def call_openai():
    response = await client.chat.completions.create(
        model="gpt-4",
        messages=[
            {
                "role": "system", 
                "content": "You are AGI. You will be provided with a message, and your task is to respond using emojis only."
            },
            {
                "role": "user",
                "content": "How are you?"
            }
        ]
    )
    return response

# 非同期関数を呼び出す
result = await call_openai()

ストリーミングサポート (Streaming Support)

Weave は OpenAI からのストリーミングレスポンスもサポートしています。
from openai import OpenAI
import weave

client = OpenAI()
weave.init('streaming-emoji-bot')

response = client.chat.completions.create(
    model="gpt-4",
    messages=[
        {
            "role": "system", 
            "content": "You are AGI. You will be provided with a message, and your task is to respond using emojis only."
        },
        {
            "role": "user",
            "content": "How are you?"
        }
    ],
    stream=True
)

for chunk in response:
    print(chunk.choices[0].delta.content or "", end="")

関数呼び出しのトレース (Tracing Function Calls)

Weave は、ツールを使用する際に OpenAI によって行われる関数呼び出しも トレース します。
from openai import OpenAI
import weave

client = OpenAI()
weave.init('function-calling-bot')

tools = [
    {
        "type": "function",
        "function": {
            "name": "get_weather",
            "description": "Get the weather in a given location",
            "parameters": {
                "type": "object",
                "properties": {
                    "location": {
                        "type": "string",
                        "description": "The location to get the weather for"
                    },
                    "unit": {
                        "type": "string",
                        "enum": ["celsius", "fahrenheit"],
                        "description": "The unit to return the temperature in"
                    }
                },
                "required": ["location"]
            }
        }
    }
]

response = client.chat.completions.create(
    model="gpt-4",
    messages=[
        {
            "role": "user",
            "content": "What's the weather like in New York?"
        }
    ],
    tools=tools
)

print(response.choices[0].message.tool_calls)

Batch API

Weave は、複数のリクエストを処理するための OpenAI Batch API もサポートしています。
from openai import OpenAI
import weave

client = OpenAI()
weave.init('batch-processing')

# バッチファイルを作成
batch_input = [
    {
        "custom_id": "request-1",
        "method": "POST",
        "url": "/v1/chat/completions",
        "body": {
            "model": "gpt-4",
            "messages": [{"role": "user", "content": "Hello, how are you?"}]
        }
    },
    {
        "custom_id": "request-2", 
        "method": "POST",
        "url": "/v1/chat/completions",
        "body": {
            "model": "gpt-4",
            "messages": [{"role": "user", "content": "What's the weather like?"}]
        }
    }
]

# バッチを送信
batch = client.batches.create(
    input_file_id="your-file-id",
    endpoint="/v1/chat/completions",
    completion_window="24h"
)

# バッチ結果を取得
completed_batch = client.batches.retrieve(batch.id)

Assistants API

Weave は、会話型 AI アプリケーションを構築するための OpenAI Assistants API もサポートしています。
from openai import OpenAI
import weave

client = OpenAI()
weave.init('assistant-bot')

# アシスタントを作成
assistant = client.beta.assistants.create(
    name="Math Assistant",
    instructions="You are a personal math tutor. Answer questions about math.",
    model="gpt-4"
)

# スレッドを作成
thread = client.beta.threads.create()

# スレッドにメッセージを追加
message = client.beta.threads.messages.create(
    thread_id=thread.id,
    role="user",
    content="What is 2+2?"
)

# アシスタントを実行
run = client.beta.threads.runs.create(
    thread_id=thread.id,
    assistant_id=assistant.id
)

# アシスタントのレスポンスを取得
messages = client.beta.threads.messages.list(thread_id=thread.id)

コスト追跡 (Cost Tracking)

Weave は OpenAI API 呼び出しのコストを自動的に追跡します。Weave UI でコストの内訳を確認できます。
コスト追跡はすべての OpenAI モデルで利用可能であり、最新の OpenAI 料金に基づいて計算されます。

カスタム関数のトレース

@weave.op デコレータを使用することで、OpenAI を使用するカスタム関数も トレース できます。
from openai import OpenAI
import weave

client = OpenAI()
weave.init('custom-function-bot')

@weave.op
def generate_response(prompt: str) -> str:
    response = client.chat.completions.create(
        model="gpt-4",
        messages=[
            {
                "role": "user",
                "content": prompt
            }
        ]
    )
    return response.choices[0].message.content

# この関数呼び出しがトレースされます
result = generate_response("Hello, how are you?")

次のステップ

OpenAI の トレース 設定が完了したので、以下のことが行えます。
  1. Weave UI で トレース を表示する: Weave プロジェクト にアクセスして、OpenAI 呼び出しの トレース を確認します。
  2. 評価 を作成する: トレース を使用して 評価 用の データセット を構築します。
  3. パフォーマンスを監視する: レイテンシ、コスト、その他の メトリクス を追跡します。
  4. 問題をデバッグする: トレース を使用して、LLM アプリケーション内で何が起きているかを把握します。
これらのトピックの詳細については、評価ガイド および モニタリングガイド を参照してください。