メインコンテンツへスキップ

Integrations

Weave は、デフォルトですべてのサポート対象 インテグレーション に対して 自動インプリシットパッチ (automatic implicit patching) を提供します。 インプリシットパッチ (自動): ライブラリがインポートされるタイミングに関わらず、自動的にパッチが適用されます。
# オプション 1: weave.init() の前にインポート
import openai
import weave
weave.init('my-project')  # OpenAI は自動的にパッチされます!

# オプション 2: weave.init() の後にインポート
import weave
weave.init('my-project')
import anthropic  # インポートフックを介して自動的にパッチされます!
インプリシットパッチの無効化: 明示的な制御を好む場合は、自動パッチを無効にすることができます。
import weave

# オプション 1: settings パラメータ経由
weave.init('my-project', settings={'implicitly_patch_integrations': False})

# オプション 2: 環境変数経由
# スクリプトを実行する前に WEAVE_IMPLICITLY_PATCH_INTEGRATIONS=false を設定します

# インプリシットパッチを無効にした場合、明示的にインテグレーションにパッチを適用する必要があります
import openai
weave.patch_openai()  # OpenAI のトレースに必要になります
エクスプリシットパッチ (手動): きめ細かな制御のために、明示的に インテグレーション にパッチを適用できます。
import weave
weave.init('my-project')
weave.integrations.patch_openai()  # OpenAI のトレースを有効化
weave.integrations.patch_anthropic()  # Anthropic のトレースを有効化
W&B Weave は、主要な LLM プロバイダーや オーケストレーション フレームワーク 向けの ログ インテグレーション を提供しています。これらの インテグレーション により、さまざまなライブラリを介した呼び出しをシームレスにトレースでき、AI アプリケーション の監視と分析の能力が向上します。

LLM Providers

LLM プロバイダーは、予測 を生成するための大規模言語モデルへの アクセス を提供するベンダーです。Weave はこれらのプロバイダーと統合し、API とのやり取りを ログ に記録してトレースします。 Local Models: 独自の インフラストラクチャー で モデル を実行する場合に使用します。

Frameworks

フレームワーク は、AI アプリケーション における実際の実行 パイプライン の オーケストレーション を支援します。複雑な ワークフロー を構築するための ツール や抽象化を提供します。Weave はこれらの フレームワーク と統合し、パイプライン 全体をトレースします。

RL Frameworks

Protocols

Weave は、AI アプリケーション とそれをサポートするサービス間の通信を可能にする標準化されたプロトコルと統合されています。 上記のリストから インテグレーション を選択して、お好みの LLM プロバイダー、フレームワーク、またはプロトコルで Weave を使用する方法の詳細を確認してください。LLM API に直接 アクセス している場合でも、複雑な パイプライン を構築している場合でも、標準化されたプロトコルを使用している場合でも、Weave は AI アプリケーション を効果的にトレースおよび分析するための ツール を提供します。