セットアップ不要で Google AI モデルを Weave で試すには、 LLM Playground を使用してください。
- Google GenAI SDK: Python SDK、 Node.js SDK、 Go SDK、 および REST 経由でアクセス可能です。
- Google Vertex AI API: Google の Gemini モデルや 様々なパートナーモデル へのアクセスを提供します。
非推奨となった Google AI Python SDK for the Gemini API もサポートしています。 ただし、 このサポートも同様に非推奨であり、 将来の バージョン で削除される予定ですのでご注意ください。
クイックスタート
Weave は Google GenAI SDK の Traces を自動的にキャプチャします。 トラッキングを開始するには、weave.init(project_name="<YOUR-WANDB-PROJECT-NAME>") を呼び出し、 通常通り ライブラリ を使用してください。
Weave は Vertex API の Traces も自動的にキャプチャします。 トラッキングを開始するには、 weave.init(project_name="<YOUR-WANDB-PROJECT-NAME>") を呼び出し、 通常通り ライブラリ を使用してください。
独自の ops をトラックする
関数を@weave.op でラップすると、 入出力とアプリのロジックのキャプチャが開始され、 アプリ内での データの流れをデバッグできるようになります。 ops は深くネストさせることができ、 トラックしたい関数の ツリー を構築できます。 これにより、 実験 中の コード の バージョン管理 も自動的に開始され、 git にコミットされていないアドホックな詳細もキャプチャされます。
単に @weave.op でデコレートした関数を作成するだけです。
以下の例では、 都市の観光スポットを推薦する @weave.op でラップされた関数 recommend_places_to_visit を定義しています。
実験を容易にするための Model 作成
多くの要素が動的に変化する場合、 実験 の整理は困難になります。 Model クラスを使用することで、 システムプロンプトや使用している モデル などのアプリの実験的な詳細をキャプチャし、 整理することができます。 これにより、 アプリの異なるイテレーションの整理や比較が容易になります。
コード の バージョン管理 や入出力のキャプチャに加え、 Model は アプリケーション の 振る舞い を制御する構造化された パラメータ をキャプチャするため、 どの パラメータ が最適だったかを簡単に見つけ出すことができます。 また、 Weave Models は serve や Evaluations と共に使用することもできます。
以下の例では、 CityVisitRecommender を使って 実験 を行うことができます。 これらを変更するたびに、 CityVisitRecommender の新しい バージョン が作成されます。