weave.init() が呼び出された後、 Cohere Python library を介して行われた LLM 呼び出しを自動的に追跡し、ログを記録します。
Traces
開発中および Production 環境の両方において、 LLM application の トレース を中央データベースに保存することは重要です。これらの トレース はデバッグに使用されるだけでなく、 application の改善に役立つ Dataset としても活用されます。 Weave は cohere-python の トレース を自動的にキャプチャします。ライブラリを通常通り使用し、まずweave.init() を呼び出すことから始めてください。
weave.init() を呼び出す際に W&B の Teams を指定しない場合は、デフォルトの Entities が使用されます。デフォルトの Entities を確認または更新するには、 W&B Models ドキュメントの User Settings を参照してください。
Cohere モデルの強力な機能の一つに、 connectors の使用があります。これにより、エンドポイント側で他の API に対してリクエストを行うことが可能になります。レスポンスには、生成されたテキストと共に、コネクタから返されたドキュメントにリンクする引用要素が含まれます。
Weave は Cohere の
Client.chat 、 AsyncClient.chat 、 Client.chat_stream 、および AsyncClient.chat_stream メソッドをパッチすることで、 LLM 呼び出しを追跡できるようにしています。独自の ops でラップする
Weave の ops は、実験中の code を自動的に Versioning することで結果の 再現性 を高め、その入力と出力をキャプチャします。 Cohere の chat メソッドを呼び出す関数を作成し、@weave.op() デコレータを付与するだけで、 Weave が入力と出力を追跡します。以下に例を示します。
実験を容易にするために Models を作成する
多くの可動パーツがある場合、実験を整理するのは困難です。 Models クラスを使用することで、システムプロンプトや使用しているモデルなど、アプリの実験的な詳細をキャプチャして整理できます。これにより、アプリの異なるイテレーションの整理や比較が容易になります。
code の Versioning や入出力のキャプチャに加えて、 Models は application の behavior を制御する構造化された パラメータ をキャプチャし、どの パラメータ が最適であったかを簡単に見つけられるようにします。また、 Weave Models は serve や Evaluation と併用することもできます。
以下の例では、 model と temperature を使って実験を行うことができます。これらを変更するたびに、 WeatherModel の新しい バージョン が作成されます。
