なぜ W&B を使うべきなのか?

- 統合されたダッシュボード: すべてのモデルメトリクスと予測を保存する中央リポジトリ
- 軽量: Hugging Face と統合するためにコードを変更する必要はありません
- アクセシビリティ: 個人やアカデミックチームは無料で利用可能
- セキュア: すべてのプロジェクトはデフォルトでプライベート設定
- 信頼性: OpenAI、Toyota、Lyft などの機械学習チームによって使用されています
インストール、インポート、ログイン
このチュートリアルのために、Hugging Face と W&B のライブラリ、GLUE データセット、およびトレーニングスクリプトをインストールします。- Hugging Face Transformers: 自然言語モデルとデータセット
- W&B: 実験管理と可視化
- GLUE データセット: 言語理解のベンチマークデータセット
- GLUE スクリプト: シーケンス分類のためのモデルトレーニングスクリプト
APIキーの設定
登録が完了したら、次のセルを実行し、リンクをクリックして API キーを取得し、このノートブックを認証します。モデルのトレーニング
次に、ダウンロードしたトレーニングスクリプト run_glue.py を呼び出します。トレーニングが自動的に W&B ダッシュボードにトラッキングされるのが確認できます。このスクリプトは、Microsoft Research Paraphrase Corpus(意味的に同等かどうかを示す人間によるアノテーションが付いた文のペア)で BERT をファインチューンします。ダッシュボードで結果を可視化
上に表示されたリンクをクリックするか、 wandb.ai にアクセスして、結果がライブでストリーミングされるのを確認してください。ブラウザで run を表示するためのリンクは、すべての依存関係がロードされた後に表示されます。次の出力を探してください: “wandb: View run at [URL to your unique run]” モデルパフォーマンスの可視化 数十もの実験を見渡し、興味深い発見をズームアップし、高次元データを可視化することが簡単にできます。

重要な情報をデフォルトで手間なくトラッキング
W&B は実験ごとに新しい run を保存します。デフォルトで保存される情報は以下の通りです。- ハイパーパラメーター: モデルの設定は Config に保存されます
- モデルメトリクス: ストリーミングされるメトリクスの時系列データは Log に保存されます
- ターミナルログ: コマンドラインの出力が保存され、タブから確認できます
- システムメトリクス: GPU および CPU の使用率、メモリ、温度など