wandb ライブラリには、 XGBoost のトレーニングからメトリクス、設定、保存された booster をログに記録するための WandbCallback コールバックが用意されています。こちらから、 XGBoost の WandbCallback による出力を表示した ライブ W&B Dashboard をご覧いただけます。

はじめる
XGBoost のメトリクス、設定、 booster モデルを W&B にログ記録するのは、WandbCallback を XGBoost に渡すだけで簡単に行えます。
WandbCallback リファレンス
機能
WandbCallback を XGBoost モデルに渡すと、以下のことが行われます。
- booster モデルの設定を W&B にログ記録します
- rmse、精度(accuracy)など、 XGBoost によって収集された評価メトリクスを W&B にログ記録します
- XGBoost によって収集されたトレーニングメトリクスをログ記録します(
eval_setにデータを提供した場合) - ベストスコアとベストイテレーションをログ記録します
- 学習済みモデルを保存し、 W&B Artifacts にアップロードします(
log_model = Trueの場合) - インポータンスプロット をログ記録します(
log_feature_importance=True(デフォルト)の場合) define_metric=True(デフォルト)の場合、wandb.Run.summaryに最適な評価メトリクスを記録します
引数
-
log_model: (boolean) True の場合、モデルを保存して W&B Artifacts にアップロードします -
log_feature_importance: (boolean) True の場合、特徴量重要度の棒グラフをログ記録します -
importance_type: (str) ツリー モデルの場合は{weight, gain, cover, total_gain, total_cover}のいずれか。線形モデルの場合はweight。 -
define_metric: (boolean) True(デフォルト)の場合、トレーニングの最終ステップではなく、最適なステップにおけるモデルのパフォーマンスをrun.summaryに記録します
Sweeps でハイパーパラメーターをチューニングする
モデルから最大限のパフォーマンスを引き出すには、ツリーの深さや学習率などの ハイパーパラメーター をチューニングする 必要があります。 W&B Sweeps は、大規模な ハイパーパラメーター テストの実験を構成、オーケストレーション、および分析するための強力なツールキットです。 Try in Colab また、こちらの XGBoost & Sweeps Python スクリプト もお試しいただけます。