「理論から実践までの勾配ブースティング(パート1)」
Gradient Boosting from Theory to Practice (Part 1)
人気のある勾配ブースティングアルゴリズムの数学を理解し、実践での使用方法を理解する
勾配ブースティングは、ブースティングと勾配降下法の組み合わせに基づく広く使用される機械学習技術です。
ブースティングは、複数の弱学習器(またはベース学習器)を組み合わせて強力な予測モデルを作成するアンサンブル法です。ベースモデルは順次訓練され、各モデルは前のモデルの誤りを修正することに焦点を当てています。
勾配ブースティングでは、各ベースモデルは前のモデルの予測に関する損失関数の負の勾配を予測するように訓練されます。その結果、新たに訓練されたベース学習器をアンサンブルに追加することで、損失の最小値への最も急な降下方向にステップが進みます。このプロセスは勾配降下法に似ていますが、パラメータ空間ではなく関数空間で操作されます。そのため、これは関数勾配降下法として知られています。
弱学習器が決定木である場合、その結果得られる手法は勾配ブースティング決定木(GBDT)または勾配ブースティングマシン(GBM)として知られています。
勾配ブースティングは、構造化データに対処するための現在の最高のアルゴリズムの一つであり、多くの標準的な分類ベンチマークで最先端の結果を提供します。深層学習と並んで、Kaggleコンテストなどで最も一般的に使用されるアルゴリズムの一つです。
勾配ブースティングアルゴリズムは、2001年にJerome Freidmanによって最初に開発されました[1]。その後、XGBoost、CatBoost、LightGBMなどのアルゴリズムのファミリーに拡張されました。これらのアルゴリズムのバリエーションには、勾配ブースティングのパフォーマンスとスケーラビリティをさらに向上させるさまざまな改良が組み込まれています。
この記事では、勾配ブースティングの理論と実装について詳しく説明します。記事の最初の部分では、勾配ブースティングの理論的な概念に焦点を当て、疑似コードでアルゴリズムを示し、モデルを正則化するさまざまな方法について議論します。2部では、勾配ブースティングを実装するScikit-Learnのクラスを探索し、異なる回帰と分類のタスクを解決するために使用します。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles