「高次元のカテゴリ変数に対する混合効果機械学習 – 第二部 GPBoostライブラリ」

Mixing Effects Machine Learning for High-Dimensional Categorical Variables - Part 2 GPBoost Library

実世界のデータを使用したPython&RでのGPBoostのデモ

Illustration of high-cardinality categorical data: box plots and raw data (red points) of the response variable for different levels of a categorical variable — Image by author

高基数のカテゴリカル変数は、データセットのサンプルサイズに対して異なるレベルの数が大きい変数です。このシリーズの第1部では、さまざまな機械学習手法の実証的な比較を行い、ランダム効果がGPBoostアルゴリズムを用いた高基数のカテゴリカル変数の処理に効果的であり、予測精度が最も高いことがわかりました [Sigrist、2022、2023]。この記事では、ツリーブースティングとランダム効果を組み合わせたGPBoostアルゴリズムを、PythonおよびRパッケージのGPBoostライブラリでどのように適用するかを示します。このデモでは、GPBoostライブラリのバージョン1.2.1を使用しています。

目次

∘ 1 紹介∘ 2 データ:説明、読み込み、サンプル分割∘ 3 GPBoostモデルのトレーニング∘ 4 チューニングパラメータの選択∘ 5 予測∘ 6 解釈∘ 7 さらなるモデリングオプション · · 7.1 カテゴリカル変数と他の予測変数との相互作用 · · 7.2 (一般化)線形混合効果モデル∘ 8 結論と参考文献

1 紹介

GPBoostモデルの適用には、次の主なステップがあります:

  1. 以下を指定するGPModelを定義する: — ランダム効果モデル: group_dataを介したグループ化されたランダム効果と/またはgp_coordsを介したガウス過程 — likelihood(固定効果およびランダム効果に条件付けられた応答変数の分布)
  2. 応答変数(label)と固定効果の予測変数(data)を含むDatasetを作成する
  3. 関数gpb.grid.search.tune.parametersを使用して、チューニングパラメータを選択する
  4. モデルをトレーニングする
  5. トレーニングされたモデルの予測と/または解釈を行う

以下では、これらのポイントをステップバイステップで説明します。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

データサイエンス

「誰も所有していないサービスを修復するために、アンブロックされたものを使う」

「サービスが誰にも所有されていないのは珍しいことではありませんほとんどの文書化もない状態で、Unblockedの魔法を使って、...

機械学習

T5 テキストからテキストへのトランスフォーマー(パート2)

BERT [5] の提案により、自然言語処理(NLP)のための転移学習手法の普及がもたらされましたインターネット上での未ラベル化...

データサイエンス

「JAXとHaikuを使用してゼロからTransformerエンコーダを実装する🤖」

2017年に「アテンションはすべて」という画期的な論文で紹介されたトランスフォーマーアーキテクチャは、最近の深層学習の歴...

機械学習

光ニューラルネットワークとトランスフォーマーモデルを実行した場合、どのようなことが起こるのでしょうか?

ディープラーニングモデルの指数関数的な拡大スケールは、最先端の進化と巨大スケールのディープラーニングのエネルギー消費...

機械学習

「BentoML入門:統合AIアプリケーションフレームワーク」

この記事では、統合されたAIアプリケーションフレームワークであるBentoMLを使用して、機械学習モデルの展開を効率化する方法...

機械学習

BYOL(Bootstrap Your Own Latent)— コントラスティブな自己教示学習の代替手段

『今日の論文分析では、BYOL(Bootstrap Your Own Latent)の背後にある論文に詳しく触れますこれは、対比的な自己教師あり学...