「Stable-Baselines3を用いた便利な強化学習」
「便利な強化学習の新たな展望:Stable-Baselines3を活用する方法」
強化学習
冗長なコードを使わずに強化学習
以前の強化学習に関する記事では、numpyとTensorFlowを使って(deep) Q-learningを実装する方法を紹介しました。これは、これらのアルゴリズムがどのように機能するかを理解するための重要なステップでしたが、コードは長くなる傾向がありました。私はたった一つの基本的なバージョンのdeep Q-learningを実装したに過ぎませんでした。
実践的な深層Q学習
より困難なゲームで勝つためにエージェントをパワーアップ!
towardsdatascience.com
この記事の説明によれば、コードを理解することは非常に簡単です。しかし、作業を進めるには、よく文書化された、メンテナンスされた、最適化されたライブラリに頼る必要があります。線形回帰を何度も再実装したくないように、強化学習も同じです。
- 一時的なグラフのベンチマーク (Ichijiteki na gurafu no benchimāku)
- 「PySpark UDFを使用して合成テーブルの列間にOne-To-Oneの関係を作成する方法」
- 「データサイエンスプロジェクトのための8つのGitHubの代替品」
この記事では、強化学習ライブラリStable-Baselines3を紹介します。これはscikit-learnと同じくらい使いやすいです。ただし、ラベルを予測するためのモデルをトレーニングするのではなく、環境でうまく動作するトレーニング済みのエージェントを得ます。
簡単なまとめ
(深層)Q学習についてよくわからない場合は、私の以前の記事を読むことをおすすめします。高いレベルでは、合計報酬を最大化することを目的としてエージェントが環境とやり取りするようにトレーニングします。強化学習の最も重要な部分は、エージェントのための良い報酬関数を見つけることです。
私は通常、ゲーム内のキャラクターが最高のスコアを獲得するために道を探している様子を想像します。例えば、マリオが死ぬことなくスタートからゴールまで走り抜け、なるべく速く完了する場合です。
そのために、Q-learningでは、エージェントがとることができる各ペア(s、a)の品質値を学習します。Q(s, a)は以下のようなものです…
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles