Learn more about Search Results 大規模な言語モデル - Page 2
- You may be interested
- 業界の内部人がビッグテックのA.I.に対す...
- 「AIではなく、データプライバシー法の欠...
- あなたの製品の開発者学習のためのLLM(大...
- ユーザーに扱える以上を提供する
- You take care of a rich beauty and fash...
- 「GPT-4 8つのモデルを1つに統合、秘密が...
- 「NVIDIA BioNeMoがAWS上での薬剤探索のた...
- 「生成AIからの社会的および倫理的リスク...
- 企業がOpenAIのChatGPTに類似した自社の大...
- シートベルトを締めてください:ファルコ...
- 「大規模言語モデル:現実世界のCXアプリ...
- 「CNN(畳み込みニューラルネットワーク)...
- ミストラルAI オープンソースのラマ2を超...
- 「AIプロジェクトはどのように異なるのか」
- RAPIDS:簡単にMLモデルを加速するためにG...
大規模な言語モデルをマスターするための包括的な資源リスト
大規模言語モデル(LLM)は、さまざまなアプリケーションの重要な一部となりましたこの記事では、LLMの世界に飛び込みたいと思う人々のための豊富な情報源のリストを提供しています
ユレカ:大規模な言語モデルをコーディングすることによる人間レベルの報酬設計
近年、大型言語モデルの進化によって、これらのLLMフレームワークが連続的な高レベルの意思決定タスクのための意味的なプランナーとして優れている理由が驚くほど明らかになっていますしかし、開発者は依然として複雑な低レベルの操作タスクの学習にLLMフレームワークの全ての潜在能力を活用することに苦戦していると感じています現在の大型言語モデルには、効率性がありますが、[…]が必要です
「大規模な言語モデルを使ったフェイクニュースの検出」を活用する
フェイクニュースは、虚偽で作り話、あるいは意図的に誤った情報を伝えるニュースと定義され、印刷機の登場と同時に現れましたフェイクニュースやディスインフォメーションのオンラインでの急速な拡散は、一般の人々を欺くだけでなく、社会、政治、経済にも深い影響を与える可能性があります
このAI論文では、GraphGPTフレームワークを紹介しています大規模な言語モデルのテクニックを使って、優れたゼロショット学習のパフォーマンスを実現するために、グラフニューラルネットワークを強化しています
最近の研究「GraphGPT:大規模言語モデルのためのグラフ指示チューニング」では、自然言語処理の分野で特にグラフモデルの文脈で、重要な課題に取り組んでいます。彼らが解決しようとした問題は、グラフモデルの拡張一般化能力の必要性であり、それは広範な適用性の重要な要素です。 彼らの革新的なフレームワークであるGraphGPTが導入される前、グラフを扱うためのさまざまな方法とフレームワークが利用可能でしたが、それらはしばしばドメイン固有の構造的知識を言語モデル(LLM)に効果的に組み込むことに苦労していました。これらのモデルは、グラフの構造的な要素を理解し解釈する能力に制約があり、全体的なパフォーマンスに影響を及ぼしていました。 研究者たちは、これらの制約に対処するためにGraphGPTという革新的なフレームワークを提案しました。このフレームワークは、双層のグラフ指示チューニングパラダイムとグラフテキストアラインメントプロジェクタを使用して、ドメイン固有の構造的な知識をLLMに注入します。これらの技術の組み合わせにより、LLMがグラフの構造要素を理解する能力が向上し、グラフモデリングにおける重要な進歩が達成されました。 提案されたGraphGPTフレームワークは、さまざまな設定での包括的な評価を通じて有望な結果を提供しています。これらの評価は、教師ありおよびゼロショットのグラフ学習シナリオの両方をカバーしています。いずれの場合でも、このフレームワークは、グラフ関連のタスクと学習の向上においてその効果を示しています。この適応性は重要であり、他のモデルにおける致命的な忘却現象から免れずに多様なダウンストリームのデータセットとタスクを処理することができるからです。 これらの評価から得られた結果は、GraphGPTがLLMのグラフ関連のタスクの一般化能力を向上させる潜在能力を示しています。さまざまな設定で既存の手法を上回り、そのため、これはこの分野への価値ある追加となります。 結論として、GraphGPTの導入はグラフモデリングの領域における重要な進展を表しています。グラフモデルの一般化能力を向上させるという長年の問題に取り組み、ドメイン固有の構造的知識をLLMに組み込む強力な解決策を提供しています。包括的な評価は、教師ありおよびゼロショットのグラフ学習シナリオの両方でこのフレームワークの効果を明確に示しており、グラフデータに依存するさまざまなアプリケーションにおいてその潜在能力を強調しています。 今後の展望については、研究者らはモデル全体のサイズを削減し、そのパフォーマンスを保持するための剪定技術の探求を提案しています。これにより、GraphGPTフレームワークの実用性と効率性がさらに向上する可能性があります。全体的に見て、この研究はグラフモデリングの領域での大きな進歩を示し、グラフデータに依存するさまざまなアプリケーションに大きな影響を与えることが期待されます。
マイクロソフトの研究者たちは、FP8混合精度トレーニングフレームワークを公開しました:大規模な言語モデルのトレーニング効率を超高速化します
大型言語モデルは、言語生成と理解の能力において以前に類を見ない優れた能力を示しており、論理学、数学、物理学、他の領域の先進に道を開いています。ただし、LLMのトレーニングは非常に高額です。たとえば、540Bモデルをトレーニングするには、PaLMには6,144個のTPUv4チップが必要であり、GPT-3175Bは事前トレーニングに数千ペタフロップ/秒の計算が必要です。これは、特に次世代の非常に知的なモデルを拡大するために、LLMのトレーニングコストを低くする必要性を示しています。コストを節約するための最も有望なアプローチの1つは、低精度トレーニングです。このアプローチは、高速な処理、少ないメモリ使用量、最小限の通信オーバーヘッドを提供します。現在のほとんどのトレーニングシステム(Megatron-LM、MetaSeq、Colossal-AIなど)は、デフォルトでFP16/BF16のミックス精度またはFP32の完全精度を使用してLLMをトレーニングします。 大規模なモデルの場合、これは完全な精度を得るためのオプションですが、FP8はNvidia H100 GPUの登場により、次世代の低精度表現のデータ型として台頭しています。既存の16ビットと32ビットの浮動小数点ミックス精度トレーニングと比較して、FP8には理論的に2倍の高速化、50%から75%のメモリコスト削減、50%から75%の通信コスト削減の潜在能力があります。これらの結果は、次世代の基礎となるモデルのスケーリングに非常に有望です。残念ながら、FP8トレーニングへのサポートはもっと少なく、時間的に間隔のあるものが必要です。Nvidia Transformer Engineは唯一の実用的なフレームワークですが、GEMM計算にはFP8のみを使用し、マスターウェイトとグラデーションは極めて正確なFP16またはFP32のように維持します。これにより、エンドツーエンドのパフォーマンス向上、メモリの節約、および通信コストの節約は比較的少なくなり、FP8のフルポテンシャルは隠されてしまいます。 Microsoft AzureとMicrosoft Researchの研究者は、この問題を解決するためにLLMのトレーニングに非常に効率的なFP8ミックス精度フレームワークを提供しています。主なコンセプトは、ビッグモデルのトレーニングプロセス中に、計算、ストレージ、通信において低精度FP8を活用することです。これにより、以前のフレームワークと比較して、システム要件を大幅に削減することができます。より具体的には、彼らはFP8を使用して最適化ステージを3つ作成し、オプティマイザ、分散並列トレーニング、8ビットの集合通信を段階的に導入します。より大きな最適化レベルは、LLMのトレーニングプロセスでより多くのFP8が使用されたことを示しています。さらに、彼らのシステムはテンソル、パイプライン、およびシーケンスの並列性を含むFP8低ビット並列性を提供します。これにより、数千のGPUでトレーニングされたGPT-175Bなどの大規模なトレーニングが可能になり、次世代の低精度並列トレーニングの扉が開かれます。 FP8を使用したLLMのトレーニングには、作業が必要です。データオーバーフローやアンダーフローなどの問題に起因する固有のダイバージェンスや数値不安定性などの問題が発生します。これらの問題に対処するために、彼らは2つの方法を提案しています。情報の損失を防ぐための自動スケーリングと、重み、勾配、およびオプティマイザーの状態などのパラメータにおけるデータ精度の影響を分離するための精度切り離しです。最初の方法は、非精度に敏感でないコンポーネントの精度を低下させ、テンソルのスケーリング係数の動的調整により、FP8データフォーマット表現範囲内の勾配値を保持することです。これにより、全体の通信中にアンダーフローやオーバーフローの発生が防止されます。 彼らは、検証のために監督付き微調整と事前トレーニングを含むGPTスタイルのモデルトレーニングに提案されたFP8低精度フレームワークを使用します。彼らのFP8手法をよく使用されるBF16ミックス精度トレーニングアプローチと比較すると、実験結果は、実メモリ使用量の27%〜42%の減少や、重み勾配通信オーバーヘッドの63%〜65%の著しい減少など、重要な改善を示しています。FP8でトレーニングされたモデルは、学習率や重み減衰などのハイパーパラメータの調整なしに、BF16の高精度を使用するモデルと同等の性能を示します。GPT-175Bモデルのトレーニングでは、彼らのFP8ミックス精度フレームワークがH100 GPUプラットフォーム上で21%少ないメモリを使用し、TEよりも17%短いトレーニング時間を節約することに注目すべきです。 図1: クラスター内のNvidia H100 GPU with 80G RAMを使用した場合に達成可能な最大モデルサイズの比較。当社のFP8混合精度トレーニング方法とより一般的なBF16方法を使用しています。 さらに重要なことは、Fig. 1に示すようにモデルのスケールが増加すると、低精度のFP8を使用することで得られるコスト削減をさらに向上させることができることです。事前学習されたLLMsをエンドタスクとユーザーの好みにより適合させるために、彼らは指示の微調整とヒューマンインプットによる強化学習にFP8混合精度を使用しています。特に、彼らは公開されているユーザー共有の指示に従うデータを使用して事前学習済みモデルを微調整します。彼らのFP8混合精度で調整されたモデルは、BF16の半精度を使用したモデルと比較して、AlpacaEvalとMT-Benchベンチマークで同様のパフォーマンスを発揮します。さらに、FP8混合精度はトレーニング中に多くのモデルをロードする必要があるRLHFにおいて非常に有望です。 人気のあるRLHFフレームワークであるAlpacaFarmは、トレーニング中にFP8を使用することで、モデルの重量を46%減少させ、オプティマイザの状態のメモリ使用量を62%削減することができます。これは、彼らのFP8低精度トレーニングアーキテクチャの柔軟性と適応性をより一層示しています。彼らが将来の世代のLLM向けのFP8低精度トレーニングの発展に貢献している内容は以下の通りです。• FP8による混合精度トレーニングのための新しいフレームワーク。このフレームワークは使いやすく、8ビットの重み、勾配、オプティマイザ、および分散トレーニングを段階的に解除します。現在の16/32ビット混合精度の代替として、ハイパーパラメータとトレーニングレシピを変更するだけで、この8ビットフレームワークに簡単に切り替えることができます。また、数行のコードで8ビット低精度トレーニングを可能にするPytorchの実装も提供しています。 新しいFP8トレーニングされたGPTスタイルモデル。彼らは提案されたFP8スキームの能力を、7Bから175Bパラメータのモデルに適用することで示しています。彼らは、テンソル、パイプライン、シーケンスの並列処理をFP8に対応させ、大規模な基礎モデルのトレーニングにFP8を使用することを可能にしています。最初のFP8…
「Amazon SageMaker JumpStartで大規模な言語モデルの応答をストリーム配信する」
「Amazon SageMaker JumpStartでは、言語モデル(LLM)の推論応答をストリーミングで提供できるようになりましたトークンのストリーミングでは、LLMの応答生成が完了するのを待つ必要なく、応答生成が行われるたびにモデルの応答結果を確認できます」[...]
トゥギャザーエーアイは、トレーニング用の大規模な言語モデルに向けた30兆トークンを持つオープンデータセット、RedPajama v2をリリースしました
高品質なデータは、Llama、Mistral、Falcon、MPT、およびRedPajamaモデルなどの最先端のオープンLLMの成功には不可欠です。ただし、HTMLからプレーンテキストへの変換による異常、一般的に低品質なソース、およびウェブ上でのコンテンツの拡散に固有のバイアスにより、このデータは洗練されておらず、LLMトレーニングに直接使用するには理想的ではありません。正しいデータセットとデータの組み合わせを収集することは、多くの時間、リソース、およびお金を要する骨の折れる作業です。C4、RedPajama-1T、Refinedweb(Falcon)、Dolma(AI2)、SlimPajamaなど、いくつかのコミュニティプロジェクトがこの取り組みを支えてきましたが、これらの多くはCommonCrawlの一部のクロールしかカバーしておらず、データフィルタリングの非常に狭い方法しか提供していません。 Together.aiの研究者たちは、今年3月にRedPajama-1Tという5TBのデータセットをリリースしました。このデータセットは190,000倍以上使用され、創造的な方法で使用されています。1兆個の高品質な英語のトークンを備えたRedPajama-1Tは、始まりにすぎませんでした。研究者たちはさらに一歩進んで、RedPajama-V2をリリースしました。これは巨大な30兆個のトークンのオンラインデータセットであり、学習ベースの機械学習システムに特化した最大の公開データセットです。 チームは、RedPajama-Data-v2がLLMトレーニングのための高品質データセットの抽出の基盤と、LLMトレーニングデータへの深い研究の基盤を提供すると考えています。彼らはそのCommonCrawlのカバレッジ(84個の処理済みダンプ)が比類のないものであると主張しています。さらに重要なことに、彼らは40以上の品質注釈を含んでおり、データの品質に関する複数の機械学習分類器の結果、ファジーな重複削除またはヒューリスティクスに使用できるminhashの結果も含まれています。LLM開発者は、これらの注釈を使用して、公開されているデータをスライスしてフィルタリングし、独自の事前トレーニングデータセットを迅速かつ簡単に生成することができます。 RedPajama-V2の主眼はCommonCrawlです。RedPajama-V2は、84のCommonCrawlのクロールと他の公開されているウェブデータを使用して構築されています。このデータセットには、生のデータ(プレーンテキスト)、40以上の高品質な注釈、および重複削除クラスタが含まれています。 このデータセットを組み立てるための最初のステップとして、各CommonCrawlスナップショットはCCNetパイプラインによって処理されます。このパイプラインは、データをできるだけ生の形式で保持し、パイプライン内のモデルビルダがフィルタリングや再重み付けを行うという大まかなアイデアによく合っています。このバージョンでは、CCNetの言語フィルタを使用して、英語、フランス語、スペイン語、ドイツ語、イタリア語のみを含めました。この処理の段階では、合計で1,000億件のテキストページが生成されます。 研究者たちは、「head」と「middle」のバケツの40以上の人気のある品質注釈とCCNetによって処理されたテキストドキュメントを計算しています。これらの注釈の主な目的は、最適な使用方法の調査を促進し、下流で作業するモデル開発者がデータセットを自分の基準に応じてフィルタリングまたは再重み付けできるようにすることです。また、コミュニティの支援により、将来的により多くの高品質なシグナルを追加することを期待しています。 ミンハッシュのシグネチャに加えて、チームはドキュメントのsha1ハッシュダイジェストにBloomフィルタを適用することで正確な重複削除も行っています。これらは別個の品質注釈ファイルとして保持され、元の非重複の分布を復元することでこのアプローチの研究を容易にします。 RedPajama-v2には、英語、ドイツ語、フランス語、スペイン語、イタリア語の1130億ドキュメントが含まれており、これは84のCommonCrawlクロールの処理の結果です。テールパーティションには推定80億件のドキュメントが保持されており、ヘッドとミドルパーティションのドキュメント数とトークン数は重複削除の前後で決定されます。トークン数は60%減少しますが、ドキュメント数は71%減少します。これは、テールの論文は通常短いものです。 Bloomフィルタを使用してヘッド+ミドルドキュメントを重複削除した結果、データセットは約40%削減されました。テキストドキュメントは、品質注釈と重複削除クラスタを含むデータセットの大部分を提供しています。レイアウトは、CCNetで指定されたものと非常に似ています。具体的には、各CommonCrawlスナップショットのページは5,000のシャードに分割され、キーにはシャード、言語、およびパープレキシティバケツ(パーティション)が示されます。 チームは今後、広く利用されているLLMのベンチマークと比較した汚染アノテーション、各ドキュメントに対するトピックモデリングと分類アノテーション、そしてコミュニティの興味を引く追加のアノテーションなどを含めるため、現在の高品質なアノテーションのセットを拡大することを望んでいます。
アップルの研究者が提案する「大規模な言語モデル強化学習ポリシー(LLaRP)」:体現された視覚的課題のために汎用的なポリシーとして機能するLLMをカスタマイズするためのAIアプローチ
自然言語処理、理解、生成は、大規模言語モデル(LLM)の導入により新たな段階に入りました。GPT-3などのモデルは、膨大な量のテキスト資料でトレーニングされているため、言語認識能力において他を圧倒しています。彼らの有用性は、言語関連の活動を超えて、具現化思考、推論、視覚理解、対話システム、コード開発、さらにはロボット制御などの様々な領域で非常に優れたスキルを発揮しています。 これらの能力の多くが、専門的なトレーニングデータの要件なしに現れることは非常に興味深く、これらのモデルの理解力が広範かつ汎用的であることを示しています。LLMは、言語で簡単に表現できない入力と出力を処理する能力を持っています。また、出力としてロボットの命令を提供したり、入力として画像を理解したりすることもできます。 具現化AIでは、他のタスクに移植可能で汎用的な判断を行うエージェントを開発することを目標としています。従来、LLMを具現化AIに活用するための主要な進歩の源は、大量の異なる専門的データを必要とする静的データセットでした。代わりに、具現AIシミュレータの支援を受けて、エージェントは相互作用、探索、報酬フィードバックを通じて仮想設定で学習することができます。しかし、このようなエージェントの汎化能力は、他の領域で示された能力に比べて十分ではありません。 最近の研究では、研究チームが「大規模言語モデル強化学習ポリシー(LLaRP)」と呼ばれる新しいアプローチを提案しています。これにより、LLMを一般化可能な具現化視覚タスクのポリシーとしてカスタマイズすることができます。このアプローチでは、事前にトレーニングされた固定されたLLMが、テキストの命令と視覚的な自己中心の観察をリアルタイムで処理し、環境内でアクションを生成します。LLaRPは、強化学習を通じて環境を感知し、それとのエンカウンターを通じてのみ行動するようにトレーニングされています。 チームが共有した研究の主な結果は次のとおりです。 複雑な言い回しへの堅牢性:LLaRPは、タスクの指示の複雑な表現への驚異的な耐性を示します。つまり、意図した動作を維持しながら、さまざまな方法で与えられた指示を理解して実行することができます。同じタスクに対して新しい言語の言い回しに適応することができます。 新しいタスクへの一般化:LLaRPの注目すべき特徴の1つは、一般化能力です。完全にオリジナルかつ理想的な振る舞いを要求する新しい任務を引き受ける能力があります。トレーニング中に経験したことのないタスクにも適応することで、その多様性と適応性を示します。 驚異的な成功率:LLaRPは、1,000の未知のタスクのセットに対して驚異的な42%の成功率を示しました。他のよく使われる学習ベースラインやゼロショットのLLMアプリケーションと比較すると、この成功率は1.7倍以上です。これは、LLaRPアプローチの優れたパフォーマンスと一般化能力を示しています。 ベンチマークの公開:言語依存の大規模マルチタスク具現化AIの課題について研究コミュニティの理解を向上させるために、研究チームは「言語の並べ替え」という新しいベンチマークを公開しました。このベンチマークには、言語に依存した並べ替えのための150,000のトレーニングタスクと1,000のテストタスクを備えた大規模なデータセットが含まれています。これは、この分野のAIについてさらに学び、開発したい研究者にとって素晴らしいツールです。 まとめると、LLaRPは、具現化視覚タスクに事前にトレーニングされたLLMを適応させる素晴らしいアプローチであり、全体的に、堅牢性と一般化能力において非常に優れた成果を上げています。
このAI論文は、検索エンジンに対して大規模な言語モデルが事実確認の効率性にどのように比較されるか、明らかにします
異なる大学の研究者たちは、言語モデル(LLM)と検索エンジンがファクトチェックにおいてどれほど効果的かを比較しています。LLMの説明は検索エンジンよりも効率的なファクトチェックを支援しますが、説明が間違っている場合でもユーザーはLLMに頼りがちです。対照情報を追加すると過度な依存が減少しますが、検索エンジンを大幅に上回る効果はありません。重大な状況では、誤ったAIの説明に依存することが深刻な結果をもたらす可能性があるため、LLMの説明は確認済みの文章の読解を代替する信頼性のないものにならないかもしれません。 彼らの研究は、言語モデルと検索エンジンをファクトチェックに用い、言語モデルの説明が効率を向上させる一方で誤った情報に依存する可能性があることを発見しています。重大な状況では、LLMの説明は文章の読解を代替することができない場合があります。別の研究では、ChatGPTの説明が確認作業を改善し、時間を節約する一方で、主張のインターネット検索を減少させることが示されています。 この研究は、LLMのファクトチェックにおける役割と効率を検索エンジンと比較しています。LLMの説明は効果的ですが、間違っている場合には過度な依存が生じます。対照的な説明は提案されていますが、検索エンジンを大きく上回る効果はありません。重大な状況では、誤ったAIの説明に依存することが深刻な結果をもたらす可能性があるため、LLMの説明は確認済みの文章の読解を代替する信頼性のないものになる可能性があります。 提案された手法は、80人の被験者を用いて言語モデルと検索エンジンをファクトチェックに適用し、言語モデルの説明は効率を向上させる一方で、ユーザーはそれらに過度に依存する傾向があることを調査しています。また、検索エンジンの結果と言語モデルの説明を組み合わせた効果についても調査しています。この研究では、正確さと確認時間を測定し、検索と説明がもたらす影響を評価しています。 言語モデルの説明は、根拠のない状態に比べてファクトチェックの正確さを向上させます。確認済みの文章も正確さを向上させます。言語モデルの説明と確認済みの文章の間にはほとんど正確さの違いがありませんが、説明の方が読みやすいです。正確さにおいては検索には及びません。言語モデルは正しくない主張を説得力を持って説明することができ、誤った判断につながる可能性があります。特に重大な状況では、確認済みの文章の読解を代替するために、LLMの説明に一任することは推奨されません。 結論として、LLMはファクトチェックの正確さを向上させる一方で、説明が誤っている場合には過度に依存したり正確な判断を下すリスクを伴います。LLMの説明を検索結果と組み合わせても追加の利点はありません。LLMの説明は読みやすいですが、虚偽の主張を説得力を持って説明することがあります。重大な状況では、LLMの説明にのみ依存することは望ましくありません。確認済みの文章の読解は正確なファクトチェックのために重要です。 この研究では、ユーザーのための証拠のカスタマイズ、検索と説明を戦略的に組み合わせる方法、説明または確認済みの文章を表示するタイミングを探索することを提案しています。同時に両方を表示する効果についても確認の正確さを通じて調査しています。また、特に重大な状況では言語モデルの説明への過度な依存のリスクを検証しています。確認済みの文章の読解に代わるこれらの説明の信頼性と正確性を向上させる方法を探究しています。
ユリーカに会ってください:大規模な言語モデルでパワードされた人間レベルの報酬設計アルゴリズム
大型言語モデル(LLM)は、高レベルの計画に優れていますが、ペン回しのような低レベルのタスクに対するサポートが必要です。しかし、NVIDIA、UPenn、Caltech、UT Austinの研究者チームは、EUREKAと呼ばれるアルゴリズムを開発しました。EUREKAは、GPT-4などの高度なLLMを使用して、強化学習を通じた複雑なスキル獲得のための報酬関数を作成します。EUREKAは、人間が設計した報酬よりも安全で高品質なヒントを提供し、ヒューマンフィードバックに基づいた勾配のない文脈学習により、画期的な成果を上げました。このブレイクスルーは、シミュレートされたShadow Handがペン回しのトリックを習得するというLLMを活用したスキル獲得の道を開くものです。 強化学習における報酬の設計は課題となっており、既存の手法では手動のトライアンドエラー、逆強化学習など、よりスケーラブルで適応性のある手法が必要とされています。EUREKAは、LLMを利用してリアルタイムで報酬を向上させるために解釈可能な報酬コードを生成する方法を提案しています。以前の研究では意思決定のためにLLMが用いられてきましたが、EUREKAは低レベルのスキル学習タスクへの適用において画期的であり、初期の候補やフューショットのプロンプトを必要とせず、LLMと進化アルゴリズムを組み合わせた報酬設計を先駆的に行っています。 LLMは高レベルの計画に秀でていますが、ペン回しのような低レベルのスキルにはサポートが必要です。強化学習における報酬設計はしばしば時間のかかるトライアンドエラーに頼っています。彼らの研究は、GPT-4などの高度なコーディングLLMを活用し、自律的にさまざまなタスクの報酬関数を作成して、多様な環境で人間による報酬を上回る成果を収めました。EUREKAはまた、ヒューマンフィードバックからの文脈学習を可能にし、報酬の品質と安全性を向上させます。これにより、マニュアルによる報酬設計では不可能な緻密な操作タスクへの取り組みを可能にしています。 EUREKAは、GPT-4などのLLMによって駆動される報酬設計アルゴリズムであり、29の強化学習環境において優れた成果を収めています。モデルの更新を必要とせず、ヒューマンフィードバック(RLHF)からの文脈学習を活用して報酬の品質と安全性を向上させます。EUREKAの報酬は、シミュレートされたShadow Handがペン回しや高速のペン操作をマスターするためのトレーニングを可能にします。これにより、進化アルゴリズムとLLMを組み合わせた報酬設計が実現され、初期の候補やフューショットのプロンプトが不要となり、強化学習の重要な進歩を示しています。 EUREKAは、L2Rを上回り、報酬の生成表現性を示しています。EUREKAは一貫して改善し、最良の報酬は最終的には人間の基準を上回ります。それは、人間と弱い相関を持つユニークな報酬を作成し、直感に反する設計原則を明らかにする可能性があります。報酬の反映は、高次元のタスクでのパフォーマンスを向上させます。カリキュラム学習と共に、EUREKAはシミュレートされたShadow Handを使って緻密なペン回しのタスクに成功します。 EUREKAは、LLMの力を借りて人間レベルの報酬生成を達成し、タスクの83%で平均52%の向上を遂げます。LLMを進化アルゴリズムと組み合わせることは、困難で開放的な問題における報酬設計のための多目的かつスケーラブルなアプローチを証明します。EUREKAの器用さは、カリキュラム学習を使って緻密なペン回しのような複雑なタスクを解決することで明らかです。その適応性と劇的な性能向上は、多様な強化学習と報酬設計の応用において有望です。 将来の研究の方向性には、EUREKAの適応性と性能をさらに多様で複雑な環境や異なるロボット設計で評価することが含まれます。シミュレーションを超えた現実世界での適用可能性を評価することは重要です。モデルベースの手法やメタ学習などの強化学習技術との相乗効果を探求することで、EUREKAの機能をさらに向上させることができます。EUREKAが生成した報酬関数の解釈可能性についての調査は、その意思決定プロセスの理解のために不可欠です。人間のフィードバックの統合を強化し、ロボット技術以外のさまざまな領域でのEUREKAの可能性を探求することは、有望な方向性です。
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.