Learn more about Search Results A - Page 63

『Q-Starを超えて OpenAIのPPOによるAGIのブレイクスルーが可能』

人工汎用知能(AGI)はAIの領域を魅了し、人間の能力を超えるシステムを象徴しています。OpenAIは重要なAGIの研究者であり、最近はQ*からProximal Policy Optimization(PPO)に焦点を移しました。この移行はPPOの重要性を示しており、Peter Welinderの期待にも応えています。「Q-learningについて読み始めた人たち、PPOについて聞いたらどうなるか待っていてください」ということです。この記事では、PPOについて詳しく説明し、AGIの将来における意義を探求します。 PPOの解読 Proximal Policy Optimization(PPO)は、OpenAIが開発した強化学習アルゴリズムです。これは、エージェントが環境と対話してタスクを学習する人工知能の技術です。単純に言えば、エージェントがゲームをプレイする最適な方法を見つけるようにしています。PPOは、戦略の変更に慎重に取り組むことで、エージェントの学習を支援します。大きな調整を一度に行うのではなく、PPOは複数の学習ラウンドで小さな慎重な改善を行います。これは、エージェントが考え深く段階的なアプローチでゲームプレイのスキルを練習し、磨いているようなものです。 PPOは過去の経験にも注意を払います。収集したデータをすべて使わず、学習に最も役立つ部分を選択します。これにより、失敗を繰り返すことを避け、うまくいくことに注力します。従来のアルゴリズムとは異なり、PPOの小さなステップの更新は、一貫したAGIシステムのトレーニングに必要な安定性を維持します。 応用の多様性 PPOの優れた応用性は、探索と利用の微妙なバランスを取る点において光ります。OpenAIはPPOをさまざまなドメインで活用し、シミュレートされた環境でのエージェントのトレーニングから複雑なゲームの習得まで行っています。インクリメンタルなポリシーの更新により、適応性を保ちながら変更を制限し、ロボティクス、自律システム、アルゴリズムトレーディングなどの分野で不可欠です。 AGIへの道を切り拓く OpenAIは戦略的にPPOに頼り、戦略的なAGIアプローチを強調しています。ゲームやシミュレーションでPPOを活用することで、OpenAIはAIの能力の境界を em em 文accessiblydigitalwritingionsわせています。グローバルイルミネーションの取得は、OpenAIが現実的なシミュレート環境でのエージェントトレーニングに対する献身を強調しています。 私たちの意見 2017年以来、OpenAIはPPOをデフォルトの強化学習アルゴリズムとして使用しており、使いやすさと良好なパフォーマンスのためです。PPOの複雑さに対する対処能力、安定性の維持、適応性は、OpenAIのAGIの基盤として位置づけられています。PPOの多様な応用は、進化するAIの景観での重要な役割を裏付けています。

「GoogleのBARDは、YouTubeの動画について「視聴して質問に回答」できるようになりました」

YouTube動画を探し続けるのにうんざりしていませんか?GoogleのBard AIは、ビデオコンテンツとの対話方法を革新する機能を導入しました。YouTube動画を視聴し要約する能力を持つBard AIは、ユーザーエクスペリエンスを向上させるだけでなく、ビデオコンテンツのアクセシビリティを再定義しています。 Bard AIの新しいYouTubeの力を理解する GoogleのBard AIは、YouTubeと統合することにより、ビデオコンテンツに基づいて質問に答える能力を大幅に向上させました。この最先端の機能により、Bardはビデオを視聴し要約を提供することができ、ユーザーはビデオ全体を見ずに情報を得ることが容易になりました。AIがビデオコンテンツを理解し解釈する能力は、GoogleのAI駆動のイノベーションへの取り組みの証です。 Bard AIが検索体験を向上させる方法 Bard AIのYouTubeとの統合は、便利さ以上に、検索効率のための変革的なツールです。ユーザーはBardに質問を投げかけ、ビデオコンテンツから派生した簡潔な回答を受け取ることができます。これにより、時間を節約するだけでなく、情報が正確かつ関連性があることが保証されます。この機能は、教育コンテンツ、チュートリアル、ハウツーガイドなどで特に有用であり、ユーザーは特定の質問に対してすばやく回答を得ることができます。 Bard AIとYouTubeの使用の簡単さ Googleは、ユーザーフレンドリーを念頭に置いてBard AIの新機能を設計しました。この機能を利用するには、ユーザーは単純にYouTubeのビデオに関連する質問をBardにする必要があります。AIはその後、ビデオコンテンツを処理し、要約した回答を提供します。このシームレスな統合は、AIを私たちの日常的なデジタルインタラクションの不可欠な部分にするための重要な一歩です。 私たちの見解 Bard AIがYouTube動画を視聴し要約する能力を導入することは、AIと検索技術の領域での重要な進歩です。これにより、検索プロセスが合理化されるだけでなく、迅速かつ正確な回答を提供することで、ユーザーエクスペリエンスが向上します。AIの能力の進化を目撃し続ける中で、このような機能はAIが私たちのデジタルライフのさらに重要な部分になる可能性を示しています。

『ブンブンの向こう側 産業における生成型AIの実用的な応用を探求する』

イントロダクション 現代の世界は「ジェネレーティブAI」という言葉で賑わっています。McKinsey、KPMG、Gartner、Bloombergなどのトップのテクノロジー企業や経営コンサルティング企業は、この新しい技術の力を測定し、将来を予測するために常に研究を行っています。これらの調査は、ジェネレーティブAIの企業への影響が急速に増大しており、今日の職場で必須のスキルとなっていることを示しています。調査結果によると、ジェネレーティブAIは2032年までに1.3兆ドルの市場となり、誰もがその一部になりたがるでしょう。この記事では、さまざまな産業におけるジェネレーティブAIの応用、成長、および影響について、そしてあなたがこのグローバルな変化の一部になる方法について説明します。 ジェネレーティブAIとは何か?その規模はどれくらいか? ジェネレーティブAIはもはや単なるバズワードではありません。この新しい技術は、AIが新しいコンテンツを作成し、実践を通じて学習することができるもので、世界中で注目を集めています。ジェネレーティブAIツールは、基本的にはトレーニングデータに基づいてコンテンツを生成できる大規模な学習モデル(LLM)です。これらのモデルは、トレーニングデータからパターンや構造を学び、類似のパターンに従う出力を生成できます。これらのモデルは、画像、動画、音楽、音声、テキスト、ソフトウェアコード、製品デザインなどを作成することができます。現在利用可能な大量のトレーニングデータのため、この技術の可能性は無限です。 過去数ヶ月間、ジェネレーティブAIの分野は着実に拡大し、毎日新しい応用とユースケースが発見されています。企業レベルでは、ジェネレーティブAIの統合により、より速いアウトプット、より高い生産性、経済成長が実現されています。その結果、多くの企業が時間とコストを節約するためにジェネレーティブAIを使用しています。 ジェネレーティブAIの企業応用には、自動化、人間または機械の増強、ビジネスおよびITプロセスの自立実行などが含まれます。McKinseyによると、世界中の企業はジェネレーティブAIツールの導入により、生産性の向上とリスクの最小化を最大限に活用しています。企業は今後、自身の仕事においてジェネレーティブAIを熟達することが求められるでしょう。 ジェネレーティブAIのビジネス面 ジェネレーティブAI市場には、モデルトレーニングインフラ、LLM向け推論デバイス、デジタル広告、特殊ソフトウェアとサービス、個人化アシスタント、およびコーディングの加速を可能にする共同作業者が含まれています。ジェネレーティブAIツールとソフトウェアを開発する企業がこの領域で最も恩恵を受けていますが、これら製品の応用はさまざまな産業の利益を支援しています。 では、ジェネレーティブAIは今日ではどれくらい大きな存在なのでしょうか?2022年には、ジェネレーティブAI市場は400億ドルと評価されており、時間の経過とともに成長しています。Bloomberg Intelligenceによると、ジェネレーティブAIは2032年までに42%の複合年間成長率を示し、1.3兆ドルの市場となると予測されています。 2023年:企業におけるジェネレーティブAIのブレイクイヤー ジェネレーティブAIは2020年以来、ガートナーの人工知能のハイプサイクルに登場しています。しかし、2023年はジェネレーティブAIのブレイクイヤーとなっています。この技術は比較的新しいものですが、ほぼすべての産業の重要な一部になるほど成長しています。 McKinseyの国際的なレポートによると、主要企業の33%が既にジェネレーティブAIを使用しており、その他の25%はAIの統合のプロセスにあると報告されています。また、レポートは、Cレベル幹部の22%が仕事でAIツールを使用していることも示しています。 技術の新たな使用法や応用が発見されるにつれて、その利用範囲もさらに拡大しています。すべての産業のすべてのレベルでのジョブロールは自動化され、人間の介入が最小限に抑えられ、人間の労働時間がより重要なタスクに割り当てられるようになっています。したがって、企業はAIのスキルを持つ人材を求めており、それが彼らに優位性をもたらしています。 さらに、McKinseyの調査によると、40%の企業がAIへの投資を拡大する予定です。つまり、すべての仕事においてある程度のレベルでAIの機能が関与するようになる可能性があることを示しています。私たちは皆、それに備えて準備をする必要があるのです。 エンタープライズリーダーがジェネレーティブAIについて考えていること 世界中のビジネスリーダーは、ジェネレーティブAIの可能性に興味を持ち、それが真に革新的な存在だと確信しています。オラクル・アナリティクス・クラウドの上級主任データサイエンティストであるヴィカス・アグラワル博士は、ジェネレーティブAIが特にテキストやユーザーインターフェースに関連する分野で企業ソリューションを革新する可能性を持っていると断言しています。「AIツールが進化するにつれて、データサイエンティストはこれらのツールを操作するだけでなく、それらを強化・改善するスキルを必要とする」と彼は述べました。 同様のことを言うと、データイクの元AI戦略責任者であるジェプソン・テイラー氏は、AIスタートアップの成功は適切な人材の採用にかかっていると述べています。彼はNYUでAIマスタークラスの共同リーダーとして、AIシステムが自律的にコードを書き換えおよび強化できる未来を予見し、より効率的かつ強力なアプリケーションをもたらすと述べています。 Beans.aiの応用AI責任者であるサンディープ・シンは、Analytics Vidhyaとのインタビューで、インドと米国のAIエコシステムを比較しました。「インドのAIエコシステムは、研究に重点を置いたベイエリアのAI研究風景とは異なり、急速な採用と商品化が可能な位置にあります」と彼は述べました。 インドの業界リーダーについては、Fractal Analyticsの最高経営責任者(CEO)、共同創業者、副議長であるスリカント・ヴァラマカンニ氏が挙げられます。彼は、組織内のほとんどの機能が自動化され、更新され、優位性を持ち続けるためには、最新の情報にアップデートし、エッジを持つ必要があると信じています。 GramenerのCEO兼チーフデータサイエンティストであるアナンド・S氏は、Googleのローンチ以来、ジェネレーティブAIを次なる大きなトピックと見ています。彼はすでに自身のコーディング作業のほとんどをAIにアウトソースし、さまざまなタスクをこなすために多くのLLM(Low-Level Machine)を訓練しており、それによって仕事を最適化し、時間を節約しています。…

このAI論文は、オープンソースライブラリの既存の機能を最大限に活用するために開発された新しい人工知能アプローチ、ML-BENCHを提案しています

LLMモデルは、さまざまなプログラミング関連の活動を実行できる強力な言語エージェントとして、ますます展開されています。これらの驚異的な進展にもかかわらず、静的な実験環境でこれらのモデルが示した能力と、実際のプログラミングシナリオの絶えず変化する要求との間には、相当な隔たりがあります。 標準のコード生成ベンチマークは、LLMがゼロから新しいコードを生成する能力をテストします。しかし、プログラミングの慣行は滅多にすべてのコードコンポーネントをゼロから生成する必要はありません。 実世界のアプリケーションのコードを書く際には、既存の公開されているライブラリを使用することが一般的な慣習です。これらの開発済みライブラリは、さまざまな課題に対する堅牢で実践済みの回答を提供します。そのため、コードLLMの成功は、機能の生成だけでなく、正しいパラメータの使用方法でオープンソースライブラリから派生したコードの実行能力など、さまざまな方法で評価されるべきです。 イェール大学、南京大学、北京大学の新しい研究では、ML-BENCHという現実的で包括的なベンチマークデータセットを提案しています。このデータセットは、LLMの利用者の指示を理解し、GitHubのリポジトリをナビゲートし、実行可能なコードを生成する能力を評価するものです。ML-BENCHは、指示の要件を満たす高品質で指示可能な正解コードを提供しています。ML-BENCHは、130のタスクと14の人気のある機械学習のGitHubリポジトリからなる9,444の例を含んでいます。 研究者たちは、Pass@kとParameter Hit Precisionを調査の指標として使用しています。これらのツールを使用して、彼らはGPT-3.5-16k、GPT-4-32k、Claude 2、およびCodeLlamaがML-BENCH環境での能力を探求します。ML-BENCHはLLMのための新しいテストを提案しています。経験的な結果は、GPTモデルとClaude 2がCodeLlamaを大きく上回っていることを示しています。GPT-4は他のLLMよりも明らかに性能が向上していますが、実験でのタスクのうち39.73%しか完了していません。他のよく知られたLLMは幻覚を経験し、期待通りの成果を上げていません。調査の結果からは、LLMはコードの記述だけでなく、長いドキュメンテーションの理解も必要としていることが示唆されています。その主要な技術的貢献は、彼らのエラー分析を通じて発見された不足点に対処するために設計された自律型の言語エージェントであるML-AGENTの提案です。これらのエージェントは、人間の言語と指示を理解し、効率的なコードを生成し、困難なタスクを遂行する能力を持っています。 ML-BenchとML-Agentは、自動化された機械学習プロセスの最先端の進歩を表しています。研究者たちは、この成果が他の研究者や実務家にも興味を持ってもらえることを期待しています。

このAI論文は、効率的な水素燃焼予測のための画期的な機械学習モデルを紹介しています:「ネガティブデザイン」および反応化学におけるメタダイナミクスを活用しています

ポテンシャルエネルギーサーフェス(PES)は、原子または分子の位置とそれに関連するポテンシャルエネルギーの関係を表します。PESは分子の挙動、化学反応、物質の特性を理解する上で不可欠です。これらのサーフェスは、構成要素の原子または分子の位置が変化するにつれてシステムのポテンシャルエネルギーがどのように変化するかを記述します。これらのサーフェスはしばしば高次元で複雑であり、特に大きな分子またはシステムの場合には正確な計算が難しいです。 機械学習(ML)モデルの信頼性は、特に化学反応系の場合、高エネルギー状態を経験する必要があるため、トレーニングデータの多様性に強く依存します。MLモデルは、既知のトレーニングデータの間を補間しますが、予測はトレーニングセット内の分子や構成と似ていない場合には信頼性が低くなる可能性があります。 特定の反応系のためにバランスの取れた多様なデータセットを作成することは難しいです。機械学習モデルは依然として過学習の問題に苦しむことがあり、元のテストセットでは正確さが高いモデルでも、MDシミュレーションに適用するとエラーが発生する可能性があります。特にエネルギーの構成が非常に多様なガス相化学反応の場合です。 カリフォルニア大学、ローレンスバークレー国立研究所、ペンシルベニア州立大学の研究者は、最初の系統的なサンプル用の共通変数(CV)を用意することで、最初に設計された水素燃焼データセットを拡張するアクティブラーニングALワークフローを構築しました。彼らの研究は、PESのより完全なMLモデルを作成するために負の設計データ収集戦略が必要であることを反映しています。 このアクティブラーニング戦略に従うことで、彼らはより多様かつバランスの取れた最終的な水素燃焼MLモデルを実現しました。MLモデルは再トレーニングなしで正確な力を回復させ、軌道を続けることができました。彼らは水素燃焼における有限温度と圧力での遷移状態の変化と反応機構を予測することができました。 彼らのチームは、アクティブラーニングアプローチをRxn18の例で示しました。この例では、ポテンシャルエネルギーサーフェスが2つの反応座標、CN(O2-O5)とCN(O5-H4)に投影されました。MLモデルのパフォーマンスは、AIMDと正規モード計算から導かれた元のデータポイントを分析することによって追跡されました。アクティブラーニングのラウンドが進むにつれてメタダイナミクスシミュレーションを使用してサンプリングし、エラーが減少しました。 彼らは、メタダイナミクスを不安定な構造の効率的なサンプリングツールとして見つけ、そのようなデータを使用してMLモデルを再トレーニングすることによって、ALワークフローを通じてPESランドスケープの穴を特定するのに役立ちます。メタダイナミクスをサンプリングツールとしてのみ使用することにより、トリッキーなCV選択ステップを回避できます。彼らの将来の仕事には、デルタ学習のような別のアプローチの分析やC-GeMのようなより物理的なモデルでの作業も含まれています。

コマンドラインインターフェイスのsysargv、argparse、docopts、およびTyper

パイプラインを展開するには、通常、メインスクリプトまたはパイプライン全体を実行する単一のエントリポイントがありますたとえば、データサイエンスのパイプラインでは、コードリポジトリのエントリポイントが...

このAI研究では、ドライブ可能な3Dガウスアバター(D3GA)を提案します:ガウススプラットでレンダリングされた人体のための最初の3Dコントローラブルモデルです

印象派は匿名の画家、彫刻家、版画家などからなる協会によって19世紀に創設された芸術運動であり、「かろうじて形を伝えることのできる、短く切れた筆使い」が特徴です。最近の研究では、印象派が避けたような写真で人間の主題をできるだけ現実的に描写することが可能になっています。 一眼カメラの技術では正確さに欠けるため、ドライブ可能(新しいコンテンツを生成するためにアニメーション化できる)な写真の人間を写実的に生成するには、現在は広範なマルチビューデータが必要です。さらに、現在の手法では正確な3Dレジストレーションなどの緻密な前処理が必要とされます。しかし、これらのレジストレーションを得るためには、エンドツーエンドのワークフローに容易に組み込むことができない反復プロセスを使用する必要があります。正確なレジストレーションを必要としない他のアプローチは、ニューラル輻射場(NeRFs)に基づいています。これらのアプローチは、特定の例外を除いて衣服のアニメーションを描写するのに苦労するか、リアルタイムの描写にはあまりにも遅すぎます。 Meta Reality Labs Research、Technical University of Darmstadt、Max Planck Institute for Intelligent Systemsの研究者たちは、放射場ではなく、3Dガウスを使用して3D人間の外見と変形を規範的な空間で表現しています。ガウス放射場は、生きている、再配置可能なキャラクターの体形と美的感覚に合うような、クイックな筆使いの代替として使用されます。ガウス放射場では、カメラの光線のサンプリングを含むいかなるハックも必要ありません。ドライブ可能なNeRF内のポイントは、リニアブレンドスキニング(LBS)を使用して観測空間から規範的な空間に変換されることがよくあります。一方、D3GAは、3Dガウス体積を用いてヒトをモデル化し、それゆえにボリュームから規範的な空間へのマッピングが必要です。 研究者たちはLBSの代わりに、ケージという他の確立された変形モデルを使用しており、このモデルはボリューム変換に適しています。ケージの変形勾配は、規範的な空間でのケージの変形によって生成されたものであり、3Dガウス表現に直接適用されます。このアプローチは、胴体、顔、衣服をケージを使用して別々に表現することができる合成構造に基づいて構築されています。ケージの歪みが発生する原因を特定するための残る謎があります。現在のドライブ可能なアバターの最先端は、RGB-D画像やマルチカメラセットアップなどの密な入力信号を要求しており、テレプレゼンスアプリケーションの低帯域幅接続には適さない場合があります。研究チームは、ヒトの姿勢に基づいたより短縮された入力を使用しました。この入力は骨格関節角度と3D顔のキーポイントのクォータニオン表現を含みます。彼らは9つの高品質なマルチビューシーケンスを使用して、どの主題からでも新しいポーズで駆動できる個人固有のモデルを学習しました。さまざまな体形、動き、衣服(きつくフィットする必要はない)をカバーしています。 この手法は高品質の出力を生成し、テスト時にFFDメッシュや画像などのより多くの情報を利用する方法と同等の入力と競合しながら、最先端の状態を上回る成果を挙げています。さらに、提案された技術はデータの処理時間を削減し、幾何学的な領域と外見モデリングにおいて有望な結果を得るために、正確なジオメトリ情報を必要としません。

複雑なAIモデルの解読:パデュー大学の研究者が、ディープラーニングの予測を位相マップに変換

複雑な予測モデルの高度なパラメータ化の性質により、予測戦略の説明と解釈が困難です。研究者たちは、この問題を解決するために、トポロジックデータ解析(TDA)を利用した新しいアプローチを導入しました。これらのモデルは、機械学習、ニューラルネットワーク、AIモデルを含むさまざまな科学分野で標準的なツールとなっていますが、広範なパラメータ化のために解釈が難しいことがよくあります。 パデュー大学の研究者たちは、これらの複雑なモデルをより理解しやすい形式に変換できるツールの必要性を認識しました。彼らはTDAを活用してリーブネットワークを構築し、予測戦略の解釈を容易にするトポロジックな視点を提供しました。この方法はさまざまな領域に適用され、大規模データセットでもスケーラビリティが実証されました。 提案されたリーブネットワークは、予測ランドスケープを視覚化することができる、トポロジック構造の離散化です。リーブネットワークの各ノードは、似た予測を持つデータポイントのクラスタとして計算された予測空間の局所的な単純化を表します。ノードは共有されたデータポイントに基づいて接続され、予測とトレーニングデータの間の有益な関係を示します。 このアプローチの重要な応用の一つは、トレーニングデータのラベリングエラーの検出です。リーブネットワークは、曖昧な領域や予測の境界を特定するために効果的であり、潜在的なエラーのさらなる調査を導く役割を果たしました。この方法は、画像分類における一般化や、BRCA1遺伝子における病原性変異に関連する予測の理解にも有用性を示しました。 tSNEやUMAPなどの広く使用されている可視化技術との比較を行い、リーブネットワークが予測間の境界やトレーニングデータと予測の関係についてより多くの情報を提供できることが強調されました。 リーブネットワークの構築には、未知のラベルを持つ大量のデータポイント、データポイント間の既知の関係、および各予測値に対する実数値のガイドなどの前提条件があります。研究者たちは、グラフベースのTDA(GTDA)と呼ばれる再帰的な分割と統合手順を使用して、元のデータポイントとグラフからリーブネットを構築しました。この方法は、ImageNetの130万枚の画像を分析することで、スケーラブル性を実証しています。 実用的な応用では、Amazonのレビューに基づいて製品タイプを予測するグラフニューラルネットワークにリーブネットワークフレームワークを適用しました。これにより、製品カテゴリの曖昧さが明らかになり、予測の正確性の限界とラベルの改良の必要性が強調されました。同様の洞察が、Imagenetデータセット上の事前学習済みResNet50モデルにフレームワークを適用することで得られ、画像のビジュアルタクソノミーが明らかにされ、真のラベリングエラーが明らかにされました。 研究者たちはまた、リーブネットワークを使用して、特にBRCA1遺伝子に関連する悪性遺伝子変異に関連する予測を理解するためにリーブネットワークの適用を紹介しました。ネットワークはDNA配列の局所的なコンポーネントとその二次構造へのマッピングをハイライトし、解釈を支援しました。 結論として、リーブネットワークなどのトポロジック検査技術が、複雑な予測モデルを行動可能な人間レベルの洞察に変換する上で重要な役割を果たすと研究者は予想しています。この方法は、ラベリングエラーからタンパク質構造まで、さまざまな問題を識別する能力を示し、予測モデルの早期診断ツールとしての広範な適用性と潜在能力を示唆しています。

NVIDIA AI研究者が提案するTied-Lora 低ランクアダプテーション(LoRA)メソッドのパラメータ効率を向上させるための画期的な人工知能アプローチ

Nvidiaの研究者グループが、Tied-LoRAと呼ばれる新しい技術を開発しました。この技術は、Low-rank Adaptation(LoRA)手法のパラメータ効率を改善することを目指しています。この講座では、ウェイトタイイングと選択的トレーニングを使用して、性能とトレーニング可能なパラメータの最適なバランスを見つけます。研究者はさまざまなタスクとベースの言語モデルで実験を行い、効率と性能の間にトレードオフがあることを発見しました。 最近のパラメータ効率の高い微調整技術には、LoRAがあります。これは、低ランク行列の近似を通じてトレーニング可能なパラメータを減らします。AdaLoRAは、動的なランク調整を導入し、アダプタの調整とLoRAを組み合わせたLoRAの拡張です。Kopiczkoによって提案されたVeRAは、凍結行列とトレーニング可能なスケーリングベクトルを介してパラメータを削減します。QLoRAは、メモリ効率の高いLoRAを実現するために量子化されたベースモデルを使用します。本研究では、低ランク重み行列にウェイトタイイングを適用し、さらにパラメータの効率を向上させています。 DownstreamタスクのためのLLMの微調整の計算負荷に対処するために、Tied-LoRAはウェイトタイイングと選択的トレーニングを組み合わせて、LoRAのパラメータ効率を向上させる新しいアプローチです。研究者は、さまざまなスタディとベースの言語モデルで系統的な実験を通じて、さまざまなパラメータトレーニング/フリーズおよびウェイトタイイングの組み合わせを探索しています。研究者は、標準的なLoRA手法と比較して、パラメータのわずか13%のみを利用して同等の性能を実現する特定のTied-LoRA構成を特定しました。 Tied-LoRAは、ウェイトタイイングと選択的トレーニングを組み合わせて、LoRAアプローチのパラメータ効率を向上させる方法です。これは、LoRA内の低ランク行列にウェイトタイイングを適用し、ベースの言語モデルのレイヤー間で同じ結果を共有し、トレーニング可能なパラメータの数を減らすことによるものです。さまざまなパラメータトレーニング/フリーズとウェイトタイイングの組み合わせを探索し、性能とトレーニング可能なパラメータの最適なバランスを実現します。提案されたTied-LoRAの構成は、翻訳や数学的な推論を含むさまざまなタスクで評価され、データ設定全体で効率性を示しています。 さまざまなタスクと2つのベース言語モデルを対象とした実験では、異なるTied-LoRAの構成が効率と性能の間のトレードオフを示しました。特定のTied-LoRA構成であるvBuAは他の構成を凌ぎ、同等のパフォーマンスを実現しました。vBuAは最適なオプションとして特定され、パラメータを87%削減しながらパフォーマンスを維持しました。抽出型質問応答、要約、数学的推論などのタスクでの評価は、Tied-LoRAのパラメータ効率を向上させながら、競争力のあるパフォーマンスを著しく保持していることを示しています。 さまざまなタスクを対象とした実験の結果から、Tied-LoRAはLoRA手法のパラメータ効率を向上させる一つの手法であり、ウェイトタイイングと選択的トレーニングを利用しています。結果は、Tied-LoRAが常識NLI、抽出型QA、要約などの機能を置き換えることができることを示しています。さらに、Tied-LoRAはパフォーマンスを損なうことなく改善されたパラメータ効率を提供し、標準的なLoRAからわずか13%のパラメータのみを利用します。ただし、制限や他のパラメータ効率手法との比較を議論し、将来の探索の潜在的な領域を特定することが重要です。

Zephyr-7B:HuggingFaceのハイパーオプティマイズされたLLM、Mistral 7Bの上に構築

「Zephyr-7B」という画期的な大型言語モデルを詳しく見てみましょう「知識の蒸留」を活用して、AIの効率性とアクセシビリティの新基準を確立し、会話AIの未来を形作っている方法を発見しましょう

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us