DeepMindの最新研究(NeurIPS 2022)
DeepMindの最新研究(NeurIPS 2022)
優れた大規模モデル、計算最適なRLエージェント、透明性のある倫理的で公正なAIシステムの進歩
第36回国際ニューラル情報処理システム会議(NeurIPS 2022)は、2022年11月28日から12月9日にかけて、ニューオーリンズ、アメリカでハイブリッドイベントとして開催されます。
NeurIPSは人工知能(AI)と機械学習(ML)の世界最大のカンファレンスであり、私たちはダイヤモンドスポンサーとしてイベントを支援し、AIおよびMLコミュニティでの研究の進歩の交流を促進することを誇りに思っています。
DeepMindのチームは、バーチャルパネルやポスターセッションで35の外部共同研究を含む47の論文を発表します。以下に、私たちが発表するいくつかの研究の概要を紹介します。
最高クラスの大規模モデル
大規模モデル(LM)は、膨大な量のデータでトレーニングされた生成型AIシステムであり、言語、テキスト、音声、画像生成などの分野で驚異的なパフォーマンスを発揮しています。その成功の一部はそのスケールによるものです。
しかし、私たちはChinchillaで、Gopherを含むより大規模なモデルを上回る、700億パラメータの言語モデルを作成しました。私たちは大規模モデルのスケーリング則を更新し、以前にトレーニングされたモデルがトレーニング量に対して大きすぎることを示しました。この研究は、既にこれらの更新されたルールに従う他のモデルの形成に影響を与え、よりスリムで優れたモデルを作り出し、カンファレンスで優れたメイントラック論文賞を受賞しました。
Chinchillaと私たちのマルチモーダルモデルNFNetsとPerceiverを基にした研究を進める中で、我々はFlamingoという少数ショット学習のビジュアル言語モデルのファミリーも提案します。Flamingoは画像、動画、テキストデータを扱い、ビジョンのみと言語のみのモデルの橋渡し役となります。単一のFlamingoモデルは、幅広いオープンエンドのマルチモーダルタスクで最先端の少数ショット学習を実現しています。
また、スケールとアーキテクチャは、トランスフォーマベースのモデルのパワーに重要な要素であるだけではありません。データの特性も重要な役割を果たします。私たちは、トランスフォーマモデルでの文脈における学習を促進するデータの特性についてのプレゼンテーションでその詳細を説明します。
強化学習の最適化
強化学習(RL)は、幅広い複雑なタスクに対応する一般化されたAIシステムを作成する手法として、大きな可能性を示しています。これにより、囲碁から数学まで多くの領域でのブレイクスルーが実現されており、私たちは常にRLエージェントをよりスマートでスリムにする方法を探求しています。
私たちは、情報の取得に利用できる情報のスケールを大幅に拡大することで、RLエージェントの意思決定能力を効率的に向上させる新しい手法を紹介します。
また、視覚的に複雑な環境での好奇心に基づいた探索のための概念的に単純で一般的なアプローチであるRLエージェントであるBYOL-Exploreも紹介します。このエージェントは、ノイズに強く、従来の手法よりもはるかにシンプルでありながら、超人的なパフォーマンスを達成します。
アルゴリズムの進歩
データの圧縮から天気の予測のためのシミュレーションまで、アルゴリズムは現代のコンピューティングの基本的な要素です。そのため、スケールで作業する際には、改善はエネルギー、時間、お金を節約するのに非常に大きな影響を与えることがあります。
私たちは、ニューラルアルゴリズム的な推論に基づくコンピュータネットワークの自動構成のための根本的に新しいかつ高度にスケーラブルな手法を共有します。この手法は、現在の最先端と比較して最大490倍高速でありながら、入力制約の大部分を満たしています。
同じセッションでは、以前は理論的な概念だった「アルゴリズムの整合性」についての徹底的な探求も行い、グラフニューラルネットワークと動的プログラミングの微妙な関係、およびそれらを最適化するための最善の組み合わせについて説明します。
責任を持って先駆ける
DeepMindのミッションの核心には、AIの分野で責任ある先駆者として行動するというコミットメントがあります。私たちは、透明性があり、倫理的で公正なAIシステムの開発に取り組んでいます。
複雑なAIシステムの挙動を説明し理解することは、公正で透明で正確なシステムを作り上げるための重要な要素です。私たちは、それらの目標を捉える一連の要件を提供し、それらを満たすための実用的な方法を説明します。これには、AIシステムに自身の因果モデルを構築するためのトレーニングが含まれます。これにより、AIシステムは自身の振る舞いを意味のある方法で説明することができます。
世界で安全かつ倫理的に行動するためには、AIエージェントは害を考え、有害な行動を避けることができなければなりません。私たちは、有害な方針を追求しないための標準的なアプローチの問題を克服するための新しい統計的尺度であるカウンターファクチュアルハームに関する共同作業を紹介し、その効果を示します。
最後に、私たちは新しい論文を発表します。この論文では、分布のシフトによって引き起こされるモデルの公平性の故障を診断し、軽減する方法を提案しています。これらの問題が医療設定で安全な機械学習技術の展開にどれだけ重要かを示しています。
NeurIPS 2022での私たちの全作品をこちらでご覧ください。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- DeepMindの最新研究(ICLR 2023)
- あなたのオープンソースのLLMプロジェクトはどれくらいリスクがあるのでしょうか?新たな研究がオープンソースのLLMに関連するリスク要因を説明しています
- このAI研究は、大規模言語モデル(LLM)における合成的な人格特性を説明しています
- HuggingFace Researchが紹介するLEDITS:DDPM Inversionと強化された意味的なガイダンスを活用したリアルイメージ編集の次なる進化
- MITの科学者たちは、生物学の研究のためのAIモデルを生成できるシステムを構築しました
- Covid-19への闘いを加速する:研究者がAIによって生成された抗ウイルス薬を検証し、将来の危機における迅速な薬剤開発の道を開拓
- 新しいGoogle AI研究では、ペアワイズランキングプロンプティング(PRP)という新しい技術を使用して、LLMの負担を大幅に軽減することを提案しています