DeepMindの最新研究(NeurIPS 2022)

DeepMindの最新研究(NeurIPS 2022)

優れた大規模モデル、計算最適なRLエージェント、透明性のある倫理的で公正なAIシステムの進歩

第36回国際ニューラル情報処理システム会議(NeurIPS 2022)は、2022年11月28日から12月9日にかけて、ニューオーリンズ、アメリカでハイブリッドイベントとして開催されます。

NeurIPSは人工知能(AI)と機械学習(ML)の世界最大のカンファレンスであり、私たちはダイヤモンドスポンサーとしてイベントを支援し、AIおよびMLコミュニティでの研究の進歩の交流を促進することを誇りに思っています。

DeepMindのチームは、バーチャルパネルやポスターセッションで35の外部共同研究を含む47の論文を発表します。以下に、私たちが発表するいくつかの研究の概要を紹介します。

最高クラスの大規模モデル

大規模モデル(LM)は、膨大な量のデータでトレーニングされた生成型AIシステムであり、言語、テキスト、音声、画像生成などの分野で驚異的なパフォーマンスを発揮しています。その成功の一部はそのスケールによるものです。

しかし、私たちはChinchillaで、Gopherを含むより大規模なモデルを上回る、700億パラメータの言語モデルを作成しました。私たちは大規模モデルのスケーリング則を更新し、以前にトレーニングされたモデルがトレーニング量に対して大きすぎることを示しました。この研究は、既にこれらの更新されたルールに従う他のモデルの形成に影響を与え、よりスリムで優れたモデルを作り出し、カンファレンスで優れたメイントラック論文賞を受賞しました。

Chinchillaと私たちのマルチモーダルモデルNFNetsとPerceiverを基にした研究を進める中で、我々はFlamingoという少数ショット学習のビジュアル言語モデルのファミリーも提案します。Flamingoは画像、動画、テキストデータを扱い、ビジョンのみと言語のみのモデルの橋渡し役となります。単一のFlamingoモデルは、幅広いオープンエンドのマルチモーダルタスクで最先端の少数ショット学習を実現しています。

また、スケールとアーキテクチャは、トランスフォーマベースのモデルのパワーに重要な要素であるだけではありません。データの特性も重要な役割を果たします。私たちは、トランスフォーマモデルでの文脈における学習を促進するデータの特性についてのプレゼンテーションでその詳細を説明します。

強化学習の最適化

強化学習(RL)は、幅広い複雑なタスクに対応する一般化されたAIシステムを作成する手法として、大きな可能性を示しています。これにより、囲碁から数学まで多くの領域でのブレイクスルーが実現されており、私たちは常にRLエージェントをよりスマートでスリムにする方法を探求しています。

私たちは、情報の取得に利用できる情報のスケールを大幅に拡大することで、RLエージェントの意思決定能力を効率的に向上させる新しい手法を紹介します。

また、視覚的に複雑な環境での好奇心に基づいた探索のための概念的に単純で一般的なアプローチであるRLエージェントであるBYOL-Exploreも紹介します。このエージェントは、ノイズに強く、従来の手法よりもはるかにシンプルでありながら、超人的なパフォーマンスを達成します。

アルゴリズムの進歩

データの圧縮から天気の予測のためのシミュレーションまで、アルゴリズムは現代のコンピューティングの基本的な要素です。そのため、スケールで作業する際には、改善はエネルギー、時間、お金を節約するのに非常に大きな影響を与えることがあります。

私たちは、ニューラルアルゴリズム的な推論に基づくコンピュータネットワークの自動構成のための根本的に新しいかつ高度にスケーラブルな手法を共有します。この手法は、現在の最先端と比較して最大490倍高速でありながら、入力制約の大部分を満たしています。

同じセッションでは、以前は理論的な概念だった「アルゴリズムの整合性」についての徹底的な探求も行い、グラフニューラルネットワークと動的プログラミングの微妙な関係、およびそれらを最適化するための最善の組み合わせについて説明します。

責任を持って先駆ける

DeepMindのミッションの核心には、AIの分野で責任ある先駆者として行動するというコミットメントがあります。私たちは、透明性があり、倫理的で公正なAIシステムの開発に取り組んでいます。

複雑なAIシステムの挙動を説明し理解することは、公正で透明で正確なシステムを作り上げるための重要な要素です。私たちは、それらの目標を捉える一連の要件を提供し、それらを満たすための実用的な方法を説明します。これには、AIシステムに自身の因果モデルを構築するためのトレーニングが含まれます。これにより、AIシステムは自身の振る舞いを意味のある方法で説明することができます。

世界で安全かつ倫理的に行動するためには、AIエージェントは害を考え、有害な行動を避けることができなければなりません。私たちは、有害な方針を追求しないための標準的なアプローチの問題を克服するための新しい統計的尺度であるカウンターファクチュアルハームに関する共同作業を紹介し、その効果を示します。

最後に、私たちは新しい論文を発表します。この論文では、分布のシフトによって引き起こされるモデルの公平性の故障を診断し、軽減する方法を提案しています。これらの問題が医療設定で安全な機械学習技術の展開にどれだけ重要かを示しています。

NeurIPS 2022での私たちの全作品をこちらでご覧ください。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

タイムシリーズ分析:PythonにおけるARIMAモデル

ARIMAモデルは時系列予測のための人気のあるツールであり、Pythonで`statsmodels`ライブラリを使用して実装することができます

人工知能

自律型AIエージェントについて知る必要性

自律型AIエージェントとその重要性を理解するための初心者向けガイド

機械学習

強化学習 価値反復の簡単な入門

価値反復(VI)は、通常、強化学習(RL)学習経路で最初に紹介されるアルゴリズムの一つですアルゴリズムの基本的な内容は、...

AI研究

「UCSD研究者がオープンソース化したGraphologue:GPT-4のような大規模言語モデルの応答をリアルタイムでインタラクティブな図表に変換するユニークなAI技術」

大規模言語モデル(LLM)は、最近、その利便性と幅広いユーザークエリに対するテキスト応答を生成する驚異的な能力により、非...

機械学習

再帰型ニューラルネットワークの基礎からの説明と視覚化

再帰型ニューラルネットワーク(RNN)は、順次操作が可能なニューラルネットワークです数年前ほど人気はありませんが、重要な発...

機械学習

このAI論文では、アマゾンの最新の機械学習に関する情報が大規模言語モデルのバグコードについて明らかにされています

プログラミングは複雑であり、エラーのないコードを書くことは時には難しいです。コードの大規模言語モデル(Code-LLMs)はコ...