AIのアナロジカルな推論能力:人間の知能に挑戦する?
AIのアナロジカルな推論能力
アナロジカルな推論は、人間が既知の問題との類似点を見つけることで未知の問題を解決するという、人間特有の認知機能として長く認識されてきました。しかし、UCLAの心理学者による画期的な研究が、これを再考する必要性を示す説得力のある結果を提示しています。
GPT-3:人間の知性に迫る?
UCLAの研究では、OpenAIが開発したAI言語モデルであるGPT-3が、大学の学部生とほぼ同等の推論能力を持つことが明らかになりました。特に、知能テストやSATなどの標準化試験で見られるような問題を解決することが求められる場合において、その能力を発揮します。この発見は、Nature Human Behaviour誌に掲載され、興味深い問いを提起します:GPT-3は、その豊富な言語訓練データセットによって人間の推論を模倣しているのか、それともまったく新しい認知プロセスにアクセスしているのか?
GPT-3の正確な動作はOpenAIによって秘密にされており、UCLAの研究者はそのアナロジカルな推論能力のメカニズムについての疑問を抱いています。GPT-3は特定の推論タスクで優れたパフォーマンスを発揮する一方で、欠点もあります。UCLAのポストドクトラル研究員であり、この研究の主要な著者であるテイラー・ウェブは、「私たちの結果は素晴らしいものですが、このシステムには重要な制約があります。GPT-3はアナロジカルな推論を行うことができますが、人間にとっては簡単な課題(物理的なタスクにおける道具の使用など)に苦労します。」と述べています。
GPT-3の能力は、Raven’s Progressive Matricesに触発された問題を使用してテストされました。ウェブは、画像をテキスト形式に変換することでGPT-3が解読できるようにし、これをAIにとって完全に新しい挑戦としました。40人のUCLAの学部生と比較した結果、GPT-3は人間のパフォーマンスに追いつくだけでなく、人間が犯した間違いを再現しました。AIモデルは問題のうち80%を正確に解決し、平均的な人間のスコアを上回りながらも、最も優れた人間の範囲内に収まりました。
チームはさらに、未公開のSATの類推問題を使用してGPT-3の能力を探求しました。その結果、AIは人間の平均よりも優れた成績を収めました。ただし、短編小説からアナロジーを引き出す試みでは若干の失敗がありましたが、新しいGPT-4モデルでは結果が改善されました。
AIと人間の認知のギャップを埋める
UCLAの研究者たちは、単なる比較にとどまることはありません。彼らは人間の認知に触発されたコンピュータモデルの開発に取り組み、その能力を商用AIモデルと常に対比しています。共著者であるUCLAの心理学教授であるキース・ホリヨークは、「私たちの心理的AIモデルは、GPT-3の最新のアップグレードまでアナロジー問題で他のモデルを凌駕しました。」と述べています。
ただし、チームはGPT-3が遅れていると判明した特定の領域も特定しました。特に、物理的な空間の理解を必要とするタスクではGPT-3の解決策はずれていました。
研究のシニア著者である洪晶ルは、過去2年間の技術の進歩に驚きを表し、特にAIの推論能力に関しては、「これらのモデルが本当に人間のように『考える』のか、単に人間の思考を模倣しているのかはまだ議論の余地があります。AIの認知プロセスに対する洞察を得るためには、AIモデルのバックエンドへのアクセスが必要であり、これはAIの将来の軌道を形作る可能性があります。」と述べています。
ウェブは同様の感想を共有し、次のように結論づけています。「GPTモデルのバックエンドへのアクセスは、AIと認知研究者にとって非常に有益です。現在、私たちは入力と出力に限定されており、私たちが求める深い洞察が欠けています。」
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles