AIに人間の価値観をどのように組み込むことができるのでしょうか?

'AIに人間の価値観を組み込む方法は?'

哲学を参考にして公正な原則を特定するための倫理的AIの描写

人工知能(AI)がより強力になり、私たちの生活により深く統合されるにつれて、それがどのように使用され、展開されるかという問題はますます重要になっています。AIを導く価値は何ですか?それは誰の価値ですか?そして、それらはどのように選択されますか?

これらの問いは、AIにおける大きな意思決定や小さな意思決定を導く基本的な価値である原則の役割を明らかにします。人間にとって、原則は私たちの生活のあり方や善悪の感覚を形作るのに役立ちます。AIにとっては、生産性を優先するか、最も支援が必要な人々を助けるかなど、トレードオフを伴うさまざまな意思決定にアプローチを形成します。

今日発表された「米国科学アカデミー紀要」に掲載された論文で、私たちは哲学からのインスピレーションを得て、AIの行動を指針とする原則をよりよく特定する方法を探求しています。具体的には、「無知のヴェール」として知られる概念をAIに適用する方法について探求しています。この概念は、グループの意思決定のための公正な原則を特定するのに役立つ思考実験です。

私たちの実験では、このアプローチにより、参加者が自分自身の利益に関係なく公正だと思うような意思決定をすることを奨励されることがわかりました。また、参加者が無知のヴェールの下で推論を行った際に、最も不利な立場にある人々を助けるAIを選ぶ傾向があることも発見しました。これらの知見は、研究者や政策立案者が公平な原則を選択する際に役立つ可能性があります。

無知のヴェール(右)は、異なる意見があるグループで意思決定の合意を見つけるための方法です(左)

公正な意思決定のためのツール

AIの研究者の主要な目標は、AIシステムを人間の価値観と調和させることです。しかし、AIを統治するための一連の人間の価値観や好みについては、合意がありません。私たちは、背景、資源、信念の異なる人々が存在する世界に生きています。このような多様な意見を考慮して、この技術のための原則をどのように選択すべきでしょうか?

この課題は、過去10年間にAIにとって浮上したものですが、公正な意思決定をする方法についての広範な問いは、長い哲学的な系譜を持っています。1970年代、政治哲学者のジョン・ロールズは、この問題に対する解決策として無知のヴェールの概念を提案しました。ロールズは、人々が社会の正義の原則を選択する際に、自分自身の特定の立場(例えば、社会的地位や富のレベルなど)を知らない状態で選択するべきだと主張しました。この情報がないと、人々は自己利益のために意思決定をすることはできず、代わりにすべての関係者に公正な原則を選ぶべきです。

例えば、友人に誕生日パーティーでケーキを切ってもらうよう頼むと考えてみてください。スライスの大きさが公平になるようにする1つの方法は、どのスライスが彼ら自身のものになるかを伝えないことです。この情報を隠すというアプローチは、見かけによらず広範な応用があり、心理学や政治学から、自己利益を考慮しない視点での意思決定を促すために使用されています。これは、判決から課税までの論争のある問題において、グループの合意を得るための手法として使用されています。

この基盤を築いた上で、以前のDeepMindの研究では、無知のヴェールの公平性がAIシステムを人間の価値観と調和させるプロセスで公正性を促進するかもしれないと提案しました。私たちは、無知のヴェールの影響をテストするための一連の実験を設計しました。参加者には、AIシステムの行動を指針とするために選択する2つの原則のうち、どちらを選ぶかを問いました。

生産性を最大化するか、最も不利な立場の人々を助けるか?

オンラインの「木材収穫ゲーム」で、参加者には3人のコンピュータープレイヤーとのグループゲームをプレイしてもらいました。各プレイヤーの目標は、別々の領域で木を収穫することで木材を集めることでした。各グループには、幸運なプレイヤーと不利なプレイヤーがいました。幸運なプレイヤーは有利な位置に割り当てられ、木が密集しているため木材を効率的に集めることができました。一方、他のグループメンバーは不利な立場にあり、彼らの領域はまばらで、木を集めるのにより多くの努力が必要でした。

各グループは、1つのAIシステムによって支援されました。このAIシステムは、個々のグループメンバーが木を収穫するのを助けるために時間を費やすことができました。私たちは、参加者に対して、AIアシスタントの行動を指針とするための2つの原則のうち、どちらを選ぶかを尋ねました。 「最大化原則」では、AIアシスタントは主に密集した領域に焦点を当てることで、グループの収穫量を増やすことを目指します。一方、「優先化原則」では、AIアシスタントは不利な立場のグループメンバーを支援することに重点を置きます。

プレイヤー(赤で表示される)が、木を収穫するのが容易な密なフィールド(上位2つの象限)または木を収穫するのにより多くの努力が必要な疎なフィールドを占有する「収穫ゲーム」のイラスト。

半数の参加者には無知のベールがかかっていました。彼らは自分たちがどのフィールドにいるのかを知らずに、異なる倫理的原則の選択に直面しました。残りの参加者は自分が恵まれているか不利な立場にあるかを知った上で選択をしました。

意思決定における公平性の促進

参加者が自分の立場を知らない場合、彼らは一貫して弱者を支援する優先原則を選ぶ傾向がありました。この傾向は、ゲームの5つの異なるバリエーション全てにわたり一貫して現れ、社会的および政治的な境界を越えています。参加者はリスクへの好みや政治的な傾向に関係なく、優先原則を選ぶ傾向がありました。一方、自分の立場を知っている参加者は、優先原則または最大化原則のどちらが自分に最も利益をもたらすかを選ぶ可能性が高かったです。

無知のベールが優先原則の選択に及ぼす影響を示したグラフ。自分の立場を知らなかった参加者は、AIアシスタントが不利な立場にある人々をサポートする優先原則を支持する傾向が強かった。

参加者になぜ自分の選択をしたのか尋ねたところ、自分の立場を知らなかった参加者は公平性に関する懸念を特に多く示しました。彼らはAIシステムがグループ内で不利な立場にある人々を支援することが正しいと説明することがよくありました。一方、自分の立場を知っていた参加者は、個人的な利益に関してより頻繁に選択を議論しました。

最後に、収穫ゲームが終了した後、参加者に仮想的な状況を提示しました。もし彼らが新しいゲームで自分が異なるフィールドにいることを知っている場合、最初の選択と同じ原則を選ぶかどうか尋ねました。特に、以前の選択で直接的な恩恵を受けたが新しいゲームでは同じ選択から恩恵を受けない個人に興味がありました。

自分の立場を知らずに選択をした人々は、以前の原則を継続して支持する傾向がありました。これは、無知のベールが参加者の意思決定に公平性を促し、直接的な利益がなくなっても彼らが支持する原則に導くことを示す追加の証拠となります。

AIのための公平な原則

AI技術は既に私たちの生活に深い影響を与えています。AIを統治する原則は、その影響と潜在的な利益の分配を形作ります。

私たちの研究は、異なる原則の効果が比較的明確なケースを検証しました。これは常にそうではありません。AIは多くのルールによってガイドされるさまざまな領域に展開されており、複雑な副作用がある場合もあります。それにもかかわらず、無知のベールは原則の選択に関する情報を提供することができ、選択したルールがすべての当事者にとって公平であることを確保するのに役立ちます。

皆が利益を得るAIシステムを構築するためには、さまざまな学問領域と社会からの幅広い入力、アプローチ、フィードバックを含む包括的な研究が必要です。無知のベールは、より公平な好みを引き出すために他の領域で効果的に活用されています。さらなる調査と文脈への注意を通じて、無知のベールは現在および将来の社会に展開されるAIシステムにおいて同じ役割を果たすことを望んでいます。

DeepMindの安全性と倫理に対するアプローチについて詳しく読む。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

アクセンチュアは、AWS上でジェネレーティブAIサービスを使用して、ナレッジアシストソリューションを作成しました

この投稿はアクセンチュアのイラン・ゲラーとシュウユ・ヤンと共同で執筆されました現在、企業は内部および外部のビジネス活...

機械学習

「Google DeepMindが大規模な言語モデルを使用して解けない数学問題を解決」

彼らは生産物のほとんどを捨てなければならなかったが、ゴミの中には金があった

AI研究

「UCLとイギリス帝国大学の研究者が、タスク適応型貯水池コンピューティングを通じてエネルギー効率の高い機械学習を発表」

従来のコンピュータは多くのエネルギーを使用します。世界の電力需要の約10%を占めているのです。これは、従来のコンピュータ...

人工知能

AIを学校に持ち込む:MITのアナント・アガルワルとの対話

NVIDIAのAI Podcastの最新エピソードで、edXの創設者であり2Uの最高プラットフォーム責任者であるAnant Agarwal氏は、オンラ...

機械学習

このAI論文は、RetNetとTransformerの融合であるRMTを紹介し、コンピュータビジョンの効率と精度の新しい時代を開拓しています

NLPにデビューした後、Transformerはコンピュータビジョンの領域に移され、特に効果的であることが証明されました。それに対...

AI研究

南開大学と字節跳動の研究者らが『ChatAnything』を導入:LLM強化された人物像生成に特化した革新的なAIフレームワーク

南開大学と字節跳動の研究者チームが、オンラインで大規模な言語モデル(LLM)ベースのキャラクターのための人間らしさのある...