「生成AIからの社会的および倫理的リスクの評価」

「生成AIにおける社会的および倫理的リスクの評価」

AIシステムの社会的および倫理的リスクを包括的に評価するためのコンテキストベースのフレームワークの紹介

生成型AIシステムは既に本を執筆したり、グラフィックデザインを作成したり、医療従事者を支援したりするために使用されており、ますます能力を高めています。これらのシステムを責任を持って開発・展開するためには、潜在的な倫理的および社会的リスクを注意深く評価する必要があります。

私たちの新しい論文では、AIシステムの社会的および倫理的リスクを評価するための3層構造のフレームワークを提案しています。このフレームワークには、AIシステムの能力、人間との相互作用、およびシステム全体への影響の評価が含まれます。

また、現在の安全性評価の状況をマッピングし、コンテキスト、具体的なリスク、および多様性の3つの主なギャップを見つけました。これらのギャップを埋めるために、既存の評価手法を生成型AIに再利用したり、私たちのミスインフォメーションのケーススタディのように総合的な評価手法を導入するよう呼びかけます。このアプローチでは、AIシステムが事実に基づかない情報を提供する可能性がどれほどあるかという発見と、人々がそのシステムをどのように使用し、どのような文脈で使用するかという洞察を統合します。マルチレイヤーの評価により、モデルの能力を超えて結論を導き出し、この場合は虚偽情報が実際に発生し広がっているかどうかを示すことができます。

どんな技術も意図どおりに機能するためには、社会的な課題と技術的な課題の両方が解決される必要があります。したがって、AIシステムの安全性をより良く評価するためには、これらの異なるコンテキストのレイヤーが考慮される必要があります。ここでは、大規模な言語モデルの潜在的なリスク(プライバシー漏洩、仕事の自動化、誤情報など)を特定し、これらのリスクを包括的に評価する方法を提案しています。

AIリスク評価におけるコンテキストの重要性

AIシステムの能力は、発生する可能性のある広範なリスクの種類についての重要な示唆です。例えば、事実に基づかない情報や誤解をもたらしやすいAIシステムは、誤情報のリスクを作り出し、公衆の信頼不足などの問題を引き起こす可能性がより高いです。

これらの能力を測定することは、AIの安全性評価の一環ですが、これだけではAIシステムが安全であることを保証することはできません。 downstreamの被害が発生するかどうか(例えば、不正確なモデルの出力に基づいて人々が誤った信念を持つかどうか)は、コンテキストに依存します。より具体的には、AIシステムを使用する人々は誰であり、どのような目標を持って使用するのか? AIシステムは意図した通りに機能していますか?予期しない外部影響は生じていますか?これらのすべての質問は、AIシステムの安全性の総合的評価に寄与します。

能力の評価を超えて、私たちは下流のリスクが明示される2つの追加ポイントを評価することを提案しています:使用時の人間との相互作用、AIシステムがより広範なシステムに組み込まれ、広範に展開される際のシステム全体への影響。これらのレイヤーを横断して害のリスクを評価することで、AIシステムの安全性の包括的評価が可能になります。

能力、人間との相互作用、およびシステム全体への影響を含む3層構造の評価フレームワーク。 AIシステムの安全性を評価するためには、コンテキストが不可欠です。

安全性評価は共同の責任です

AI開発者は、自社の技術が責任を持って開発・リリースされることを確保する必要があります。政府などの公的な立場の者は、公共の安全性を維持する責任があります。生成型AIシステムがますます幅広く使用され、展開されていく中で、その安全性は複数の当事者間で共有される責任です:

  • AI開発者は、彼らが生み出すシステムの能力を研究するのに最適な位置にいます。
  • アプリケーション開発者と指定された公共機関は、異なる機能やアプリケーションの機能性、および異なるユーザーグループへの可能な外部性を評価するために最適な位置にいます。
  • 広範な公共の利害関係者は、創発的AIなどの新しいテクノロジーの社会的、経済的、環境的な影響を予測・評価するために特別な位置にいます。

提案されたフレームワークにおける3つの評価レイヤーは、完全に分かれているのではなく、程度の問題です。これらのいずれも単一のアクターの完全な責任ではありませんが、主な責任は各レイヤーで評価を実施する最適な位置にある人に依存します。

AI開発者とその他の組織における責任の相対的な分布。

Generative Multimodal AIの現在の安全評価の欠点

AIシステムの安全性を評価するためのこの追加の文脈の重要性を考慮すると、そのようなテストの利用可能性を理解することが重要です。より広範な景色を把握するために、私たちは可能な限り広範な評価を総合し、創発的AIシステムに適用された評価を集約するための努力を行いました。

リスクカテゴリー、評価「レイヤー」、および出力モダリティに基づいた、創発的AIシステムの社会技術的安全評価の状況。

創発的AIの安全性評価の現状をマッピングすることで、以下の3つの主な安全性評価の欠点が明らかになりました:

  1. 文脈:ほとんどの安全性評価は、創発的AIシステムの能力を単体で考慮しています。人間の相互作用やシステムへの潜在的なリスクを評価するための研究は比較的少ないです。
  2. リスク特定の評価:創発的AIシステムの能力評価は、カバーするリスク領域が限られています。多くのリスク領域については、ほとんど評価が存在しません。評価が存在する場合でも、しばしばハームを狭義に定義しています。例えば、表現のハームは通常、職業と異なる性別へのステレオタイプ的な関連付けと定義されており、他のハームのインスタンスやリスク領域は検出されていません。
  3. マルチモダリティ:既存の創発的AIシステムの安全評価のほとんどはテキスト出力に焦点を当てていますが、画像、音声、またはビデオのモダリティでのハームリスクの評価には依然として大きなギャップがあります。AIシステムが入力として画像を取り、音声、テキスト、ビデオを組み合わせた出力を生成できるシステムなど、単一のモデルで複数のモダリティが導入されるにつれて、このギャップはますます広がっています。一部のテキストベースの評価は他のモダリティにも適用できますが、新しいモダリティはリスクが顕在化する新しい方法を導入します。例えば、動物の説明自体は有害ではありませんが、それを人の画像に適用すると有害になります。

私たちは、創発的AIシステムの安全評価に関する出版物へのリンクのリストを、このリポジトリを通じて公開アクセス可能にしています。貢献をご希望の場合は、このフォームを記入して評価を追加してください。

より包括的な評価を実践する

創発的AIシステムは、新しいアプリケーションやイノベーションを支えています。これらのシステムからの潜在的なリスクが理解され、緩和されるためには、これらのシステムがどのように使用され、社会に組み込まれるかを考慮した、厳格かつ包括的なAIシステムの安全性評価が急務です。

実践的な最初のステップは、既存の評価を再利用し、大規模モデル自体を評価に活用することですが、これには重要な制約があります。より包括的な評価を行うためには、人間の相互作用の点やシステムへの影響の点でAIシステムを評価するアプローチを開発する必要もあります。たとえば、創発的AIを通じてのデマの拡散は最近の問題ですが、信頼性や公信力を評価するための既存の方法は多くあります。

幅広く使用されている生成型AIシステムの安全性は、共有の責任であり、優先事項です。AI開発者、公的な関係者、および他の関係者は、安全なAIシステムのための繁栄し、堅牢な評価エコシステムを共同で構築する必要があります。

arXivでの私たちの論文を読む:https://arxiv.org/abs/2310.11986

Sociotechnical Evaluations Repositoryにアクセスする:https://dpmd.ai/46CPd58

Sociotechnical Evaluations Repositoryへの貢献:https://docs.google.com/forms/d/e/1FAIpQLSddpgbOQusru0Kvhq7eAXR0yWnBVioE0SUPX-C_RMwclldOrw/viewform?resourcekey=0-aLrlwk9nVVurJPmtncsC2g

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

「ロボットのビジョン-言語プランニングにおけるGPT-4Vの力を発揮する方法は?ViLaと出会ってください:長期計画のためにGPT-4Vを活用するシンプルで効果的なAIメソッド」

高レベルなパフォーマンスをロボットのタスクプランニングで達成する問題に対して、清華大学、上海人工知能研究所、上海騎至...

AI研究

MITの研究者は、ディープラーニングと物理学を組み合わせて、動きによって損傷を受けたMRIスキャンを修正する方法を開発しました

「この課題は、ぼやけたJPEG画像以上のものです医療画像の動きのアーティファクトを修正するには、より高度なアプローチが必...

データサイエンス

機械学習において決定木とランダムフォレストを使い分けるタイミング

この記事では、決定木とランダムフォレストアルゴリズムの背後にあるアイデアについて説明し、その2つを比較して利点を検討し...

機械学習

「Google DeepMindが、7100万件の「ミスセンス」変異の効果を分類する新しいAIツールを発表」

人類遺伝学における最大の課題は、おそらく人間のゲノムの複雑さと、健康と病気に寄与する遺伝要因の広範な多様性です。人間...

AIニュース

TIIのFalcon 180B基本モデルは、Amazon SageMaker JumpStartを通じて利用可能です

今日は、テクノロジーイノベーション研究所(TII)が開発したFalcon 180B基礎モデルが、お客様がAmazon SageMaker JumpStart...

機械学習

「分類メトリックの理解:モデルの精度評価ガイド」

機械学習における正確性、精度、再現率の迷宮を進む