「グローバルAIガバナンスの制度探求」
Exploring the institutional framework of global AI governance.
新しいホワイトペーパーは、国際機関のモデルと機能を調査し、先進的なAIの機会を管理し、リスクを軽減するのに役立つ可能性がある
先進的な人工知能(AI)の世界的な影響に対する認識の高まりは、国際的なガバナンス構造の必要性についての公的な議論を促しています。これは、機会を管理し、関連するリスクを緩和するためのものです。
多くの議論は、民間航空のICAO(国際民間航空機関)、素粒子物理学のCERN(ヨーロッパ原子核研究機構)、核技術のIAEA(国際原子力機関)、および他の多くの分野の政府間および多利益関係者機関との類似性を引用しています。しかし、AIから生まれる技術は航空、素粒子物理学、または核技術とは異なるでしょう。
AIのガバナンスに成功するためには、以下をよりよく理解する必要があります:
- 国際的に管理する必要のある具体的な利益とリスクは何か。
- それらの利益とリスクに必要なガバナンス機能は何か。
- それらの機能を最も提供できる組織は何か。
オックスフォード大学、モントリオール大学、トロント大学、コロンビア大学、ハーバード大学、スタンフォード大学、OpenAIの共同研究者との最新の論文は、これらの問いに取り組み、国際機関がフロンティアAIの開発の世界的な影響を管理し、AIの利益がすべてのコミュニティに行き渡るようにする方法について調査しています。
国際的および多国間機関の重要な役割
特定のAI技術へのアクセスは、繁栄と安定性を大いに向上させる可能性がありますが、これらの技術の利益は均等に分散されない場合や、未代表のコミュニティや開発途上国の最も必要なニーズに焦点を当てない場合もあります。インターネットサービスへのアクセスの不十分さ、コンピューティングパワーの利用可能性、または機械学習のトレーニングや専門知識の不足などにより、特定のグループがAIの進歩の恩恵を十分に受けることができない場合もあります。
国際的な協力は、これらの問題に対処するために、未代表のコミュニティのニーズに対応するシステムやアプリケーションの開発を促し、教育、インフラストラクチャ、および経済的な障壁を改善することにより、これらの問題に取り組むことができます。
さらに、強力なAIの能力が引き起こすリスクを管理するためには、国際的な取り組みが必要な場合があります。適切な保護策がなければ、これらの能力(自動化されたソフトウェア開発、化学および合成生物学の研究、テキストおよびビデオの生成など)は悪用され、害を引き起こす可能性があります。また、先進的なAIシステムは予測困難な方法で失敗する可能性があり、技術が責任を持って展開されない場合には国際的な影響をもたらす事故のリスクがあります。
国際的および多機関の機関は、そのようなリスクを最小限に抑えるためのAI開発および展開のプロトコルを進めるのに役立つことがあります。たとえば、異なるAIの能力が社会に与える脅威についての世界的な合意を促進し、危険な能力を持つモデルの識別と取り扱いに関する国際基準を設定することができます。安全性研究における国際的な協力も、システムを信頼性のあるものにし、誤用に対して強靭にする能力を向上させるでしょう。
また、国家が互いの規制の義務を破らせる(経済競争から生じる動機など)場合には、国際的な機関が最善の慣行を支援し、奨励し、基準の遵守を監視するのに役立つ場合があります。
4つの潜在的な機関モデル
私たちは、グローバルな調整とガバナンス機能をサポートする4つの補完的な機関モデルを探求しています:
- 政府間のフロンティアAI委員会は、先進的なAIからの機会とリスクについての国際的な合意を構築し、それらの管理方法を確立することができます。これにより、AIの可能性と問題についての公衆の認識と理解が高まり、AIの使用とリスク緩和に科学的に基づいた説明が提供され、政策立案者の専門知識の源となります。
- 政府間または多利害関係者の先進的AIガバナンス機関は、先進的AIシステムからのグローバルなリスクに対処するための取り組みを国際化し、調整するのに役立ちます。ガバナンスの基準と規範を設定し、その実施を支援することもできます。また、国際的なガバナンス体制に対するコンプライアンス監視機能も果たす可能性があります。
- フロンティアAI共同体は、国際的な公私連携としての先進的AIへのアクセスを促進することができます。これにより、未代表の社会が先進的なAI技術の恩恵を受けられるようになり、安全性とガバナンスの目的のためのAI技術への国際的なアクセスも促進されます。
- AI安全プロジェクトは、主要な研究者とエンジニアを結集し、彼らに計算リソースと先進的なAIモデルへのアクセスを提供することで、AIリスクの技術的な軽減策の研究を行います。これにより、AIの安全性に関する研究と開発がスケールアップし、リソースと調整が増えます。
運用上の課題
これらの制度モデルの持続可能性に関する多くの重要な未解決問題が残っています。たとえば、AIの進展や能力に関する極度の不確実性や、先進的なAIの問題に関する限られた科学的研究の不足といった科学的な課題に直面する高度なAI委員会は、重要な課題に直面することになります。
AIの進展の急速なペースと、先進的なAIの問題における公共セクターの限られた能力は、先駆的なAIガバナンス機関がリスクの状況に適応するための標準を設定することを困難にする可能性もあります。国際的な連携の多くの困難さは、各国がその標準を採用するか、その監視を受け入れるかという問題を提起しています。
同様に、先進的なAIシステム(および他の技術)からの利益を完全に活用するための多くの障害は、先駆的なAIコラボレーションがその影響を最適化するのを妨げるかもしれません。また、AIの利益を共有することと危険なシステムの拡散を防ぐこととの間には、難しい緊張関係が存在する可能性もあります。
そして、AIセーフティプロジェクトにおいては、安全性研究のどの要素が企業の個別の取り組みよりも協力によって最良の形で行われるべきかを慎重に考慮することが重要です。さらに、プロジェクトが関連する開発者から安全性研究のために最も能力のあるモデルに十分なアクセスを確保することに苦労するかもしれません。
AIシステムがもたらす巨大なグローバルな機会と課題を考えると、国際機関の役割とその機能がAIのガバナンスと調整をさらに推進する方法について、政府や他の利害関係者の間でより多くの議論が必要です。
この研究が国際社会内で進行中の議論に貢献し、先進的なAIが人類の利益のために開発される方法についての議論を促進することを願っています。
私たちの論文を読む:https://arxiv.org/abs/2307.04699
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles