「責任あるAIの推進のための新しいパートナーシップ」
New partnership for promoting responsible AI
エディター注:本日、Google、Microsoft、OpenAI、およびAnthropicは、Frontier Model Forumの設立を発表する共同発表を行いました。
本日、Anthropic、Google、Microsoft、およびOpenAIは、Frontier Model Forumの設立を発表しました。Frontier Model Forumは、フロンティアAIモデルの安全で責任ある開発を確保することを目的とした新しい業界団体です。Frontier Model Forumは、メンバー企業の技術的な専門知識と運用能力を活用して、AIエコシステム全体に利益をもたらすことを目指します。具体的には、技術的な評価やベンチマークの推進、業界のベストプラクティスと標準をサポートするためのソリューションの公共ライブラリの開発などが含まれます。
フォーラムの主な目標は以下の通りです。
- フロンティアモデルの安全な開発を推進し、リスクを最小化し、機能と安全性の独立した標準評価を可能にするためのAIの安全性研究を進めること。
- フロンティアモデルの責任ある開発と展開のためのベストプラクティスを特定し、技術の性質、能力、制約、および影響を一般の人々が理解するのを支援すること。
- 政策立案者、学者、市民社会、および企業との協力を通じて、信頼性と安全性のリスクについての知識を共有すること。
- 気候変動の緩和と適応、早期がん検出と予防、サイバー脅威への対処など、社会の最大の課題に対応するアプリケーションの開発を支援する取り組みをサポートすること。
メンバーシップの基準
フォーラムは、最も先進的な既存のモデルの能力を超える大規模な機械学習モデルであるフロンティアモデルを定義しています。
メンバーシップは、以下の基準を満たす組織に開放されています。
- フロンティアモデル(フォーラムで定義される)の開発と展開を行うこと。
- 技術的および制度的なアプローチを通じたフロンティアモデルの安全性への強い取り組みを示すこと。
- 共同イニシアチブへの参加やイニシアチブの開発と運営の支援を含む、フォーラムの取り組みを前進させる意欲を持つこと。
これらの基準を満たす組織は、フロンティアAIモデルの安全で責任ある開発を確保するための取り組みに参加し、協力することを歓迎しています。
Frontier Model Forumの取り組み
政府と業界は、AIが世界に多大な利益をもたらす一方で、リスクを軽減するために適切なガードレールが必要であるとの認識で一致しています。これらの取り組みには、米国と英国の政府、欧州連合、OECD、G7(広島AIプロセスを通じて)、およびその他の組織がすでに重要な貢献をしています。
これらの取り組みをさらに進めるためには、フロンティアAIモデルの安全基準と評価に関する作業が必要です。フォーラムは、AIの安全性と責任についての組織間の議論と行動の一環となる機関です。
フロンティアAIモデルの安全で責任ある開発を支援するため、フォーラムは以下の3つの重要な領域に焦点を当てます。
ベストプラクティスの特定:業界、政府、市民社会、および学界の間で知識共有とベストプラクティスを促進し、広範なリスクを軽減するための安全基準と安全慣行に焦点を当てます。
AIの安全性研究の進展:AIの安全性エコシステムをサポートするために、AIの安全性に関する最も重要なオープンな研究課題を特定します。フォーラムは、フロンティアAIモデルのための技術的評価とベンチマークの公共ライブラリの開発と共有に最初に重点を置きます。
企業と政府間の情報共有の促進:AIの安全性とリスクに関する情報を、企業、政府、および関係者間で信頼性のある安全なメカニズムを確立します。フォーラムは、サイバーセキュリティなどの分野からの責任ある開示のベストプラクティスに従います。
Google & Alphabetのグローバルアフェアーズ部門の社長であるKent Walkerは次のように述べています:「私たちは、他の主要企業と協力し、責任あるAIイノベーションを推進するために技術的な専門知識を共有することに興奮しています。AIがみんなのために利益をもたらすためには、みんなで協力する必要があります。」
Microsoftの副会長兼社長であるBrad Smithは次のように述べています:「AI技術を作成する企業は、それが安全で安全であり、人間の制御下にあることを確保する責任があります。このイニシアチブは、テックセクターが責任を持ってAIを推進し、課題に取り組んで人類全体に利益をもたらすための重要な一歩です。」
OpenAIのグローバルアフェアーズ部門の副社長であるAnna Makanjuは次のように述べています:「高度なAI技術は社会に大きな利益をもたらす可能性があり、この可能性を実現するためには監督とガバナンスが必要です。特に最も強力なモデルに取り組んでいるAI企業が共通の立場を確立し、思慮深く適応可能な安全慣行を前進させることは重要です。これは緊急の作業であり、このフォーラムはAIの安全性の状態を迅速に進めるために良い位置にあります。」
Dario Amodei、AnthropicのCEOは次のように述べています:「Anthropicは、AIが世界の仕組みを根本的に変える可能性を持っていると考えています。私たちは、産業界、市民社会、政府、学術界と協力し、この技術の安全で責任ある開発を推進するために興奮しています。フロンティアモデルフォーラムは、フロンティアAIの安全に関するベストプラクティスの調整と研究の共有において重要な役割を果たします。」
フロンティアモデルフォーラムの仕組み
フロンティアモデルフォーラムは、今後数か月で、多様なバックグラウンドと視点を代表するアドバイザリーボードを設立し、戦略と優先事項を指導する予定です。
創設企業は、作業グループと執行委員会による、憲章、ガバナンス、資金調達を含む重要な制度的な体制を確立します。私たちは、フロンティアモデルフォーラムのデザインや実りある協力の方法について、市民社会や政府との協議を今後数週間にわたり計画しています。
フロンティアモデルフォーラムは、G7広島プロセス、OECDのAIリスク、標準、社会的影響に関する取り組み、米EU貿易・技術協議など、既存の政府および多国間のイニシアチブをサポートし、活用する機会を歓迎します。
また、フォーラムは、各ワークストリームにおける既存の産業界、市民社会、研究の取り組みの貴重な成果を活用するための探求も行います。パートナーシップオンAIやMLCommonsなどのイニシアチブは、AIコミュニティ全体で重要な貢献を続けており、フォーラムはこれらの貴重な多元利害関係者の取り組みと協力し、支援する方法を探求します。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles