「新たなホワイトハウスの協定に基づき、AIの巨大企業が自社のアルゴリズムに外部からの調査を許可することを誓います」

新たなホワイトハウスの協定に基づき、AIの巨大企業が外部からの調査を許可することを誓います

合意が主要なAI企業の運営にどれほど変化をもたらすかは不明です。¶ クレジット:Yasin Ozturk / Getty Images

ホワイトハウスは、Amazon、Google、Meta、Microsoft、OpenAIなどの主要なAI開発者と合意を結び、有害なAIモデルが世界に公開されるのを防ぐための行動を約束することを求めました。

この合意では、「自主的なコミットメント」として呼ばれるホワイトハウスは、企業が新しいAIモデルを公開する前に内部テストを実施し、外部テストを許可することを約束しています。テストでは、バイアスや差別的な出力、サイバーセキュリティの欠陥、広範な社会的な害のリスクなどの問題を調査します。OpenAIのChatGPTに対する有力な競合製品を開発しているAnthropicとInflectionのスタートアップもこの合意に参加しました。

「企業は、AIシステムの安全性と能力をテストすることによって、製品を公開する前に安全性を確保する義務があります」と、ホワイトハウスのAI特別顧問であるベン・ブキャナンは、昨日のブリーフィングで記者に語りました。企業が注視すべきリスクには、プライバシーの侵害や生物学的な脅威への潜在的な貢献も含まれます。企業はまた、システムの制約、セキュリティの問題、社会的なリスクについて公開報告することを約束しました。

Wiredから全文記事を表示

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI研究

黄さんの法則に留意する:エンジニアたちがどのように速度向上を進めているかを示すビデオ

話の中で、NVIDIAのチーフサイエンティストであるビル・ダリー氏が、モーアの法則時代後のコンピュータパフォーマンスの提供...