「新たなホワイトハウスの協定に基づき、AIの巨大企業が自社のアルゴリズムに外部からの調査を許可することを誓います」
新たなホワイトハウスの協定に基づき、AIの巨大企業が外部からの調査を許可することを誓います
ホワイトハウスは、Amazon、Google、Meta、Microsoft、OpenAIなどの主要なAI開発者と合意を結び、有害なAIモデルが世界に公開されるのを防ぐための行動を約束することを求めました。
この合意では、「自主的なコミットメント」として呼ばれるホワイトハウスは、企業が新しいAIモデルを公開する前に内部テストを実施し、外部テストを許可することを約束しています。テストでは、バイアスや差別的な出力、サイバーセキュリティの欠陥、広範な社会的な害のリスクなどの問題を調査します。OpenAIのChatGPTに対する有力な競合製品を開発しているAnthropicとInflectionのスタートアップもこの合意に参加しました。
「企業は、AIシステムの安全性と能力をテストすることによって、製品を公開する前に安全性を確保する義務があります」と、ホワイトハウスのAI特別顧問であるベン・ブキャナンは、昨日のブリーフィングで記者に語りました。企業が注視すべきリスクには、プライバシーの侵害や生物学的な脅威への潜在的な貢献も含まれます。企業はまた、システムの制約、セキュリティの問題、社会的なリスクについて公開報告することを約束しました。
Wiredから全文記事を表示
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles