『AI規制に関するEUの予備的な合意:ChatGPTへの影響』
『EUの予備的な合意:AI規制とChatGPTの関係』
ヨーロッパ連合は最近、広く認識されているChatGPTを含む先進的なAIモデルの規制に関する予備的な合意を仲介しました。これは世界で初めての包括的な人工知能規制の確立に向けた大きな前進です。
AIシステムの透明性
透明性の向上を図るために、ChatGPTを含む汎用AIシステムの開発者は、基本要件に従う必要があります。これには利用可能な利用ポリシーの実施、モデルトレーニング方法論の最新情報の維持、及びトレーニングに使用されたデータの詳細な要約の提供が含まれます。また、著作権法の尊重を義務付けられています。
「システミックリスク」を有するモデルに対する追加ルール
「システミックリスク」を有すると判断されたモデルは、より厳格な規制を受けます。このリスクの判断は、モデルトレーニング時に使用される計算能力の量に依存します。特に、秒間10兆回の演算を超える任意のモデルは、このカテゴリに該当します(例えばOpenAIのGPT-4)。EUの執行機関は、データセットのサイズ、登録済みビジネスユーザー、エンドユーザーなどのさまざまな基準に基づいて他のモデルを指定する権限を持ちます。
関連記事:衝撃のニュース:ChatGPTのデータ漏洩の脆弱性
高度なモデルの行動規範
ChatGPTを含む高度なモデルは、欧州委員会がより包括的かつ持続可能な制御策を策定するまで、行動規範を採用する必要があります。不遵守の場合、AI法に準拠していることを証明する必要があります。特に、オープンソースモデルは一部の制約から免除されていますが、システミックリスクを有すると見なされた場合は免疫がないことに注意してください。
モデルに対する厳格な義務
規制フレームワークに分類されたモデルは、エネルギー消費量の報告、赤チームまたは敵対的テストの実施、潜在的なシステミックリスクの評価と緩和、および事件の報告を行う必要があります。さらに、モデルの微調整に使用された情報を開示し、開発された場合はよりエネルギー効率の高い基準に準拠する必要があります。
承認プロセスと懸念
欧州議会とEUの27か国はまだ暫定的な合意を承認していません。一方で、フランスやドイツなどの国々から懸念が表明されています。懸念は、ミストラルAI&Aleph Alphaなどの企業によって象徴される欧州のAI競合他社の抑制リスクに焦点を当てています。フランスとドイツは特に、過度の規制がグローバルなAIの景気へのイノベーションと競争力に悪影響を及ぼすことを懸念しています。
関連記事:欧州のAI巨大MISTRAL AIが3億8500万ユーロを調達
私たちの意見
AI規制の複雑な領域を航海する中で、EUのアプローチはイノベーションの促進と潜在的なリスクへの保護の間の微妙なバランスを求めています。提案が承認を待っている間、一部の加盟国から懸念が唱えられています。これはAI分野の統治の将来を描く上で、AI開発者の願望と社会的安全性の必要性をバランスさせる重要な課題を示しています。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles