「EU AI Actについて今日関心を持つべき理由」
Reasons to be interested in the EU AI Act today
MLおよびAI業界で働く私たちのほとんどは、新しい規制に関する見出しを見て流し読みします。新しい規制は「法律用語」というカテゴリに属し、その言葉自体が外国語で書かれた規制、契約、その他の法的文書を描写する用語です。データサイエンティストは通常、法的用語を理解するための時間を費やしません。同様に、ほとんどの非データサイエンティストは、Large-Language-Model(LLM)の微調整には何が関与しているのか全くわかりません。ですので、新しい規則が出てきた場合、私たちはそれを法務チームに任せて、関連する情報があれば教えてもらうことを好む傾向があります。
それは部分的には真実です。法務チームはおそらくある時点で関与するでしょうが、彼らが関与すると、膨大な技術的負債が生じ、それを解決するのに数ヶ月かかるかもしれません。代わりに、規制当局からの予告を一般的に理解しておくことは、技術的負債を減らし、規則が発効された後で迅速にコンプライアンスを達成するための方法で作業するのに役立ちます。または、問題のある機能を最初から作成しないようにすることもできます。それが私がこの投稿を書いた理由です!
欧州連合人工知能法
EU AI法は、2021年に欧州委員会によって提案され、先週欧州議会で可決され、最終バージョンは2023年後半に可決される予定です。
この規則は、欧州連合の27か国のいずれかでAIシステムを配布している者に適用されます。
- Pythonコードの品質向上ガイド:データサイエンティストのためのガイド
- 「Meetupsからメンタリングまで データサイエンティストとしてのネットワーキングの方法」
- 「データからドルへ:線形回帰の利用」
提案の理由と目標
欧州委員会は正当に指摘しています。AIは、気候、健康、移動など、欧州連合と世界が直面している多くの難題に大きな利益をもたらす可能性がありますが、その技術には一定のリスクも伴います。近い将来、ディープフェイクが蔓延し、一般の人々が現実と偽物の区別がつかなくなるという状況を考えてみてください。このシナリオの影響は広範であり、個人の社会的およびプライバシー上の懸念だけでなく、民主制度の根幹にも脅威をもたらす可能性があります。
委員会は、リスクを効果的に管理しながら、欧州連合をポジティブなAI技術の開発のリーダーとして維持および推進するバランスの取れたアプローチを目指しています。
EU AI法の目的:
- 安全性を確保し、GDPR、著作権法など既存の法律を遵守する
- 法的な確実性を確保する – 将来の規制に関する不確実性は、投資家や起業家を威嚇する可能性があります
- 基本的権利とAIシステムの安全性に関する法律のガバナンスと執行を強化する
- EU全域でAIの単一市場を作成する – 各27の加盟国がAIに対して異なる規則と規制を持つシナリオを防止する
この提案は包括的かつ将来に対応可能な枠組みを提示しようとしています。技術が進化するにつれ、柔軟なメカニズムが組み込まれています。
AIリスクのカテゴリ
この規則では、リスクベースの4つのカテゴリを定義しています。リスクベースのアプローチは、異なるモデルに対して異なる取り扱いをすることを意味し、一括または特定のアプローチとは異なります。これは比較的将来志向的な規制形態とされており、具体的なツールに対して規定的ではなく、革新を許容するものとされています。
モデル/製品がどのカテゴリに該当するかを理解することは、遵守すべき要件を理解するために重要です。
カテゴリ1:受け入れがたいリスク
これらは以下のようなAIシステムです:
- 人の行動を物理的または心理的に害する可能性があるように、潜在意識の技術を利用して行動を歪める
- 特定のグループの人々の脆弱性を悪用し、人の行動を物理的または心理的に害する可能性があるように、年齢、身体的または精神的障害による行動を歪める
- 個人またはグループに不利な扱いをもたらすソーシャルスコアリング – これは、人種、性別、宗教などの潜在的なプロファイリングに基づいてクレジットスコアや採用プロセスに影響を与えるAIモデルを意味する可能性があります
- 特定の限られた状況を除き、公共の場で「リアルタイム」の遠隔生体認証を法執行目的で展開する
制約事項:これらのシステムは受け入れがたいリスクを持ち、禁止されています。
カテゴリ2:高リスク
次のいずれかに該当する場合、AIシステムは高リスクと定義されます:
- 規制製品の安全部品。たとえば、CEマーク(機械、おもちゃ、無線機器)、航空機、自動車、医療機器、PPEなどを必要とする製品。
- 生体認証、重要なインフラの管理、教育と訓練、法執行、移民、亡命と国境管理、司法および民主的プロセスなどに関する特定のAIシステム。
制約事項と要件:
- リスク管理システムが必要であり、特定のテストを実施してリスク管理措置を特定する必要があります
- データとデータガバナンス – データセットは、設計の選択、データ収集、データ注釈、処理、統計的特性、バイアスなどに関する適切なデータガバナンスと管理の実践の対象となります
- 詳細かつ最新の技術文書
- システムの使用中に自動的なログ記録機能を含める必要があります
- 透明性の要件
- 適切で宣言された精度レベル
- 高リスクAIシステムのEUデータベースへの登録
- 第三者の適合評価+CEマーク
カテゴリ3:透明性の義務を負うAIシステム
これらは、人間と対話し、感情を検出し、生体データに基づいて(社会的な)カテゴリに関連付け、コンテンツを生成または操作(ディープフェイク)するAIシステムです。
制約事項:エンドユーザへの開示などの情報/透明性の義務。
カテゴリ4:低リスクまたは最小リスク
これらは他のすべてのAIシステムです。
制約事項:なし。
例となるAIシステム
例1:
農業会社は、出荷前に最近収穫したトマトの状態をセグメント化して識別するためにコンピュータビジョンモデルを使用しています。
このAIモデルは品質保証のタスクを実行し、人間との対話はありません。したがって、このモデルは低リスクまたはVoAGIリスクと見なされ、規制要件はありません。
例2:
国営鉄道事業者は、線路上の障害物や障害物がないことを監視および確認するためにAIを使用することを決定しました。鉄道の運用における重要な安全要素であり、鉄道に関連する製品はすでにEUで規制されているため、このAIシステムは高リスクカテゴリに該当し、上記の要件を満たす必要があります。
例3:
あるソーシャルネットワークへのウイルス性トラフィックを増やすために、大規模言語モデル(LLM)を使用して、未成年者が楽しさやクールなチャレンジやゲームの名目で危険な行動に参加するよう促すチャットボットが使用されています。このようなAIシステムの使用はEUの価値に反するものであり、厳しく禁止されています。
例4:
風刺的なテレビ番組は、政治家や有名人のディープフェイクをユーモラスなコンテンツの一部として使用しています。このようなコンテンツには、コンテンツが自動生成されたものであることと実際ではないことを開示する必要があります。
イノベーションの支援
欧州委員会は、規制の遵守は時にはイノベーションを妨げるコストがかかることを理解しています。そのため、規則はEU加盟国がAIシステムの開発者が制御された環境でシステムをテストできるテスト環境またはサンドボックスを設けることを奨励しています。これについての詳細はまだ公開されていませんが、これらはインフラストラクチャのサンドボックスではなく、規制のサンドボックスである可能性があります。規制のサンドボックスでは、一定の期間、一部の企業が規制の一部から免除され、規制当局の監督の下で活動することができます。
欧州委員会は、適合性評価に関連する料金を設定する際に、中小企業やスタートアップのニーズと制約を考慮するでしょう。
今日できること
まず、AIシステムがどのカテゴリに属するかを確認し、期待される監査レベルを理解してください。考慮すべき細部と詳細がいくつかありますので、法務チームを巻き込んでください(変更に既に従っていると思わないでください)。法務チームは、特定のAIシステムに考慮すべき要件をよりよく理解するのに役立ちます。
ML開発のベストプラクティスと標準を適用していることを確認してください。これには、データ、コード、注釈、モデルのバージョン管理、実験の追跡などが含まれます。ベストプラクティスによってプロジェクトが整理され、技術的負債が減少し、より効率的になるため、より優れたパフォーマンスのモデルの実験と展開に集中できます。
データガバナンスと管理 – 新しい規則では、データセットが適切な統計的特性を持つ必要があります。これにより、意図されたユーザーの人口を適切に表現し、特定の人口にバイアスがかかったり差別的でないようにします。つまり、各モデルや製品について、機械学習の実践者はモデルのトレーニング、テスト、検証に使用されたデータをよく理解する必要があります – 正しいデータの系譜を追跡することは重要であり、後から行うのはほぼ不可能です。
適切なデータ管理とガバナンスは、既存のEU規制(AI法は既存の規則の遵守の重要性を強調しています)でのコンプライアンスを維持するために重要です。DagsHubのData Engineのようなツールを使用すると、著作権ライセンスや特定のデータが個人情報を含んでいるかどうかに関するメタデータを含めることができます。
結論
EU AI法は、ヨーロッパ連合でAIソリューションや製品を提供する個人や企業に影響を与えます。規制の総合的な目的はポジティブであり、人々の安全を保つことです。規則に従うためには、一部の制限や費用が必要ですが、規則自体は柔軟でイノベーションを許容するように設計されています。
規制を理解し、法務チームを巻き込み、業界のベストプラクティスとツールを使ってデータとプロジェクトを適切に管理することが、準備を整え、技術的負債を減らすために重要です。
EUが主要なAI規制を最初に公表したため、他の国でも同様の枠組みが導入されることが予想されます。
免責事項:この投稿で提供される情報は法律の助言を意図したものではありません。情報提供のみを目的としており、法律の助言として依存すべきではありません。法的な助言が必要な場合は、適格な法的専門家に相談してください。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles