「AIアクトの解読」
「AIアクトの解読—美容とファッションの専門家による鮮やかな解説」
AI Actのアクションプラン
政治、交渉、妥協について
AI Act [1]は、欧州の立法プロセスにおける政治の影響と重要性を完全に示す長く苦痛なプロセスで形成されました。しかし、専門知識や視点の欠如が引き起こす問題も明らかです。例えば、最も注目され、広く議論されている生成型AIモデルは、実際にChatGPTが公開され、私たちが生活していると思っていた現実を変革した前に、Actの最初の草案にさえ言及されていませんでした。モデルに関するテキストは、その後何度も根本的に変更され、再交渉され、しばしば新たに公表された科学論文や欧州の生成型AIスタートアップの進捗状況の影響を受けました。最終交渉の最大のポイントの1つになりました。
その結果、関連性のある、時折論理的に関連付けられた、そして実装可能な規定の混乱したジレンマに至りました。それでもActは政治的に合意され、(おそらく)近いうちに最終版が見られるでしょう。(ただし、おそらく1〜2ヶ月以内ではありません。)フランケンシュタインが私たちを巨額の罰金で遵守させるために恐怖を与えるのを待つ間に、私たちは自衛のためにいくつかの手順を踏むことができます。
アクションプラン
始めるには一番いいところは最初です。ですので、まず、何かを自動化しているか、または配備している場合、ほとんどの場合はActの適用範囲に該当するということを確認しましょう。それが済んだら、これは脅威でも世界の終わりでもありませんが、AIシステムを開発または配備するすべての個人または企業が直面しなければならない現実であることを確認することもできます。以下のアクションプランがそのために役立つかもしれません。
1. 今日から計画を始めましょう。AI Actの義務に合致するには時間がかかります。
Actのテキストを確認してください。最終的な政治的妥協テキストはまだ利用できず、次の数ヶ月間も利用できません。ただし、Actが150ページもあることを考慮すると、目を背けて事態が本当のものになるのを待っているということは非常に貧弱な戦略です。
- インドのスタートアップ、OpenHathiをリリース:初のヒンディー語LLM
- このAI論文は、イメージとテキストのアラインメントモデルにおける詳細なテキストとビジュアルの説明のための高度な技術を紹介しています
- このAI論文は、「Vary」という新しいアプローチを明らかにしています:高度な多言語認識タスクのための大規模なビジョン言語モデルの視覚語彙を拡張するためのアプローチ
リスク管理システム(第9条)や品質管理システム(第17条)の規定に含まれる義務は、システムのリスクに対処するためのコンセプトを開発するだけでなく、それらの管理システムを実装し、新たなリスクに対処するためのプロセスを設計するという形で実施する必要があります。これらは些細な問題ではありません。
一方で、人間の監視(第14条)などの他の義務は、製品に安全機能とガードレールを組み込むことでのみ実装できます。一方で、自動化プロセスのどの部分においても人間の介入を可能にする機能を事後的に実装しようとすることは、ほとんどの場合、不可能であるか、あるいは少なくとも深刻な困難や開発および/または配備の遅延、追加の財政コストと関連しています。
最後に、Actの課題に取り組むためのリソースや能力があるかどうか確認してください。ない場合は、必ず必要なリソースを見つけてください。
2. 役割を理解する
AI Actには5つの役割があります。プロバイダー、デプロイヤー、輸入業者、販売業者、メーカーの役割です。しかし、ほとんどの場合、関係するのはプロバイダーとデプロイヤーの2つの役割だけです。これらのうちどちらかに当てはまることによって、義務の数と重要性が大きく異なります。
法律の多くの義務(多くは第16条に挙げられています)は、主にAIシステムの提供業者に影響を与えます。これは、AIシステムを開発し、それを市場に出す企業が対象であり、それが欧州連合の領土上で開発されたものであるか、単に展開されるかに関わらずです。ただし、提供業者から伝えられたAIシステムの予定された使用目的に干渉する人や、システムに重要な変更を加える人もこのカテゴリーに含まれ、法律の義務を全うしようとする特権を得ることになります(第28条)。いくつかの義務があるため、提供業者の立場を避けることが、法律の遵守を実現するためにおそらく最も重要な方法です。
ビジネス活動の範囲内でAIシステムを展開する個人または企業の役割として関連するものは、法的な負担がかなり少ないものです(第29条)。その負担は主に適切な注意義務で構成されます。そのためには、展開するシステムとその提供業者を知ることが重要です。そして、提供業者の文書に従ってシステムを使用し、提供業者が意図した目的で使用することをアドバイスします。最後に、システムと状況によっては、展開者は効果的な人間の監視の義務を果たす、自動化されたログの作成を可能にする、または単に提供業者が義務を果たすのを支援する義務も果たす必要があるかもしれません。これらはすべて関連するものですが、それらを最初に可能にするシステムを設計することよりも複雑でははるかに少ないです。
3. システムを知る
すでに述べたように、ほとんどの自動化システムはAIシステムと見なされ、法律の適用範囲に含まれます。これは真剣に考慮され、開発および展開プロセスのすべての段階に影響を与える必要があります。そのため、AI法の観点からシステムを考え始めることができます。まず、システムが高リスクのカテゴリーに該当するかどうかを知ることが主なステップです。この評価を行うためには、次の3つの基本的な手順に従うことができます。
a. 使用中のシステムは特別な安全規制で規制された製品ですか、またはその製品の重要な部分として統合できますか?
b. 私のシステムは付録IIIの(恒久的に長い)リストに記載されていますか?
c. はいの場合、私の製品に関連するリスクは実際にそれほど高いですか?
この基本的な評価の最後のステップは、非常に複雑で、リスク評価を行うことです。ただし、この評価は広範な義務からの唯一の逃げ道です。逃げる試みが失敗しても、評価はこの行動計画の次のステップで役立つことができます。
4. リスクを知り、発生したときに対処する
法律の中で最も複雑で広範な義務の1つは、リスク管理システムの導入です。このシステムを設計するためには、まず自分のシステムによって引き起こされるリスクに非常によく理解している必要があります。前のステップのリスク評価が一定の支援を提供できますが、リスク管理システムを設計および開発するためには、以前に実施された評価を大幅にアップグレードする必要があります。
成功と効果的な評価を行うために、次の質問に答えるべきです:
a. システムの予定された目的は何であり、その使用は重大で明らかなリスクと関連していますか?
b. システムの導入によって達成したい目標は何ですか?効率の向上ですか?プロセスの一部を自動化することですか?プロセスに追加のチェックやプリチェックを実装することですか?これは後でシステムの導入を評価し、正当化するのに役立つでしょう。
c. システムの予定された使用に関連するリスクのカテゴリーは何ですか?システムリスク?環境リスク?プライバシーリスク?
d. リスクは誰に影響を与えますか?社会全体ですか?私の従業員ですか?私の製品/サービスの利用者ですか?
e. これらのリスクを最小限に抑えるために私は何ができますか、および導入された措置の有効性を確認するためにどのくらいの頻度で確認する必要がありますか?
この文脈で非常に重要なのは、すべての潜在的なリスクに対処し、それらを個別におよび相互に分析することです。ただし、常に特定のAI使用目的を念頭に置いて行ってください。
5. すべて文書化する
法律による罰金は重いものになる予定です(はい、GDPRよりも重いです)し、遵守と責任はそれらに対する唯一の予防策です(第71条)。したがって、あなたが行うすべてのことは文書化する必要があります。これは(まだ)法的義務ではないとしても、リスクや潜在的な問題を最初から考慮し、これらにどのように対処するかを考えたことを証明することができます。リスクの分析、制御プロセスの設計と文書化、報告と責任のチェーンの確立、従業員やユーザー向けのガイドラインの公開など、これらはあなたの立場を助けるための最良の手順の一部です。何か問題が発生した場合や、法律が施行された後、誰かが訪問し、システムをチェックする場合に役立ちます。
6. 他のことを忘れないでください
最後に、AI法案は大きくて怖いものであり、やってきます。しかし、AIシステムに適用される他の規制もあります。それらのほとんどはより具体的な問題に対処しています。トレーニングプロセスで使用されるデータからシステムの出力、およびバックエンドで作成されるデータまで、さまざまな規制があります。これには、GDPR、デジタルサービス法、デジタルマーケット法、およびデータ法などがあります。これらの法的規制の数は着実に増加しています。それでも、言及された(または言及されていない)法律に含まれている義務も残っており、対処する必要があります。ただし、AI法案とこれらがどのように関わるかについては、EUからのガイダンスがまだないため、残念ながらそれはあなた次第ということです。
最後の思い
過去数ヶ月の動向を注視した結果、私個人としてはAI法案はフランス語の文法に非常に似ているという結論に至りました。ルールごとに少なくとも7つの例外があります。そのため、最初にルールがあった理由を疑問視することもあります。しかし、それはただ諦めるための言い訳になるわけではありません。むしろ、できるだけ早く法案とその複雑さに取り組むべき動機となるべきです。なぜなら、パリに着いた後ではフランス語の学習を始めるのが遅すぎるように、AI法案とその多くの複雑さに馴染むのを始めるのが遅すぎるということも同様です。
[1] 2023年6月14日のオリジナルテキストへの最終公開変更は、こちらでご覧いただけます: https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.pdf。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 『LLM360をご紹介します:最初の完全オープンソースで透明な大規模言語モデル(LLM)』
- ドメイン固有アプリケーションのためのLLM細かい調整戦略
- 「Amazon SageMaker Pipelines、GitHub、およびGitHub Actionsを使用して、エンドツーエンドのMLOpsパイプラインを構築する」
- 「QLoRAを使ってLlama 2を微調整し、AWS Inferentia2を使用してAmazon SageMakerに展開する」
- マイクロソフトAIがLLMLinguaを発表:大型言語モデル(LLM)の高速推論のためのユニークなクイック圧縮テクニックでプロンプトを圧縮
- Amazon BedrockとAmazon Transcribeを使用して、生成AIを使用して録音のサマリーを作成します
- 空からのパイ:ドローンスタートアップがピザ、薬物、そして興奮をお届けします