「EU AI法案:AIの未来における有望な一歩か、危険なギャンブルか?」

EU AI法案:未来のAIへの一歩か、危険なギャンブルか?

EUのAI法案には大きな抜け穴があるようです。そして、これはOpenAIなどのテックジャイアントによるAI規制の大規模回避を意味するかもしれません

画像:Bing Image Creator + Canva

I. AI規制への最初の飛躍がここにあります

EUは今年の6月14日にAI法案の草案を完成させました。

これは安全でより良いAIへの初めの飛躍です。ご存知のように、EUのAI法案は「人工知能」に関する最初の国際規制法です。この法案は倫理的なAIシステムの構築に関する規則と規制を企業(プロバイダと呼ばれる)に定めています。ヨーロッパ諸国やOpenAIなどの主要なAI企業は、自分たちの提案を議会に提出しました。

人工知能法(AIAと略称されます)は、AIシステムを使用する際に企業に特定の要件を遵守するよう求めています。これにはプロバイダのKYC(顧客確認)、システムのアーキテクチャの公開、データプライバシーの詳細などが含まれます。この法案は、3年間の集中的な政策立案の結果であり、EUのこの分野での共同努力は2017年にさかのぼります。ただし、AIの規制と倫理の必要性が明らかになったのは最近のことです。

人々はAIの魔法の力に気付きました-ChatGPTやDalleなどのツールは非常に高速に動作し、一晩で皆を芸術家や詩人に変えました。

人々はAIツールの能力に驚嘆しました。そして後に、それらの安全性について心配するようになりました。これらの機械が説得力のある誤情報を生成することができることが明らかになりました。特に創造的な面で、これらの魔法使いによる盗作や著作権の問題は終わりのない議論です。

一方では、「世界が終わる前に知っておく必要のあるトップXのAIツール」といったAIプロンプトのコースを売る人々がいましたが、もう一方ではAIの速い進歩について心配している人々もいました。これらの懸念は主にAIの専門家によって提起され、アルゴリズムで動作するこれらの魔法使いからの安全性について心配していました。

出典:https://www.metaculus.com/questions/8787/passing-of-the-ai-act/

EUはいつAI法案を通過するのでしょうか?

あなたの提出は現在ドラフトです。準備ができたら、コミュニティのチームによるレビューのためにドラフトを提出してください…

www.metaculus.com

私がこれを書いている間、AIAの立法はまだ進行中です。その執行はおそらく2023年または2024年に行われるでしょう。さらに、法案が施行されるまでには、おそらく24〜36ヶ月の猶予期間があります。今年の終わりまでにAI法案が草案化されると仮定しても、次の2〜3年の終わりまで実際には完全に実施されることはありません。

法案がまだ作成中である今、これはその法案がこれらのAI魔法使いを本当に制御できるかどうか、またはそれらに不正行為の抜け穴があるのかを分析する絶好の機会です。

II. 魔法使いとその呪文

AIに賭ける企業が未来をリードし、同時に財産を築いています。世界的な生成AI市場は130億ドル以上の価値があります。そして、この規模のプロジェクトでは必ずしもルールに抜け穴があります。

AIAもその例外ではあります。

AIAは重要であり、今後の数年間で他の組合もこの枠組みの上に独自の法律を作ろうとするでしょう-それにより、それらは世界的に一貫したものになります。OpenAIやAnthropicなどのAIフロントの大手テックジャイアントは、AIに関する法律を制定する国際的な規制機関を求めました。

AI法は社会の安全性を考慮していますが、競争を増やさずに企業を支援するために規制を設けました。これは、AI法が企業に対してシステムの情報を他のプロバイダーと共有することを要求しているためです。

アルゴリズムの使用にあたっては、責任追及が重要な問題となります。これにより、これらのシステムが乱れる場合、誰が責任を負うのかといったギャップが生まれました。

AIAは、AIプロバイダーの役割と責任を明確にすることで、このギャップに取り組んでいます。

AIスタートアップの規模が今年増加していることから、計算リソースやトレーニングデータの量は重要な問題となっています。AI法は新しいモデルのトレーニングを制限し、これらのAIシステムの安全な開発を保証しようとしています。出典:Servilla et al. (2022)

AIスタートアップの規模が今年増加していることから、計算リソースやトレーニングデータの量は重要な問題となっています。AI法は新しいモデルのトレーニングに制限を設けることで、これらのAIシステムの安全な開発を保証しようとしています。

AIAは、プロバイダー(AI企業)と消費者(ユーザー)の利益を考慮しています。AIのイノベーションは進めながら、関連するリスクに取り組む必要があります。AIを安全にするためには、より安全に開発する必要があります。社交性を持たせるためには、獣を訓練する必要があります。

AIAは、規制が大企業を窒息させたり、将来の技術の進歩の道を閉ざさないようにしました。

もちろん、AIの草案ではすべての関係者を満足させることはできません。これは、大企業にとっても当然のことでした。

大企業は、EUが過剰な規制を行っていると主張しています。

最近、大手テック企業の幹部約150人が、AIAがAIの過剰規制を行っているとするEUに対して公開書簡を提出しました。この書簡には、ルノーとシーメンスのCEO、ハイネケンのエグゼクティブディレクター、MetaのチーフAI科学者など、主要なテックリーダーの署名が含まれていました。

さらに、強力なOpenAIのCEOであるサム・アルトマンも、「規則が厳しすぎる場合はEUを離れなければならない」と発言し、懸念を表明しました。AIAでは、ChatGPTとその大規模言語モデルGPT-4の両方が「高リスク」と見なされる可能性があります。少し後で「高リスク」とは何を意味するのか説明します。

さらに、Timeの報道によると、OpenAIのCEOは「可能であれば遵守しますが、できない場合は営業を停止します…試みますが、可能な範囲には技術的な制約があります」と述べました。

別のTimesの記事によると、OpenAIはEUに対して好意的な草案を起草するように働きかけたと報じられています。そして、EUの立法者はAIの規制を強化しているという報道もありました。

AI法自体が包括的であるため、Future Life Institute(FLI)という非営利組織が行った分析を参考にしました。覚えているかもしれませんが、これは1,125人のテックリーダーやAI専門家の署名で支持されたAIの開発に対する6か月の一時停止を求める公開書簡を発行した同じ組織です。

先日、私はFLIがEUのAI法に関する定期的なニュースレターをSubstackでリスト・ウークが管理していることを発見しました。そこではハイライトや主要なイベント、FLIによるEU法の分析が投稿されています。

FLIはAIAの分析を非常に良い仕事で行っています。FLIはAI倫理の分野で研究を行っています。FLIは、人工知能の安全な開発のための23のガイドラインであるアシロマーAI原則を策定しました。

こんにちは、読者の皆さん!この記事を楽しんでいただければ幸いです。この記事は私の「クリエイティブブロック」ニュースレターの一部です。これはテクノロジーとAIに関する週刊ニュースレターです。

このようなコンテンツをもっと読みたい場合は、Creative Blockに移動してください。

彼らの分析を読んでいる間に、AI法にはいくつかの重要な変更があることがわかりました。これには、未規制のAIシステムを悪用する可能性のある深刻な抜け穴があります。

では、これらの抜け穴は何でしょうか?

III. 高リスクシステムと例外としての回避

AIAはリスクベースのアプローチで設計されています。

このアプローチでは、有害と見なされる一部のAIの使用は禁止され、一部の使用は厳しいルールに従う必要があり、一部の非有害なAIの使用はAIAの適用範囲に含まれません。

2番目は、厳しい要件が課されるシステムであり、『高リスク』システムのカテゴリに属します。

AIリスクのEUによる分類。出典:https://www.ey.com/en_ch/ai/eu-draft-regulation-on-artificial-intelligence

EUによると、『高リスク』システムは、あなたとあなたの基本的な権利に悪影響を及ぼすシステムです。EUは、高リスクシステムを次の2つのカテゴリに広く分類しています:

1)EUの製品安全法に該当するAI製品は、EUが禁止または回収した製品です。

2)次の8つの特定の領域に該当するAIシステムです:

  • 自然人の生体認証と分類
  • 重要なインフラの管理と運営
  • 教育と職業訓練
  • 雇用、労働者管理、および自営業へのアクセス
  • 重要な私的サービスと公共サービス、および給付の利用と享受
  • 法の執行
  • 移民、亡命、および国境管理
  • 法律の解釈と適用の支援

上記のいずれかの項目に該当するAIシステムは、高リスクとされます。そして、疑問に思っていたかもしれませんが、ChatGPT(特にGPT4バージョン)はすべての項目に該当するようです。

これがOpenAIがAI法に悩んでいる理由の1つかもしれません。OpenAIによると、ChatGPTやそのモデルGPT4など、多くのアプリが高リスクに分類される可能性があります。

このケースを考えてみましょう。ChatGPTとGPT4は高リスクと見なされるべきでしょうか?そして、答える前に、OpenAIのやり方で質問をフレームしてみましょう:これらのツールは本質的に高リスクですか?

過去数ヶ月の観察結果からは、その答えは明確です。ChatGPTなどのAIツールは高リスクです。

これらのツールが重大なリスクを引き起こした場合もありました。これらのツールによる誤情報はまだ存在し、説得力のある嘘を吹き込みます。ディープフェイクにより、リーダーが戦争を終わらせたように見せかけ、インターネット上でデータを生成し、数多くの知的財産権の問題…などなど。リストは続いています。

私は公正であり、これらのリスクの広範なシナリオを示しました。ただし、これらの機械が個人レベルで明らかに有害であることにも気付いています。

ニュースフィードでこれを見たくありませんよね?(出典:Wion on msn.com)

ご覧の通り、私は続けることができます。この投稿を公開するまでに、他のトラブルが発生するでしょう。広大な世界のどこかで、人々はAIの魔法使いによって被害者になるのです。これは、これらのアルゴリズムマシンが引き起こす害の範囲を示しています。この範囲は事実上無限です。

FLIは、ChatGPTなどのシステムがAIAのArticle 4cのおかげで高リスクのラベルを回避できることに気付きました。

IV. 第4c条- AIAのun4seen条項

第4c条は、AIAの第4b条の例外です。

第4b条は、AIシステムの開発とその提供者に関する規則を定めています。この条項によると、高リスクのシステムを作成する場合、自分と同様の「他の」提供者にシステムの詳細を提供する必要があります。

これはAI企業にとって好ましくないことであり、彼らは自社のシステムについて情報を開示する必要があります。また、これは市場での激しい競争をもたらす可能性もあります。

高リスクの分類。出典:https://ai-regulation.com/guidance-on-high-risk-ai-systems-under-eu-ai-act/

この規則の例外は、第4c条の定義に現れます。これによれば、あなた(提供者)は、システムが「高リスク」と分類されていない場合、システムに関する情報を提供する必要はありません。これは、システムからすべての高リスク要素を取り除いたことを述べることによって実現できます。

この法令は、提供者が義務を回避する手段を提供します。システムが「高リスクでない」と証明し、誤用されないことを確認できれば、AIシステムを開示する必要はありません。

AIシステムの開発が倫理的かつ安全に行われていることを確認するために、AIシステムの作成方法を開示することは重要です。

これはAI市場の大手企業が責任を回避するための裏口となる可能性があります。AIの専門家やFLIは、この記事が削除されることを望んでいます。これにより、大手テック企業が義務や公正な競争を回避することができる可能性があります。

これは大きな抜け穴かもしれませんが、私はAIAの大きな欠陥とは考えません。今必要なのは、この条項のより良い改訂、またはこの例外を完全に廃止することです。

幸いなことに、AIAはまだ草案の段階です。FLIはこの抜け穴について分析で取り上げ、指摘しました。

大企業による過剰規制への反発を考慮しても、AIAの注目すべき側面の1つは、この法令が欧州の組織が競争力を維持できることを目指していることです。特に、アメリカや中国などの他の主要なプレイヤーとの競争においてです。

例えば、OpenAIやAnthropicはアメリカに拠点を置いており、Baidu Ernieは中国に拠点を置いています。これらすべてがAI競争の強力なプレイヤーです(後者はあまりそうではありません)。したがって、競争においては、欧州企業はまだまだ遅れを取っていると言えます。

V. 高速な未来と現実の一撃

トレンドに従って、一部の楽観主義で考えると、AIは確実に将来のテクノロジーを形作るでしょう。AIは既にさまざまな形で多くの分野で使用されています。たとえば、タンパク質構造の解決にAIを使用したり、エンジニアリングのさまざまな部分でAIシミュレーションを使用したり、教育をAIで近代化したり、歯磨きにAIを使用したり、他の奇妙な用途にAIを使用したりすることがあります。AIはスマートフォンと同様に新しい常識になるでしょう。

このような多くの依存が一つの傘の下にあるため、安全性と倫理も早急に取り組むべき重要な要素です。AIによるライフスタイルが新たな常識になる可能性はあるでしょうか?おそらく、それは議論の余地があります。

大企業がこれらの問題に取り組み、共同の努力で役割を果たすことが重要です。そして、大手テック企業は、新たなAI時代に世界を導いている主要な責任を負っています。

抜け穴に対処し、それらを草案の段階で早期に変更することは、後で修正するための時間を無駄にするよりも良いです。

ただし、すべてのテックリーダーが傲慢であるわけではありませんし、AI倫理の概念は純粋に想像上のものではありません。もちろん、そうではありません。ほとんどの大手AI企業は独自の安全チャーターを持っています。ただし、現時点ではAI産業はほとんど規制されていない状態です。AIモデルには予測できないリスクがあります。規制の取り組みがいつも遅れてしまい、AIはこれまで以上に繁栄しました。しかし、遅くても遅いよりはましです。そして、幸いなことに、EUは措置を取るための最初の大きなステップを踏みました。

28か国の連合にとっては小さな一歩かもしれませんが、これは新しいAI時代におけるオンライン上の個人の未来にとって大きな飛躍を表しています。

技術と人工知能の最新の進展について興味がありますか?

それなら、私の無料の週刊ニュースレターを見逃すべきではありません。そこでは、テクノロジー、科学、AIに関連する洞察、ニュース、分析を共有しています。

クリエイティブブロック | アディティヤ・アニル | サブスタック

あなたに関係のあるAI、テクノロジー、科学についての週刊ニュースレター。クリエイティブブロック、アディティヤによる読むためにクリックしてください…

creativeblock.substack.com

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「ゲイリー・ヒュースティス、パワーハウスフォレンジクスのオーナー兼ディレクター- インタビューシリーズ」

ゲイリー・ヒュースティス氏は、パワーハウスフォレンジックスのオーナー兼ディレクターであり、ライセンスを持つ私立探偵、...

人工知能

ムーバブルインクのCEO兼共同創設者であるヴィヴェク・シャルマ氏についてのインタビュー・シリーズ

ビヴェクは2010年にムーバブルインクを共同設立し、急速な成長を遂げながら、600人以上の従業員を擁し、世界有数の革新的なブ...

人工知能

「コーネリスネットワークスのソフトウェアエンジニアリング担当副社長、ダグ・フラーラー氏 - インタビューシリーズ」

ソフトウェアエンジニアリングの副社長として、DougはCornelis Networksのソフトウェアスタック全体、Omni-Path Architecture...

人工知能

「アナコンダのCEO兼共同創業者、ピーターウォングによるインタビューシリーズ」

ピーター・ワンはAnacondaのCEO兼共同創設者ですAnaconda(以前はContinuum Analyticsとして知られる)を設立する前は、ピー...

AIニュース

Q&A:ブラジルの政治、アマゾンの人権、AIについてのGabriela Sá Pessoaの見解

ブラジルの社会正義のジャーナリストは、MIT国際研究センターのフェローです

人工知能

ギル・ジェロン、Orca SecurityのCEO&共同創設者-インタビューシリーズ

ギル・ゲロンは、オルカ・セキュリティのCEO兼共同設立者ですギルは20年以上にわたりサイバーセキュリティ製品をリードし、提...