Japanese AI規制- 仮定はありませんか?それとも何もしない?

「日本のAI規制- どうなる?規制案の未来予想」

日本はデジタル移行に大きな計画を立てていますが、それに備えていますか?

お楽しみいただけた場合は拍手ボタンを押してください(ヒント:押し続けると最大50回拍手できます!)

バイアスは、どのモデルに関しても規制上の考慮事項の一つです。

生成AIは、このアイデアを再び主流にしました。私の経験では、この話はAIを活用する製品によって使用される個人や、その製品によって影響を受ける個人に即して進むことが多いです。これは、「信頼性の要素」が最も重要とされるため、重要な影響です。

しかし、バイアスの課題は、ユーザーレベルでの応用にとどまりません。バイアスの核心は、モデルの訓練に使用されるデータの基盤から始まります。さらに、私たちが日常的にデータや知識を取り込む言語の核心にも及んでいます。これを見落とすことには実際のコストが伴います。

今週、私は2009年の大手銀行のキャンペーンを思い出しました。

銀行がプライベートバンクの再ブランド化を発表

金融タイムズや世界の主要なビジネス出版物からのニュース、分析、コメント

www.ft.com

本質的には、このキャンペーンは高純資産顧客を対象に「何も想定しない」というメッセージを発信しました。西洋では、このキャンペーンは理にかなっていました。「口座の扱いについて何も想定しない!」という意味でした。しかし、新興市場では基本的な翻訳を使用すると、「何もしない」という意味になってしまいました。

なぜこれを思い出したのか?同様の課題が、他のアプリケーションでは頻繁にスケールされた形で見られなかった生成AIモデルでも起こっています。

なぜ日本が独自のChatGPTを開発しようとしているのか

日本の研究者たちは、精度の高い、効果的な、日本製のAIチャットボットが科学の加速に役立つことを望んでいます…

interestingengineering.com

日本の研究者たちは、独自の大規模言語モデル(LLM)を開発する意向を発表しました。具体的には、日本のユーザー視点ではChatGPTが効率的でないと指摘され、英語のデータを主に訓練されているため「日本の文化や言語の微妙なニュアンスを把握することができない」と述べられました。

興味深い展開です。

研究者にとってはポジティブな進展ですが、日本のAIガバナンスに関する規制思想全体については疑問が持たれています。

私の過去の投稿では、AI規制への「ハードアプローチ」がほぼ独占的に扱われてきました。これには、AIモデルの公開登録、市場での使用前の明示的なリスク評価、AIモデルの使用ケース(特にセキュリティや個人を特定できる画像やデータ)の明示的な禁止が含まれます。

野心的なAI規制に対する権限付与プロセス:オックスフォードリサーチの3ステップソリューション

AI製品オーナーやプロジェクトマネージャー、データサイエンティストですか?オックスフォードリサーチは、あなたをキープレーヤーと認識しています…

pub.towardsai.net

一方、日本は主に「ソフト」または「アジャイル」な規制アプローチを推奨してきました。インターネットを駆使して調査すると、明確な法改正が2つ観察されます。それは特に生成AIに対するものです。

1) 著作権法の緩和:モデル開発者が後顧の念なくイノベーションできるようにするため。『ゲーム・オブ・スローンズ』のファンは、George RR Martin(他の人々と共に)がOpen AIに対して法的手続きを起こしていることを知っています。

2)「高圧ガス安全法」の改正により、AIやドローンを含む技術を使用して、ガスプラントの安全検査を長期間閉鎖することなく行うことが可能になった。

初めて読んだときは少々驚いた。しかし、日本は基本的にアナログに反対するアプローチで規制の枠組みを評価し、再構築する準備が整っている。以下の引用をご覧ください:

「アナログ規制とは、法律や規則で定められた人間の関与、人の目での確認、対面手続き、あるいは特定の現場での人間の常駐などが必要なルールのことです。このような規制は、社会のデジタル化を阻害するものとされています。」

デジタル化への道を開くため、政府は「アナログ」の規制の99%を廃止することを決定しました | The Asahi Shimbun: Breaking…

政府は10月27日に、人の関与を必要とするアナログの規制の約99%を廃止することを決定しました

www.asahi.com

このような広範なデジタル化の要請の中で、データ、モデル、技術の管理についての重要な検討が行われると思われます。特にAIに関しては、実際の行動に移すことに対するためらいが残っています。

日本の政策立案者がAIに関する考え方の核心にあるのは、「社会的原則」と「アジャイルガバナンス」のアイデアです。

社会的原則

1)人間を中心としたアプローチ

2)教育/リテラシー

3)プライバシー保護

4)安全保障

5)公正な競争

6)公平性、説明責任、透明性

7)イノベーション

こうした原則は、「AIの研究開発および社会実装に従事する開発者とオペレータが留意すべき」とされています。さらに、「AIの適切かつ積極的な社会実装を推進するためには、各利害関係者が留意すべき基本的な原則を確立することが重要です。」とも付け加えられています。

アジャイルガバナンス

上記の社会的原則に準拠するように、AIモデルの開発と運用を統治するアプローチ。以下の図には、さまざまな質問と考慮事項の具体例が示されています:

– 計画と設計フェーズ:状況

– 計画と設計フェーズ:全体の設計

– 開発フェーズ:データ

– 開発フェーズ:モデル/システム

– 運用と監視フェーズ

開発者に対するサンプル質問や課題の多くは、EUのAI法と重なっており、リスク管理の基礎の面での合意が見られます。

大きな違いは、日本の企業に託される信頼と時間の要素です。非常に業種特定のルールには外れるものの、企業が原則とガバナンスガイドを自主的に遵守するという前提があります。

この決定は、イノベーションが最大限の価値を生み出すことを望む一方で、実施範囲がよりよく理解されるまで「固定法」に拘束されることをためらっていると思われます。

前提なし? それとも 何もしない?

お読みいただきありがとうございます!もしこの記事がお役に立ちましたら、拍手をお願いいたします。今後は、法制化がリスク、モデル、データに与える影響についても掘り下げてみたいと思います。

もしビジネスへの影響や、もっと詳細をお知りになりたい場合は、お気軽にご連絡ください!

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AIニュース

『2つの方が1つより優れている:AIと自動化を組み合わせて強力な品質エンジニアリングプロセスを作成する方法』

この記事では、品質エンジニアリングプロセスを向上させるためにAIと自動化技術を組み込む方法について学びます

人工知能

「責任あるAIの推進のための新しいパートナーシップ」

「本日、Google、Microsoft、OpenAI、Anthropicが共同でフロンティアモデルフォーラムを設立することを発表しました」

機械学習

「LangChain、Activeloop、そしてGPT-4を使用して、Redditのソースコードをリバースエンジニアリングするための分かりやすいガイド」

この記事では、Redditのバージョン1のソースコードをリバースエンジニアリングして、その動作をより理解します

データサイエンス

DLノート:勾配降下法

人工ニューラルネットワーク(ANN)は、万能関数近似器です十分なデータが与えられ、適切なアーキテクチャがあり、十分な訓練...

データサイエンス

『nnU-Netの究極ガイド』

「画像セグメンテーションの主要なツールであるnnU-Netについて、詳細なガイドに深く入り込んでください最先端の結果を得るた...

人工知能

150以上のミッドジャーニーロゴのプロンプト

「Midjourneyのような生成AIツールを使って、ビジネスのために美しいロゴを作成することができます」