Japanese AI規制- 仮定はありませんか?それとも何もしない?

「日本のAI規制- どうなる?規制案の未来予想」

日本はデジタル移行に大きな計画を立てていますが、それに備えていますか?

お楽しみいただけた場合は拍手ボタンを押してください(ヒント:押し続けると最大50回拍手できます!)

バイアスは、どのモデルに関しても規制上の考慮事項の一つです。

生成AIは、このアイデアを再び主流にしました。私の経験では、この話はAIを活用する製品によって使用される個人や、その製品によって影響を受ける個人に即して進むことが多いです。これは、「信頼性の要素」が最も重要とされるため、重要な影響です。

しかし、バイアスの課題は、ユーザーレベルでの応用にとどまりません。バイアスの核心は、モデルの訓練に使用されるデータの基盤から始まります。さらに、私たちが日常的にデータや知識を取り込む言語の核心にも及んでいます。これを見落とすことには実際のコストが伴います。

今週、私は2009年の大手銀行のキャンペーンを思い出しました。

銀行がプライベートバンクの再ブランド化を発表

金融タイムズや世界の主要なビジネス出版物からのニュース、分析、コメント

www.ft.com

本質的には、このキャンペーンは高純資産顧客を対象に「何も想定しない」というメッセージを発信しました。西洋では、このキャンペーンは理にかなっていました。「口座の扱いについて何も想定しない!」という意味でした。しかし、新興市場では基本的な翻訳を使用すると、「何もしない」という意味になってしまいました。

なぜこれを思い出したのか?同様の課題が、他のアプリケーションでは頻繁にスケールされた形で見られなかった生成AIモデルでも起こっています。

なぜ日本が独自のChatGPTを開発しようとしているのか

日本の研究者たちは、精度の高い、効果的な、日本製のAIチャットボットが科学の加速に役立つことを望んでいます…

interestingengineering.com

日本の研究者たちは、独自の大規模言語モデル(LLM)を開発する意向を発表しました。具体的には、日本のユーザー視点ではChatGPTが効率的でないと指摘され、英語のデータを主に訓練されているため「日本の文化や言語の微妙なニュアンスを把握することができない」と述べられました。

興味深い展開です。

研究者にとってはポジティブな進展ですが、日本のAIガバナンスに関する規制思想全体については疑問が持たれています。

私の過去の投稿では、AI規制への「ハードアプローチ」がほぼ独占的に扱われてきました。これには、AIモデルの公開登録、市場での使用前の明示的なリスク評価、AIモデルの使用ケース(特にセキュリティや個人を特定できる画像やデータ)の明示的な禁止が含まれます。

野心的なAI規制に対する権限付与プロセス:オックスフォードリサーチの3ステップソリューション

AI製品オーナーやプロジェクトマネージャー、データサイエンティストですか?オックスフォードリサーチは、あなたをキープレーヤーと認識しています…

pub.towardsai.net

一方、日本は主に「ソフト」または「アジャイル」な規制アプローチを推奨してきました。インターネットを駆使して調査すると、明確な法改正が2つ観察されます。それは特に生成AIに対するものです。

1) 著作権法の緩和:モデル開発者が後顧の念なくイノベーションできるようにするため。『ゲーム・オブ・スローンズ』のファンは、George RR Martin(他の人々と共に)がOpen AIに対して法的手続きを起こしていることを知っています。

2)「高圧ガス安全法」の改正により、AIやドローンを含む技術を使用して、ガスプラントの安全検査を長期間閉鎖することなく行うことが可能になった。

初めて読んだときは少々驚いた。しかし、日本は基本的にアナログに反対するアプローチで規制の枠組みを評価し、再構築する準備が整っている。以下の引用をご覧ください:

「アナログ規制とは、法律や規則で定められた人間の関与、人の目での確認、対面手続き、あるいは特定の現場での人間の常駐などが必要なルールのことです。このような規制は、社会のデジタル化を阻害するものとされています。」

デジタル化への道を開くため、政府は「アナログ」の規制の99%を廃止することを決定しました | The Asahi Shimbun: Breaking…

政府は10月27日に、人の関与を必要とするアナログの規制の約99%を廃止することを決定しました

www.asahi.com

このような広範なデジタル化の要請の中で、データ、モデル、技術の管理についての重要な検討が行われると思われます。特にAIに関しては、実際の行動に移すことに対するためらいが残っています。

日本の政策立案者がAIに関する考え方の核心にあるのは、「社会的原則」と「アジャイルガバナンス」のアイデアです。

社会的原則

1)人間を中心としたアプローチ

2)教育/リテラシー

3)プライバシー保護

4)安全保障

5)公正な競争

6)公平性、説明責任、透明性

7)イノベーション

こうした原則は、「AIの研究開発および社会実装に従事する開発者とオペレータが留意すべき」とされています。さらに、「AIの適切かつ積極的な社会実装を推進するためには、各利害関係者が留意すべき基本的な原則を確立することが重要です。」とも付け加えられています。

アジャイルガバナンス

上記の社会的原則に準拠するように、AIモデルの開発と運用を統治するアプローチ。以下の図には、さまざまな質問と考慮事項の具体例が示されています:

– 計画と設計フェーズ:状況

– 計画と設計フェーズ:全体の設計

– 開発フェーズ:データ

– 開発フェーズ:モデル/システム

– 運用と監視フェーズ

開発者に対するサンプル質問や課題の多くは、EUのAI法と重なっており、リスク管理の基礎の面での合意が見られます。

大きな違いは、日本の企業に託される信頼と時間の要素です。非常に業種特定のルールには外れるものの、企業が原則とガバナンスガイドを自主的に遵守するという前提があります。

この決定は、イノベーションが最大限の価値を生み出すことを望む一方で、実施範囲がよりよく理解されるまで「固定法」に拘束されることをためらっていると思われます。

前提なし? それとも 何もしない?

お読みいただきありがとうございます!もしこの記事がお役に立ちましたら、拍手をお願いいたします。今後は、法制化がリスク、モデル、データに与える影響についても掘り下げてみたいと思います。

もしビジネスへの影響や、もっと詳細をお知りになりたい場合は、お気軽にご連絡ください!

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI研究

スタンフォード大学の新しい人工知能研究は、説明が意思決定時のAIシステムへの過度の依存を軽減する方法を示しています

近年の人工知能(AI)のブームは、AIの能力によって仕事がより速く、より少ない労力で行われることによって、人間の生活がど...

機械学習

未来を点火する:TensorRT-LLMのリリースにより、AI推論のパフォーマンスが向上し、RTXを搭載したWindows 11 PCで新しいモデルのサポートが追加されました

Windows 11 PC上の人工知能は、ゲーマーやクリエイター、ストリーマー、オフィスワーカー、学生、そしてカジュアルなPCユーザ...

AIニュース

ChatGPTは自己を規制するための法律を作成する

コスタリカは、人工知能(AI)の規制において興味深い一歩を踏み出しました。法的な専門知識の源泉として予想外の存在であるC...

人工知能

「仕事を守るために自動化を避ける」

自動化は怖いです私のキャリアの最初のころ、私は何かを自動化しましたが、私が去ればすぐに廃止されました人々は仕事を失う...

機械学習

T5 テキストからテキストへのトランスフォーマー(パート2)

BERT [5] の提案により、自然言語処理(NLP)のための転移学習手法の普及がもたらされましたインターネット上での未ラベル化...

AI研究

天候の変化:AI、高速計算がより速く、効率的な予測を提供することを約束します

2050年までに、極端な天候や気候の頻度と厳しさが増すことにより、ミュンヘン再保険会社によれば、年間100万人の命が失われ、...