「生成型人工知能の新たな倫理的意味合い」
「生成型人工知能における新たな倫理的問題」
進化したAIの領域は急速に進展していますが、それに伴うリスクも同様に急速に増加しています。
専門家たちにとってはリスクを予見することが困難になっています。
多くのリーダーたちは今後数ヶ月間にわたりGenAIアプリケーションを優先していますが、その一方でデータセキュリティの懸念やバイアスの問題など、リスクに懐疑的な姿勢も持っています。
ビル&メリンダ・ゲイツ財団のCEOであるマーク・サズマンは、「この技術は科学的進歩を加速し、学習の成果を向上させる可能性はあるが、リスクもないわけではない」と述べています。
データから始めましょう
有名なGenerative AIモデルの作成者は、「必要に応じて名前、メールアドレス、支払い情報などの個人情報を収集する」と述べています。
最近の事例では、ガイドラインの枠組みがないまま進められると、さまざまな問題が発生することが明らかになっています。
- イタリアは、個人データの違法な収集に関して懸念を表明し、「プラットフォームの運用の基盤となるアルゴリズムの’トレーニング’のために個人データを大量に収集・保管することを正当化する法的根拠はない」と引用しています。
- 日本の個人情報保護委員会は、機械学習モデルをトレーニングするための最小限のデータ収集について警告を発しました。
- 業界のリーダーたちはHBRでデータセキュリティの懸念やバイアスの問題に言及しています
Generative AIモデルはインターネット上のほぼすべてのデータからトレーニングされているため、私たちはそれらのニューラルネットワーク層に隠れた一部です。これはデータプライバシーの規制に準拠し、ユーザーのデータを同意なしにモデルをトレーニングしない必要性を強調しています。
最近、インターネットから自撮り写真をスクレイピングして顔認識ツールを構築した会社がプライバシー侵害で罰金を課された事例もあります。
しかし、データセキュリティ、プライバシー、バイアスはGenerative AI以前から存在していました。では、Generative AIアプリケーションの導入によって何が変わったのでしょうか?
さて、既存のリスクのいくつかは、モデルのトレーニングと展開の規模の大きさによってよりリスクが高まったと言えます。それでは、その仕組みを理解しましょう。
スケール- 両刃の剣
幻覚、プロンプトの注入、透明性の欠如
こうした巨大なモデルの内部構造を理解し、その応答を信頼することはますます重要になっています。Microsoftの言葉によれば、これらの新興リスクは、LLMが「事実の正確性に従うのではなく、意味が通じ、文脈に適したテキストを生成するよう設計されている」ということです。
結果として、モデルは誤解を招くような不正確なまたは関連性のない情報を生成する可能性があります。
さらに、プロンプトは言語モデルとのやり取り方法ですが、悪意のある者はプロンプトを注入することで有害なコンテンツを生成することができます。
AIが誤っている場合の責任
LLMの使用は、これらのモデルが生成する出力とバイアスのある出力に対する責任と倫理的な問題を提起します。
ハイリスクなアプリケーション、例えば医療分野では、誤った医療アドバイスが患者の健康と生命に与える影響を考えると、リスクはさらに増大します。
結論は、組織は倫理的で透明性があり、責任ある方法でジェネレーティブAIの開発と使用を行う必要があります。
ジェネレーティブAIを正しく行う責任は誰にあるかについて詳しく知りたい場合は、この記事を読むことを考えてみてください。この記事では、私たち全員がコミュニティとして協力して取り組むことができる方法について説明されています。
著作権侵害
これらの大規模なモデルは、世界中の素材の上に構築されているため、音楽やビデオ、書籍などの創作物が使用されている可能性が非常に高いです。
著作権のあるデータが元のクリエイターからの許可、クレジット、または補償を得ずにAIモデルのトレーニングに使用されると、著作権侵害につながり、開発者を深刻な法的問題に巻き込む可能性があります。
ディープフェイク、誤情報、および操作
大規模な混乱を引き起こす可能性が高いものの一つがディープフェイクです。ディープフェイクの能力が私たちをどのように困らせる可能性があるか疑問に思っていますか?
ディープフェイクはテキスト、画像、または動画で合成されたデジタルクリエーションで、深層生成手法を通じて顔の外見をデジタル的に操作することができます。
その結果、いじめ、誤情報、いたずら電話、復讐、または詐欺など、繁栄する世界の定義に合わないものが生じます。
この記事は、AIが魔法だけではなく、重要な取り組みにのみ有効なものではなく、悪意を持った行為者も含まれていることを皆さんに認識させることを意図しています。
それが私たちが警戒を強める必要がある理由です。
安全対策
最新のニュースとして、将来の選挙から政治的人物の辞退を強調した偽の動画が報道されました。
動機は何だろうと考えるかもしれません。まあ、そのような誤情報は瞬時に広まり、選挙プロセスの方向に甚大な影響を与える可能性があります。
では、そのような偽の情報に騙されないためにはどうすればいいのでしょうか?
様々な防御策がありますので、基本的なものから始めましょう:
- 周りのすべてについて懐疑的で疑い深くなる
- デフォルトモードを「それが真実でないかもしれない」とし、すべてを鵜呑みにするのではなく、周りのすべてに疑問を持つようにする。つまり、周りのすべてについて疑問を抱くことです。
- 潜在的に疑わしいデジタルコンテンツを複数のソースから確認する
開発を一時停止するのは解決策か?
Yoshua Bengio、Stuart Russell、Elon Musk、Steve Wozniak、Yuval Noah Harariなどの著名なAI研究者や業界の専門家も、そのようなAIシステムの開発を一時停止することを求める懸念を表明しています。
ジェネレーティブAIの能力に匹敵する高度なAIを構築する競争が急速に制御を失いかねないという大きな恐れがあります。
ある程度の進展があります
Microsoftは最近、そのAI製品の購入者を著作権侵害の影響から保護すると発表しました。ただし、ガードレールとコンテンツフィルターに従う条件が付きます。これは重要な安心材料であり、製品の使用に関連する責任を負うという正しい意図を示しています。これは倫理的なフレームワークの核心原則の一つです。
これにより、作者は自分の権利を保持し、創作物に対して公正な補償を受けることが保証されます。
これは正しい方向への大きな進歩です!重要なのは、作者の懸念がどれだけ解消されるかです。
次は何ですか?
これまで、技術に関連する主な倫理的な問題について議論してきました。しかし、この技術の利用による最大のリスクは、仕事の置き換えの可能性です。
AIが私たちの多くの仕事を置き換えるという恐怖があります。最近、マッキンゼーが将来の労働についての報告書を共有しました。
このトピックは、仕事の考え方に構造的な変化を必要とし、別の記事で詳しく議論する価値があります。次の記事では、GenAI時代に生き残り、繁栄するために役立つスキルと仕事の未来について議論しますので、お楽しみに!
[Vidhi Chugh](https://vidhi-chugh.medium.com/)は、製品、科学、エンジニアリングの交点で働くAI戦略家およびデジタルトランスフォーメーションリーダーで、スケーラブルな機械学習システムを構築しています。彼女は受賞歴のあるイノベーションリーダー、著者、国際的なスピーカーでもあります。彼女は機械学習を民主化し、誰もがこの変革の一部になるための専門用語を解読することを使命としています。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles