生成AIにおける5つの倫理的考慮事項

生成AIの倫理的考慮事項5つ

現在のAIブームの前から、倫理的な懸念と考慮事項は常にデータサイエンティストの心にあった。しかし、公衆のイマジネーションにおける生成AIの成長とともに、これらの懸念はAIに関連するさまざまな問題が発生するにつれて爆発的に拡大しています。AIの成長とともに、未解決の質問が数多く存在します。それを考慮に入れて、以下にAIが世界中でスケールされるにつれて考慮すべきいくつかの倫理的な問いを紹介します。

データソース – モデルは何に訓練されたのか?

この懸念を見る最も簡単な場所の1つは、芸術界です。2022年の夏、芸術界はAIによって生成されたアートの連続的な洪水に見舞われました。最初は、これが芸術家を追いやる可能性があると心配する人も多かったが、時間が経つにつれて、これらのモデルがどのように訓練されたかが芸術界を驚かせました。なぜなら、多くの芸術家や彼らの支持者が、アーティストの許可または同意なしに既存の人間のアートを訓練データとして使用したAIに反対し始めたからです。

実際、昨年10月、Stable Diffusionが実際の芸術家の作品を使用して生成AIプログラムを訓練していたことが明らかになりました。これによって盗作と見なされる可能性が問われることが多くなりました。多くの怒りは、芸術家への通知や許可がなかったことから生じました。多くの人々は議論から取り残され、彼らが長年かけてマスターした作品に似た作品を生成するためにテキスト情報のみを必要とするプログラムによって、彼ら自身の独自のスタイルが訓練に使用されたことに不満を感じました。

これは芸術界内だけでなく、プライバシーやデータガバナンスなどの問題も、データの許可なくますます多くのモデルがますます多くのデータを訓練するにつれて問われなければならないものです。データセットが適切に処理されていない場合のバイアスの問題には触れていません。マイクロソフトがリリースした有名なチャットボットTayを思い出すだけで十分です。AIはオンラインでの数時間の対話だけで、非常に攻撃的で人種差別的な存在になり、テックジャイアントは迅速にプラグを引く必要がありました。

出力

既にChatGPTは、特定の個人が重大な犯罪と関連付けられていると主張する生成物によって問題に直面しています。一例として、その生成物がOpenAIに対して訴訟を起こした個人がいます。そして、十分に理解していない人たちにとっては、非常にシンプルです。あなたの情報を含む任意のGoogle検索の結果が誤った情報を表示する前に、オンラインでの単純な非難が十分です。これは生活と評判の両方を台無しにする可能性があります。そのため、AIの幻覚などの問題が解決されるまで、最近数か月間にAIの開発を停止するよう求める声がありました。

別の事例では、弁護士がChatGPTを使用して、彼が取り組んでいる訴訟のための事例ファイルを引用して構築しました。唯一の問題は、ChatGPTが起こったことのない事件を引用してでっち上げたことです。想像できるように、このことは誰かのキャリアを台無しにする可能性があるため、判事はあまり喜んでいませんでした。最後に、AIが設計とは異なる方法で使用される出力もあります。先月、テキサスの教授が学生たちにAIを使ってエッセイを評価し、それがAIによって書かれたものかどうかを判断するように頼んだとき、この問題が起こりました。

疑問に思っているかもしれませんが、ChatGPTはそれができません。これが生成AIにとって出力が重要な問題である理由です。多くの人々がこの技術に集まり、それが生成する情報に大いに依存しているためです。

予期しない結果

先述の問題による悪い出力からさらなる結果が生じます。他の世界のリーダーが別の世界のエイリアンと接触したと主張するニュースカンファレンスを想像してください。もしくは、より危険なこととして、彼らの国が隣国または隣国のグループと戦争をすると宣言する発表です。Deepfake技術が進化するにつれて、何が本物で何が本物でないかを判断することがますます困難になっていますが、世界のリーダーに関わる必要はありません。すでにディープフェイクの声のチャット詐欺の報告があります。

AIを利用した犯罪者は、ディープフェイク技術を使用してターゲットの声を複製し、その後、その家族に接触してお金や他の資源を巻き上げるために行動します。これはSFではありません、すでに現実に存在します。

知的財産

企業が望まないものの1つは、知的財産が誤った扱いを受けることです。これは非常に深刻な問題となり、Amazonの弁護士でさえ、ソフトウェアエンジニアに対して、ChatGPTを使用して財産権を損なう可能性のあるコーディングに関する質問に答えないように注意を促しました。なぜなら、チャットボットへの各入力はそれをますます教え込むからです。したがって、OpenAIは、潜在的な競争相手の労働者が彼らのAIを使用して仕事に関連する質問に答えることで、競争上の優位性を獲得する可能性があります。

データプライバシーの侵害

ジェネラティブAIに非常に期待している業界の一つは医療です。この技術は、管理コストを削減し、情報のボトルネックを解消してケアを改善し、医師に医療履歴に対するより深い洞察を提供するのに役立ちます。ジェネラティブAIは、新しい薬や有望な機械の開発の最前線にもあります。

しかし、注意が必要です。医療分野は、医療記録の保護に関して、アメリカ国内の州および連邦に非常に強力な法律が存在します。そのため、AIを導入する際には、データガバナンスとエンタープライズプラットフォームが重要です。そうでなければ、数千万人の個人の医療記録が公開される可能性があります。しかし、これは一つの業界にすぎません。ほとんどのLLM(Language Model)は、最近までウェブスクレイピングを使用してモデルのトレーニングを行っていました。

したがって、プライバシーに関する重大な懸念があるモデルのトレーニングに使用される情報が非常に多いため、責任あるAIの要請が急速に世界的に広がっているのです。

結論

ジェネラティブAIはデータサイエンスの新たなスーパーパワーとなりましたが、多くの人々が自身のキャリアを向上させ、将来に備えるために集まっています。しかし、データサイエンスコミュニティがこの技術が引き続きグローバルなコミュニティに利益をもたらすためには、まだまだ倫理的な懸念が解決されなければなりません。

ODSCでは、7月20日に無料のジェネラティブAIサミットを開催しています。今すぐパスを入手して、新しい洞察と向上したジェネラティブAIのスキルを得てください。さあ、何を待っているのでしょうか。

今すぐ仮想ジェネラティブAIサミットのパスを入手してください!

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

データサイエンス

「Seerの最高データオフィサーであるDr. Serafim Batzoglouによるインタビューシリーズ」

セラフィム・バツォグルはSeerのチーフデータオフィサーですSeerに加わる前は、セラフィムはInsitroのチーフデータオフィサー...

人工知能

Diginiのスマートセンスの社長、ガイ・イエヒアブによるインタビューシリーズ

ガイ・イハイアヴ氏は、ビジネスの成功に最も重要な資産を保護するためにインターネット・オブ・シングス(IoT)の力を活用す...

人工知能

「シフトのCEOであるクリス・ナーゲル – インタビューシリーズ」

クリスはSiftの最高経営責任者です彼は、Ping Identityを含むベンチャー支援および公開SaaS企業のシニアリーダーシップポジシ...

人工知能

「スノーケルAIのCEO兼共同創設者、アレックス・ラットナー - インタビューシリーズ」

アレックス・ラトナーは、スタンフォードAIラボを母体とする会社、Snorkel AIのCEO兼共同創設者ですSnorkel AIは、手作業のAI...

機械学習

「機械学習 vs AI vs ディープラーニング vs ニューラルネットワーク:違いは何ですか?」

テクノロジーの急速な進化は、ビジネスが効率化のために洗練されたアルゴリズムにますます頼ることで、私たちの日常生活を形...

人工知能

「サティスファイラボのCEO兼共同創設者、ドニー・ホワイト- インタビューシリーズ」

2016年に設立されたSatisfi Labsは、会話型AI企業のリーディングカンパニーです早期の成功は、ニューヨーク・メッツ、メイシ...