「人間の偏見がAIによるソリューションを妨げる方法」
「AIによるソリューションを妨げるのは人間の偏見のあり方」
去年9月、イーロン・マスク、マーク・ザッカーバーグ、そしてOpenAIのCEOであるサム・アルトマンなどの世界のリーダーがワシントンD.C.で集まり、公共および私的セクターがこの技術を利用してより良い社会を築くために協力できるか、そしてAIに関連する規制について対話する目的で議論されました。
これらの議論は、しばしば同じ問題につながります。AIをより倫理的にすることができるかどうかに焦点が当てられており、AIを倫理的な存在として評価しているかのようです。しかし、倫理的なAIとは何を意味するのでしょうか?GoogleのAI研究所であるDeepMindは、最近、AIのリスクを評価するための3段階の構造を提案する研究を発表しました。このフレームワークには能力、人間の相互作用、およびシステムへの影響が含まれ、AIシステムが安全であるかどうかを判断するためには文脈が重要であることが結論づけられました。
その中で非難を浴びているシステムの一つがChatGPTです。ChatGPTは15カ国以上で禁止されており、一部の禁止は取り消されています。ChatGPTは1億人以上のユーザーを持つ最も成功したLLMsの1つであり、しばしばバイアスのあると非難されています。DeepMindの研究を考慮に入れると、文脈を取り入れることが重要です。この文脈におけるバイアスとは、ChatGPTなどのモデルが生成するテキストに不公平で偏見のある視点が存在することを意味します。これはさまざまな方法で起こる可能性があります – 人種的なバイアス、ジェンダーのバイアス、政治的なバイアスなど。
これらのバイアスは、AI自体にとって最終的に有害であり、この技術の完全な潜在能力を活用する可能性を阻害するものです。スタンフォード大学の最近の研究では、ChatGPTなどのLLMsが信頼性のある、バイアスのない、正確な応答を提供する能力が衰えていることが確認されました。これは結果としてAIの有効な利用を妨げる障害となっています。
- 「Arxiv検索のマスタリング:Haystackを使用したQAチャットボットの構築のDIYガイド」をマスターする
- 「KaggleのAIレポート2023で未来にダイブしよう – ホットなトレンドをチェックしよう」
- AIの革新的なイノベーションが開発者を強化する
この問題の核心にあるのは、人間のバイアスがAIにどのように翻訳されているかという問題です。なぜなら、それはモデルの開発に使用されるデータに深く刷り込まれているからです。しかし、これは見かけほど簡単な問題ではありません。
バイアスの原因
このバイアスの第一の原因を特定することは容易です。モデルが学習するデータは、しばしば最初からそのデータを形作ったステレオタイプや先入観で満ちているため、AIは無意識のうちにそれらのバイアスを助長することになります。
しかしながら、第二の原因ははるかに複雑で直感に反するものであり、AIをより倫理的で安全なものにしようとする取り組みに負担をかけています。もちろん、AIが無意識に有害な場合もあります。たとえば、誰かがAIに「爆弾を作る方法は?」と尋ね、モデルが答えを出す場合、これは害を引き起こしています。反対に、AIが制約されると、学習する機会が制限されます。人間による制約によって、AIはより広範なデータから学ぶ能力が阻害され、非有害な文脈で有用な情報を提供することができなくなります。
また、これらの制約の多くも偏見が存在することを念頭に置いておく必要があります。したがって、「爆弾を作る方法は?」という質問が潜在的に致命的な結果につながる可能性はあるものの、他の敏感とされるクエリははるかに主観的です。そのため、それらの分野でAIの開発を制限すると、進歩が制限され、LLMモデルに関する規制を行う者が受け入れられる目的のためにのみAIを利用することを促していることになります。
結果の予測の不能性
私たちはLLMへの制約導入の結果を完全に理解していません。したがって、私たちは実際にはアルゴリズムにより多くの損害を与えているかもしれません。GPTのようなモデルに関与するパラメータの非常に高い数を考慮すると、現在のツールではその影響を予測することは不可能であり、私の観点からはニューラルネットワークを訓練するのにかかる時間よりもその影響を理解するためにもっと時間がかかるでしょう。
したがって、これらの制約を設けることで、意図せずにモデルに予期せぬ振る舞いやバイアスが生じる可能性があります。これはAIモデルが多パラメータの複雑なシステムであるためでもあります。つまり、例えば制約を導入することで1つのパラメータを変更すると、予測できない方法でモデル全体にリップル効果が生じるということです。
AIの「倫理」を評価する難しさ
AIが倫理的かどうかを評価することは実際的には不可能です。なぜなら、AIは特定の意図を持って行動している人間ではないからです。AIは自然から派生した大規模な言語モデルであり、それ自体には倫理があるないという違いはありません。DeepMindの研究が明らかにしたように、重要なのはその使用される文脈であり、これはAIの背後にある人間の倫理を測定するものであり、AI自体の倫理ではありません。AIが道徳的なコンパスを持っているかのように判断できるというのは幻想です。
AIが倫理的な決定を下すのを支援するモデルが提唱されていますが、その数学的な倫理モデルがどのように機能するのかについては全くわかっていません。したがって、それを理解していないのにどのように構築することができるでしょうか?倫理には非常に多くの主観性が含まれており、それを数量化することは非常に複雑な課題です。
この問題を解決するにはどうすればいいか?
前述の点に基づくと、AIが倫理的かどうかについて議論することは実際にはできません。なぜなら、非倫理的とされるすべての仮定は、データに含まれる人間のバイアスの変形であり、人間が自分自身の目的のために使用するツールでもあるからです。また、制約を設けることでAIアルゴリズムに与える可能性のある影響や潜在的な害についてはまだ科学的な未知数が多く存在します。
したがって、AIの開発を制限することは現実的な解決策ではありません。私が言及したいくつかの研究が示したように、これらの制約はLLMの劣化の一因です。
以上を踏まえると、解決策は透明性にあると私は考えています。AIの開発において広く行われていたオープンソースモデルを復活させることで、倫理上の懸念を軽減するために共同でより良いLLMを構築することができると信じています。そうでなければ、閉ざされた環境で行われていることを適切に監査することは非常に困難です。
この点で優れた取り組みの1つが、最近Stanford HAI(人間中心の人工知能)によって発表されたベースラインモデル透明性指標です。これは、最も広く使用されている10個のAIモデルの開発者が自分たちの仕事やシステムの使用方法に関する十分な情報を公開しているかどうかを評価しています。これにはパートナーシップやサードパーティの開発者の開示、および個人データの利用方法も含まれます。評価されたモデルのいずれも高いスコアを獲得していないということは、実際に問題があることを示しています。
結局のところ、AIは単なる大規模な言語モデルに過ぎません。そして、それがオープンで実験が可能であること、特定の方向に導かれるのではなく、新たな画期的な発見をさせることができるのは、あらゆる科学分野で私たちに利益をもたらすでしょう。しかし、透明性がなければ、人類の利益のために本当に機能するモデルを設計することは非常に困難であり、これらのモデルが適切に制御されない場合に引き起こす損害の範囲を知ることもできません。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles