「AIバイアス&文化的なステレオタイプ:影響、制約、そして緩和」
『AI バイアスと文化的なステレオタイプ:影響、制約、そして緩和』
人工知能(AI)は、特に生成型AIにおいて、人間の認知と知性を理解し模倣する能力を超え続けています。しかし、多くの場合、AIシステムの結果や予測には文化的、人種的なAIのバイアスなど、さまざまなタイプのバイアスが反映されることがあります。
Buzzfeedの「バービーズ・オブ・ザ・ワールド」ブログ(現在削除されました)は、これらの文化的なバイアスや誤りを明確に示しています。これらの「バービー」は、MidjourneyというリーディングのAI画像生成器を使用して、世界中のバービーがどのような風貌をしているかを探求したものです。後ほど詳しく話しましょう。
しかし、これがAIが「人種差別的」または不正確な結果を生み出すのは初めてではありません。例えば、2022年には、アップルが人種差別的な行動を起こすとして、Apple Watchの血中酸素センサーをめぐって訴訟を起こされました。別の報告されたケースでは、TwitterのユーザーたちがTwitterの自動画像トリミングAIが白人の顔を黒人よりも優先し、女性を男性よりも優先することを発見しました。これらは重要な課題であり、それらに対処することは非常に困難です。
この記事では、AIのバイアスとは何か、それが社会に与える影響、そして文化的な固定観念などの課題に対処するための実践者がどのようにそれを軽減できるかを簡単に説明します。
AIのバイアスとは何ですか?
AIのバイアスは、AIモデルが特定の人口集団に対して差別的な結果を出力するときに発生します。AIシステムにはさまざまな種類のバイアスが入り込み、誤った結果を生み出すことがあります。いくつかのAIバイアスの例としては、次のものがあります:
- 固定観念のバイアス:固定観念のバイアスとは、AIモデルの結果が特定の人口集団に関する固定観念や知見から構成される現象を指します。
- 人種バイアス:人種バイアスは、AIモデルの結果が個別の人またはグループに対して、その民族や人種に基づいて差別的かつ不公平なものになる場合に起こります。
- 文化的なバイアス:文化的なバイアスは、AIモデルの結果がある文化を他の文化に優先する傾向がある場合に発生します。
バイアス以外にも、AIシステムの結果を妨げる他の問題もあります:
- 不正確さ:不正確さは、AIモデルによって生み出される結果が、一貫性のないトレーニングデータに起因して正しくない場合に発生します。
- 幻覚:幻覚は、AIモデルが事実に基づかないフィクションの結果を生成する場合に発生します。
AIのバイアスが社会に与える影響
AIのバイアスが社会に与える影響は深刻です。バイアスのかかったAIシステムは、既存の偏見を増幅させる不正確な結果を生み出すことがあります。これらの結果は、差別や権利侵害を増加させ、採用プロセスに影響を与え、AI技術への信頼を低下させる可能性があります。
また、バイアスのかかったAIの結果は、しばしば誤った予測をもたらし、無実の個人に深刻な影響を与えることがあります。例えば、2020年8月、シカゴ警察の予測ポリシングアルゴリズムにより、ロバート・マクダニエルは「関心のある人物」として犯罪行為の標的となりました。
同様に、バイアスのかかった医療AIシステムは、患者の結果に深刻な影響を与える可能性があります。2019年には、ある有名な米国の医療アルゴリズムが人種的にバイアスがかかっており、黒人患者の重症リスクを軽減するケアが不足していることがScienceによって発見されました。
世界のバービー人形
2023年7月、Buzzfeedがブログを公開しました。このブログは、世界中の194体のAI生成のバービー人形が含まれていました。この投稿はTwitterでバイラルになりました。Buzzfeedは免責声明を書いていましたが、それでもユーザーたちが人種的または文化的な誤りを指摘するのを止めることはありませんでした。たとえば、生成されたドイツのバービーの画像では、ナチスのSS将軍の制服を着ていました。
同様に、南スーダンのバービーのAI生成画像では、彼女が銃を携帯している姿が示され、AIのアルゴリズムに根ざした深刻な偏見が反映されています。
これに加えて、他のいくつかの画像では、カタールのバービーがアラブ人の伝統的な男性用ヘッドドレスであるグトラを着用しているなど、文化的な誤りが見られました。
このブログ投稿は、文化的なステレオタイプと偏見に対する大きな反発を受けました。ロンドン国際学校(LIS)は、これを厳格な基準を設けてAIの監督機関を設立することで抑制する必要がある再現的な被害と位置付けました。
AIモデルの制限
AIは多くの産業を革新する可能性を持っています。しかし、上記のようなシナリオが増えれば、全体的なAIの導入が低下し、機会を逃すことにつながるかもしれません。このようなケースは、次のようなAIシステムの重要な制約によって通常発生します:
- 創造性の欠如:AIは与えられたトレーニングデータに基づいてのみ意思決定を行うため、クリエイティブな問題解決を妨げる創造性に欠けています。
- 文脈理解の欠如:AIシステムは、地域の文脈の微妙なニュアンスや言語表現を理解するのが難しく、結果のエラーを引き起こすことがよくあります。
- トレーニングのバイアス:AIは、あらゆる種類の差別的なサンプルを含む過去のデータに依存しています。トレーニング中に、モデルは簡単に差別的なパターンを学習して不公平でバイアスのある結果を出力することがあります。
AIモデルのバイアスを軽減する方法
専門家の< a href=”/?s=推定”>推定によると、2026年までにオンラインコンテンツの90%が合成的に生成される可能性があります。したがって、ジェネレーティブAI技術に存在する問題を迅速に最小限に抑えることが重要です。
AIモデルのバイアスを軽減するためには、いくつかの主要な戦略を実施することができます。以下はその一部です:
- データの品質を確保:完全で正確かつクリーンなデータをAIモデルに取り込むことで、バイアスを減少させ、より正確な結果を生み出すことができます。
- 多様なデータセット:AIシステムに多様なデータセットを導入することで、時間の経過と共にAIシステムが包括的になるのに役立ちます。
- フィードバックループ:定期的なフィードバックと学習ループにより、AIモデルは徐々に結果を改善することができます。
- 規制の強化:グローバルなAI規制は、AIシステムの品質を国境を超えて維持するために重要です。したがって、国際機関はAIの標準化を確保するために協力する必要があります。
- 責任あるAIの採用拡大:責任あるAI戦略は、AIのバイアスを軽減し、公平で正確なAIシステムを育成し、改善を追求する中で多様なユーザーベースに役立ちます。
多様なデータセット、倫理的責任、オープンなコミュニケーションを導入することで、AIが世界的なポジティブな変化の源となることを確保することができます。
バイアスと人工知能の役割についてもっと学びたい場合は、次のブログを読んでください。
- 公正なAIアルゴリズムを活用した先進技術の導入方法
- AIがニュースの誤報とバイアスに立ち向かう
- 金融犯罪におけるAIベースのシステムのバイアスと公正さ
- ニュース記事のためのAI駆動のバイアスチェッカー、Pythonで利用可能
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles