機械学習における公平性(パート1)

美容とファッションのエキスパートが教える、魅力とスタイルへの道(パート1)

写真提供:John Schnobrich(Unsplash)

目次

  1. 機械学習における公正さ
  2. 問題の証明
  3. 基本的な概念:差別、バイアス、公平性

1. 機械学習における公正さ

教育、雇用、広告、警察など、機械学習のアルゴリズムは日常生活に大きな影響を与えています。機械学習(ML)のアルゴリズムは客観的に見えるかもしれませんが、バイアスの傾向はMLの本質に組み込まれています。多種多様な敏感な分野でのMLの広範な使用は、MLに基づく意思決定が事実に基づいており、人間の認知的バイアス、差別的傾向、感情に影響を受けないことを示唆しています。実際のところ、これらのシステムは、直接または間接的に人間のバイアスが形成されたデータから学習します [1]。

犯罪司法、社会福祉政策、雇用、個人の財務など、社会的な影響を持つ分野では、データセットに敏感な属性(人種、性別、年齢、障害の有無など)やそれらの属性と密接に関連している特性が含まれているため、自動化された意思決定が公平性の原則を尊重することが重要です。公平性を無視すると、社会的に許容できない結果につながる可能性があります。特に自動化された連続的な意思決定を考えるとき、「不正義の持続、つまり、敏感な特徴、意思決定、結果の間に公平ではない依存関係を維持、強化、または導入する場合」は懸念されます [2]。

その結果、機械学習におけるバイアスの影響は、実際の変化を認識することさえ困難にしています。AIシステムの日々の影響は巨大であり、企業や国家のシステムに限定されるものではなく、ブラウザで情報を収集するたびに私たちの手に実際に感じられるものです。

図1.1:学問の進化のタイムライン [3]

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

音声合成:進化、倫理、そして法律

ロマン・ガーリン、シニアバイスプレジデント @イノベーション、スポートレーダー この記事では、音声合成の進化を辿り、それ...

人工知能

「ChatGPTでより説得力を持つようになろう」

「影響力」(ロバート・チャルディーニ著)という本の中にある強力な心理学の原理を、これらのChatGPTのプロンプトを使って直...

機械学習

「2024年のソフトウェア開発のトレンドと予測18」

2024年のソフトウェア開発の世界は、急速な技術の進歩と同時に進化するセキュリティの課題に備えています

AI研究

「Microsoftの研究者がPIT(Permutation Invariant Transformation)を提案:動的まばらさのためのディープラーニングコンパイラ」

“`html 最近、深層学習は動的スパース性に最適化されたモデルの研究によって注目されています。このシナリオでは、スパ...

AI研究

ペンシルベニア大学の研究者たちは、腎臓のマッチングを改善し、移植片の失敗リスクを減らすための機械学習戦略の開発を行っています

AIは、遺伝子の特定の変異を分析することにより、腎移植のリスクを最小化することで、人々に希望の光をもたらしています。腎...

機械学習

「Declarai、FastAPI、およびStreamlitを使用したLLMチャットアプリケーション— パート2 🚀」

前回のVoAGI記事(リンク🔗)の人気を受けて、LLMチャットアプリケーションの展開について詳しく説明しました皆様からのフィ...