機械学習における公平性(パート1)

美容とファッションのエキスパートが教える、魅力とスタイルへの道(パート1)

写真提供:John Schnobrich(Unsplash)

目次

  1. 機械学習における公正さ
  2. 問題の証明
  3. 基本的な概念:差別、バイアス、公平性

1. 機械学習における公正さ

教育、雇用、広告、警察など、機械学習のアルゴリズムは日常生活に大きな影響を与えています。機械学習(ML)のアルゴリズムは客観的に見えるかもしれませんが、バイアスの傾向はMLの本質に組み込まれています。多種多様な敏感な分野でのMLの広範な使用は、MLに基づく意思決定が事実に基づいており、人間の認知的バイアス、差別的傾向、感情に影響を受けないことを示唆しています。実際のところ、これらのシステムは、直接または間接的に人間のバイアスが形成されたデータから学習します [1]。

犯罪司法、社会福祉政策、雇用、個人の財務など、社会的な影響を持つ分野では、データセットに敏感な属性(人種、性別、年齢、障害の有無など)やそれらの属性と密接に関連している特性が含まれているため、自動化された意思決定が公平性の原則を尊重することが重要です。公平性を無視すると、社会的に許容できない結果につながる可能性があります。特に自動化された連続的な意思決定を考えるとき、「不正義の持続、つまり、敏感な特徴、意思決定、結果の間に公平ではない依存関係を維持、強化、または導入する場合」は懸念されます [2]。

その結果、機械学習におけるバイアスの影響は、実際の変化を認識することさえ困難にしています。AIシステムの日々の影響は巨大であり、企業や国家のシステムに限定されるものではなく、ブラウザで情報を収集するたびに私たちの手に実際に感じられるものです。

図1.1:学問の進化のタイムライン [3]

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

あなたのビジネスに適応型AIを実装する方法

人工知能は、多様な産業においてビジネスの大きな変革をもたらすことができる強力な技術として現れましたしかし、従来の機械...

AIニュース

欧州とイスラエルのAIファーストスタートアップのための新しいアクセラレータ

この10週間のプログラムは、Googleとそのネットワークの最高の部分を活用して、AIをコアビジネスに使用しているスタートアッ...

データサイエンス

拡散モデルの利点と制約

拡散モデルは、非常にリアルな映像を通じて生成型AIを進化させますが、計算ニーズと倫理面に制約がありますその能力と課題を...

機械学習

「マルチタスクアーキテクチャ:包括的なガイド」

多くのタスクを実行するためにニューラルネットワークを訓練することは、マルチタスク学習として知られていますこの投稿では...

機械学習

テストに合格する:NVIDIAがMLPerfベンチマークでジェネラティブAIのトレーニングをターボチャージします

NVIDIAのAIプラットフォームは、最新のMLPerf業界ベンチマークにおいて、AIトレーニングとハイパフォーマンスコンピューティ...

機械学習

アリババは、2つのオープンソースの大規模ビジョン言語モデル(LVLM)、「Qwen-VL」と「Qwen-VL-Chat」を発表しました

人工知能の絶え間なく進化する領域において、画像理解とテキストインタラクションのギャップを埋めることは常に課題となって...