機械学習における公平性(パート1)
美容とファッションのエキスパートが教える、魅力とスタイルへの道(パート1)
目次
1. 機械学習における公正さ
教育、雇用、広告、警察など、機械学習のアルゴリズムは日常生活に大きな影響を与えています。機械学習(ML)のアルゴリズムは客観的に見えるかもしれませんが、バイアスの傾向はMLの本質に組み込まれています。多種多様な敏感な分野でのMLの広範な使用は、MLに基づく意思決定が事実に基づいており、人間の認知的バイアス、差別的傾向、感情に影響を受けないことを示唆しています。実際のところ、これらのシステムは、直接または間接的に人間のバイアスが形成されたデータから学習します [1]。
犯罪司法、社会福祉政策、雇用、個人の財務など、社会的な影響を持つ分野では、データセットに敏感な属性(人種、性別、年齢、障害の有無など)やそれらの属性と密接に関連している特性が含まれているため、自動化された意思決定が公平性の原則を尊重することが重要です。公平性を無視すると、社会的に許容できない結果につながる可能性があります。特に自動化された連続的な意思決定を考えるとき、「不正義の持続、つまり、敏感な特徴、意思決定、結果の間に公平ではない依存関係を維持、強化、または導入する場合」は懸念されます [2]。
その結果、機械学習におけるバイアスの影響は、実際の変化を認識することさえ困難にしています。AIシステムの日々の影響は巨大であり、企業や国家のシステムに限定されるものではなく、ブラウザで情報を収集するたびに私たちの手に実際に感じられるものです。
- 「2/10から8/10までの週のトップの重要なコンピュータビジョン論文」
- 新しいAmazon KendraのWebクローラーを使用して、ウェブにクロールされたコンテンツをインデックス化します
- 「機械学習とAIが偽のレビューを迅速に検出する方法」
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles