敵対的なバイアス排除とは、公正な分類を実現するための手法です
「公正な分類を実現するための敵対的バイアス排除の手法とは?」
この記事では、収入予測のバイナリ分類問題を、分類と公平指標に基づいた公平な分類器とAdversarial Debiasingを用いて分析しています。また、Hyperparameters Optimization(HPO)も提案されています。
Git: https://github.com/LorenzoPastore/Adversarial-Fair-Classification
クレジットレーティング、司法、住宅配分などの重要な領域でアルゴリズム的な意思決定プロセスが広く使用されており、透明性、説明責任、公平性について多くの問題が提起されています。
機械学習の文献における公平性の概念は、社会科学や法律における差別の概念に強く影響を受けています。これらの概念は均等性(つまり、平等)を要求し、扱いにおいても影響においても平等性を求めます[1]。決定プロセスは、その結果が主体の敏感属性情報に基づいて(部分的に)行われ、特定の敏感属性値を持つ人々に対して不均衡な影響を及ぼす場合、不均等な扱いに苦しんでいます[2]。
両方の不公平性に同時に対処することは容易ではありません。学習フェーズから敏感属性を排除すると、不均等な取り扱いを回避することができます。ただし、もしこれらの属性が他の特徴と強く相関している場合、結果は依然として敏感属性に依存し、これは不均衡な影響につながる可能性があります。また、自動化された意思決定システムは過去のデータで訓練されているため、ある敏感属性を持つグループが過去に不公平に扱われた場合、この不公平性は間接的な差別を通じて将来の予測にも影響を与える可能性があります[3]。一方、不均等な影響を回避するために敏感属性を使用することは、不均等な扱いを構成し、逆差別も引き起こす可能性があります[4]。
公平性の定義は、人々のグループ(グループの公平性)だけでなく、個々の人々(個人の公平性)にも関連することがあります。グループの公平性では、個々の価値を考慮せず、グループの資格の低いメンバーの選択に結果がなる可能性があります。一方、個人の公平性は、一般的に見つけるのが難しい分類課題のための個々の類似性メトリックを想定します[5]。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles