敵対的なバイアス排除とは、公正な分類を実現するための手法です

「公正な分類を実現するための敵対的バイアス排除の手法とは?」

Sushil Nashさんによる写真, 出典: Unsplash

この記事では、収入予測のバイナリ分類問題を、分類と公平指標に基づいた公平な分類器とAdversarial Debiasingを用いて分析しています。また、Hyperparameters Optimization(HPO)も提案されています。

Git: https://github.com/LorenzoPastore/Adversarial-Fair-Classification

クレジットレーティング、司法、住宅配分などの重要な領域でアルゴリズム的な意思決定プロセスが広く使用されており、透明性、説明責任、公平性について多くの問題が提起されています。

機械学習の文献における公平性の概念は、社会科学や法律における差別の概念に強く影響を受けています。これらの概念は均等性(つまり、平等)を要求し、扱いにおいても影響においても平等性を求めます[1]。決定プロセスは、その結果が主体の敏感属性情報に基づいて(部分的に)行われ、特定の敏感属性値を持つ人々に対して不均衡な影響を及ぼす場合、不均等な扱いに苦しんでいます[2]。

両方の不公平性に同時に対処することは容易ではありません。学習フェーズから敏感属性を排除すると、不均等な取り扱いを回避することができます。ただし、もしこれらの属性が他の特徴と強く相関している場合、結果は依然として敏感属性に依存し、これは不均衡な影響につながる可能性があります。また、自動化された意思決定システムは過去のデータで訓練されているため、ある敏感属性を持つグループが過去に不公平に扱われた場合、この不公平性は間接的な差別を通じて将来の予測にも影響を与える可能性があります[3]。一方、不均等な影響を回避するために敏感属性を使用することは、不均等な扱いを構成し、逆差別も引き起こす可能性があります[4]。

公平性の定義は、人々のグループ(グループの公平性)だけでなく、個々の人々(個人の公平性)にも関連することがあります。グループの公平性では、個々の価値を考慮せず、グループの資格の低いメンバーの選択に結果がなる可能性があります。一方、個人の公平性は、一般的に見つけるのが難しい分類課題のための個々の類似性メトリックを想定します[5]。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

Aaron Lee、Smith.aiの共同設立者兼CEO - インタビューシリーズ

アーロン・リーさんは、Smith.aiの共同創業者兼CEOであり、AIと人間の知性を組み合わせて、24時間365日の顧客エンゲージメン...

人工知能

「アナコンダのCEO兼共同創業者、ピーターウォングによるインタビューシリーズ」

ピーター・ワンはAnacondaのCEO兼共同創設者ですAnaconda(以前はContinuum Analyticsとして知られる)を設立する前は、ピー...

人工知能

「ElaiのCEO&共同創業者、Vitalii Romanchenkoについてのインタビューシリーズ」

ヴィタリー・ロマンチェンコは、ElaiのCEO兼共同創設者であり、マイク、カメラ、俳優、スタジオの必要なく、個人が一流のビデ...

AIテクノロジー

アンソニー・グーネティレケ氏は、Amdocsのグループ社長であり、テクノロジー部門および戦略部門の責任者です- インタビューシリーズ

アンソニー・グーネティレーケは、Amdocsでグループ社長、テクノロジーと戦略担当です彼と企業戦略チームは、会社の戦略を策...

データサイエンス

2023年にAmazonのデータサイエンティストになる方法は?

ほとんどのビジネスは現在、膨大な量のデータを生成し、編集し、管理しています。しかし、ほとんどのビジネスは、収集したデ...

機械学習

3つの質問:大規模言語モデルについて、Jacob Andreasに聞く

CSAILの科学者は、最新の機械学習モデルを通じた自然言語処理の研究と、言語が他の種類の人工知能をどのように高めるかの調査...