AIは、人間の確証バイアスを克服できるか?
AIが人間の確証バイアスを克服できるのか?' (AI ga ningen no kakushin baisu o kokufuku dekiru no ka?)
AIが人間の知性の不足を補完し、人間の認知バイアスに対して対等の対抗手段として働く方法
Nobel賞受賞者のDaniel Kahneman氏の著書「思考,速くて遅い」から、私たちは人間の脳がその役割を果たすのに完璧とは言えないことを知っています。感情の衝動や固執的な中毒、道徳的な闘いに加えて、Kahneman氏はその著書で我々の認知バイアスの微妙な側面を包括的に描写しています。さらに悔しいことに、これらのバイアスは私たちの生活、組織、社会のあらゆる方面に浸透しています。このような状況下で、私たちは今、2つの重要な問いに直面しています。まず、私たちはどのようにして私たちの意思決定におけるそのようなバイアスの現実を特定することができるのでしょうか?そして次に、私たちはどのようにしてこれらのバイアスを補完または防止することができるのでしょうか?本記事では、データサイエンスの観点から、最も普及しているバイアスの1つである確証バイアスに焦点を当て、これらのバイアスの検出、克服、予防のための進展をAIと機械学習の面から取り上げます。
確証バイアスとは何ですか?
確証バイアスとは、既存の信念や結論を確認または支持する情報を解釈し探し求める傾向のことです。確証バイアスのため、人々はアイデアを片面的にテストし、支持的な証拠に焦点を当て、自分たちの見解を否定することができる代替的な/矛盾する事実を無視します。確証バイアスは意図的な欺瞞とは異なり、本質的には無意識のものです。このバイアスは、科学研究、医学、政治、法執行、社会心理学、組織の意思決定など、人間の生活と社会の多くの領域に広範な影響を与えます。
英国の心理学者Peter Cathcart Wason氏は1960年代に確証バイアスを初めて体系的に命名し研究しました。Wason氏の実験では、参加者に4枚のカードパズル(Wasonセレクションタスクとも呼ばれる)を解くように与えました。パズルはさまざまなバリエーションを持つことができますが、結果は非常に再現性があります。以下に1つの例を示します:
4枚のカードがテーブル上に置かれています。それぞれのカードには片面に数字、裏面に色が書かれています。ルールは、カードが片面に偶数を表示している場合、対向面は青であるというものです。さて、テーブル上には3、8、青、赤のカードがあります。ルールが真実かどうかをテストするために、どのカード(またはどのカード)を裏返す必要がありますか?
皆さんは8のカードを裏返すべきだとわかります。一部の人は8と青を選ぶかもしれません。正しい答えは8と赤のカードを裏返すことで、ほとんどの人は赤のカードを裏返すのを見落とします。3のカードを裏返しても、対向面が青かどうかはルールには関係ありません。同様に、青のカードを裏返しても、対向面が奇数であるかどうかは影響を与えません。一方、赤のカードを裏返して、対向面に偶数がある場合、ルールが違反されていることを証明できます。
驚くべきことに、参加者はこのテストのさまざまな形式で何度も劣秀なパフォーマンスを示しました。人々はルールの肯定的なサポート(反対側は青である)に焦点を当て、特定のルールを反証する可能性がある情報を無視します。
ウェーソン選択課題のルールはすべて論理的な条件と結果を持つシンプルなものです:もしPならばQです。ルールが有効かどうかを完全に証明するには、以下の2つの基準を確認する必要があります:
- PならばQ
- QでないならばPでない
実際には、ウェーソン選択課題の参加者のうち完全に正解したのは平均してわずか10%であり、2番目の選択肢を含めた人々の脳は自動的に結論を確認するための肯定的な証拠に焦点を当てる一方、ルールを反証する証拠をチェックすることに難しさを感じていることが示されています。
興味深いことに、パズルに社会的な文脈を追加すると、ほとんどの人々が素早く正解することができます。主に許可や義務に関するものです。例えば、以下のような人気のある例があります:もし21歳未満ならばアルコールを飲むことはできません。4つのカードがあるとします — ビール、28、コーラ、15。このルールをテストするためにどのカードを裏返さなければならないでしょうか?ほとんどの人は直感的に正しい答えを迅速に出します:ビールのカードを裏返し、反対側の年齢が21歳以上かどうかを確認し、また15のカードを裏返し、もう片方にアルコール飲料が書かれているかどうかを確認します。
確証バイアスの原因は何ですか?
ウェーソン選択課題の結果は何を意味するのでしょうか?科学者たちはまだ、確証バイアスを説明するための神経回路やメカニズムについて研究を行っています。しかし、以下の2つのことを導き出すことができます:
- 人間の脳は、シンボルやトークンを使ってこのタイプの論理問題を解決するための論理演算子ではありません。
- 社会的な文脈で、人間が以前の経験からルールに関する情報を持っている場合、バイアスは克服することができます。
生物学的な脳と人工的な学習の両方の神経回路の学習機構を考慮すると、確証バイアスは神経ネットワークがパターン認識のためにどのように機能しているかに由来する副産物である可能性があります。既存の信念やルールについて、神経ネットワークは入力前提条件と関連する神経結合を強化して学習しています。同様の証拠は同じ結論につながる同じネットワークを活性化させ、同時に神経結合を強化します。逆に、反対の側を承認するためには、ネットワークは別々に訓練されなければならず、異なる入力データ(Pではない)で異なる結論(Qではない)を得るために異なる神経回路を活性化する可能性があります。言い換えれば、反対の効果を理解するためには、別の神経的な出力を確立するための障壁と努力が必要なため、人間の脳は既存の脳回路に偏りがある傾向があります。
人々が社会的なルールに従う場合、それに従わない場合には罰を受けるか特定のコストを支払うことが分かっています。この逆のシナリオは脳の回路に組み込まれていました。これは、社会的な文脈でパズルを解く際に人間が反対側を見ることに困難を感じない理由です。言い換えれば、脳は最初に経験的なデータで両方のシナリオを学んでいます。
しかし、確証バイアスを防ぐもう一つの方法があります。それは、私たちの本来の脳の能力を超えたツールを使用することです。これらの心のツールを通常はメンタルツールと呼びます。ウェーソン選択課題では、そのデバイスとなるのがシンプルなロジックです:
- PならばQ
- QでないならばPでない
各ルールの前提条件(P)と結果(Q)を両方のシナリオに代入すると、パズルを正確に100%解くことができます。社会的な文脈に関係のあるかないかにかかわらず、両方の肯定的な論理と否定的な論理を使用するだけのメンタルツールは、直感による反対側を見落とすことなく、明確に考えるのに役立ちます。
現実の世界では、実験室の外ではルールはより複雑で暗黙的なものです。データ科学とAIは、同じ原則と戦略を活用することで、確証バイアスを克服するのに役立ちます。
データサイエンスとAIはどのように確証バイアスを克服できるのでしょうか?
生物学的な神経ネットワークと人工的な神経ネットワークの学習の類似点を考慮すると、AIが人間のバイアスを繰り返しません。確証バイアスを克服するのにAIと機械学習は以下の利点を持っています:
- モデルとアルゴリズムは、トレーニングデータを予め指定された方法で解釈します。したがって、人間のように相反する事実に対して解釈や好意を持つ問題はありません。
- データサイエンティストとエンジニアによる協力チームワークにより、各個人の視点からの人間のバイアスと対照的な客観性が増します。
- バイアスが発生しないようにするために、AIには追加の統計的および論理的なツールとプロセスを追加する柔軟性があります。
一方、AIと機械学習は人間によって作成されるトレーニングデータに依存しているため、モデルにバイアスが導入されるのを防ぐためには追加の注意が必要です。したがって、確証バイアスを克服するためには、3つの領域に重点を置く必要があります。トレーニングデータ、モデルのテストとモニタリング、そして結果の解釈性です。
- トレーニングデータにバイアスがないことを確認する
データサイエンスの始まりから、「データに基づく意思決定」を行うことがスローガンの1つでした。しかし、皆さんもご存知のように、データは不完全であり、間違っていることもあります。これは、AIが悪い意思決定やバイアスのある意思決定をする可能性がある危険性です。確証バイアスを排除するためには、トレーニングデータを正確かつ完全にし、確証的な事実と反証的な事実を確認することが前提条件です。
たとえば、我々が加入者の成長を予測するモデルを構築するとします。加入者に関連性のある特徴を探し出すだけでなく、非加入者に関連性のある特徴も調べていますか?いくつかの特徴が同時に加入と非加入の貢献要因となっている可能性がありますか?トレーニングデータは予測と意思決定を制限または逸脱させていますか?
トレーニングデータがすべての側面の事実を均等に表していることを確認することは、AIが人間からバイアスを受け継がないための最も重要なステップの1つです。AIモデルは、人間が収集し整理したデータに依存しており、人間は確証バイアスを持つ傾向があるため、トレーニングモデルを設計する際には、データにはポジティブな事例とネガティブな事例の両方が含まれていることが必要です。ただし、これには通常、異なるデータソースが関与し、複数のデータ収集および整理方法が必要です。一部の場合では、反対のデータが存在しないか、収集・収集がコストがかかる場合、データ生成が対照的なシナリオをシミュレートするための解決策となる場合があります。
2. 徹底的なテストと検証によってバイアスを防ぐ
機械学習とAIは既にモデルを検証するための自動化されたテストプロセスを持っています。ただし、これまでの目的は予測の繰り返し可能性、モデルの過学習を防ぎ、統計的な分布から外れた値を除外することに主に焦点を当てています。確証バイアスを防ぐためには、トレーニングセットとモデルの振る舞いと出力を検証するための追加のステップが必要です。たとえば、モデルは仮説を確証できるだけでなく、反証もできますか?ネガティブなケースのサンプルが少ないためにフォールアウトや異常がありますか?人間の介入により重要でないと見なされた特徴が過少に表されていますか?
確証バイアスの特定は一度限りの作業ではありません。刻々と変わる世界において、新たなネガティブな事実や矛盾した事実が予期せず現れることがあります。最近の例外が将来の新たな標準になるかもしれません。データの整理における例外処理のルーティンを定期的に検証し、実際の反対のケースを削除していないかどうかを特定する必要があります。また、モデルが導入後にバイアスが導入されていないことを確認するために、定期的な監査とテストを行う必要があります。
3.「思考」プロセスを示す
人間の経験から、私たちの思考プロセスとメンタルモデルは正しい意思決定をするために重要です。AIの明白な利点は、多くのデータサイエンティストやエンジニアが同時にその意思決定プロセスを評価できるということですが、人間は個々の心でしかそれを行うことができません。
ただし、ニューラルネットワークやディープラーニングモデルは解釈できないとして有名です。そのため、意思決定や結論がバイアスがかかっているかどうかを理解するためには、プロセスの推測とハイブリッドなアプローチが必要な場合があります:
- トレーニングデータの出所とデータがどのように処理され、モデルに使用されるのかについて徹底的な理解
- モデルの解釈性を向上させるために、特殊なプロセスと利用可能なライブラリを使用する(例:LIME—Local Interpretable Model-agnostic Explanations, SHAP—SHapley Additive exPlanations)
- 視覚化(例:グラフやチャート)を活用して、最終結果だけでなく、ソースデータからトレーニングとモデルの実行までのエンドツーエンドのプロセス、トレーニングデータの品質、各意思決定をサポートするパラメータインスタンス、出力カテゴリの一貫性、プロセス中のフォールアウトや外れ値などを示す。これにより、データエンジニアとデータサイエンティストは、モデルがバイアスがかかる可能性があるステップを特定し、どのデータやトレーニングがまだ必要かを簡単に特定することができます。
結論
歴史を通じて、人間は自身の制約と制約を克服するためのツールを作り出すことが得意でした。人間の知能とAIの知能の類似点と相違点を考慮すると、AIが人間の知性が欠けている部分を補完し、人間の認知バイアスを防ぐ方法に焦点を当てるべきです。人間がこれらのバイアスを克服するのは困難ですが、データサイエンスとAIはプロセスをより可視化しながらそれらを特定し、最小化することができます。この記事では主に確証バイアスに焦点を当てて議論しましたが、同様の原則と方法は他の認知バイアスに対処するためにも適用することができます。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles