「SHAPを用いた解釈可能なAI」

Interpretable AI using SHAP

Nik Korbaによる写真(Unsplash)

解釈可能なAIの必要性

私たちはAIの時代に生きています。AIは私たちの周りにあり、メディアはそれが私たちの世界に与え続けている影響を忘れさせてはくれません。AIとその応用の人気が高まるにつれて、ますます多くの人々が機械学習が日常生活に果たす役割に気付いています。それは、レコメンデーションシステムから予測、生成型AIまで様々なものです。

一般の人々のAIに対する感度が高まる中、データサイエンティストやエンジニアが適切な場合にモデルがなぜ特定の予測や意思決定を行うのかを解釈できることはますます重要になってきています。通常、優れたモデルは問題を受けて、将来に起こり得ることを説明することができます。しかし、これは実際の問題の一部にしか対応していません:

「モデルは予測がどのように行われたのか(なぜ)も説明しなければならない。なぜなら、正しい予測だけでは元の問題は部分的にしか解決しないからです。」- Christoph Molnar, 解釈可能な機械学習

上記の引用は、モデルが予測を行うために使用するプロセスに対処する必要性を強調しています。モデルの説明のための多くの手法がありますが、ここではその効果とシンプルさからますます人気を集めている手法に焦点を当てます。

SHAP (Shapley Additive exPlanations)

SHAPはShapley値の応用です。Shapley値は協力ゲーム理論からの確立された概念であり、各プレイヤーがゲームの結果に対して個別にどの程度貢献したかを測定します。例えば、4人の友人が協力してゲームをする場合、Shapley値は各友人がゲームの結果にどの程度貢献したかを計算するために使用されます。

解釈可能な機械学習において、SHAPはモデル内の個々の特徴をゲームのプレイヤーとし、ゲームの結果をモデルの予測として扱います。したがって、SHAPはモデル内の各特徴が個々の予測にどのように影響を与えるかを測定します。

詳細

Shapley値は、一部のプレイヤーが欠けている状態や一部のプレイヤーが存在する状態でゲームをシミュレーションすることで計算されます。さまざまなプレイヤーグループが存在する状態でゲームをシミュレーションし、結果を計算することによって、モデルは…

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

Aaron Lee、Smith.aiの共同設立者兼CEO - インタビューシリーズ

アーロン・リーさんは、Smith.aiの共同創業者兼CEOであり、AIと人間の知性を組み合わせて、24時間365日の顧客エンゲージメン...

人工知能

「トリントの創設者兼CEO、ジェフ・コフマンへのインタビューシリーズ」

ジェフ・コーフマンは、ABC、CBS、CBCニュースで30年のキャリアを持った後、Trintの創設者兼CEOとなりましたジェフは手作業の...

人工知能

スコット・スティーブンソン、スペルブックの共同創設者兼CEO- インタビューシリーズ

スコット・スティーブンソンは、Spellbookの共同創設者兼CEOであり、OpenAIのGPT-4および他の大規模な言語モデル(LLM)に基...

機械学習

もし芸術が私たちの人間性を表現する方法であるなら、人工知能はどこに適合するのでしょうか?

MITのポストドクターであるジヴ・エプスタイン氏(SM '19、PhD '23)は、芸術やその他のメディアを作成するために生成的AIを...

機械学習

「機械学習 vs AI vs ディープラーニング vs ニューラルネットワーク:違いは何ですか?」

テクノロジーの急速な進化は、ビジネスが効率化のために洗練されたアルゴリズムにますます頼ることで、私たちの日常生活を形...

データサイエンス

「3つの質問:ロボットの認識とマッピングの研磨」

MIT LIDSのLuca CarloneさんとJonathan Howさんは、将来のロボットが環境をどのように知覚し、相互作用するかについて議論し...