人間の理解と機械学習のギャップを埋める:説明可能なAIを解決策として
Closing the gap between human understanding and machine learning Explainable AI as a solution.
はじめに
あなたは、お気に入りのショッピングアプリを開いたときに、必要だとも知らなかった商品のおすすめが最初に表示され、タイムリーなおすすめのおかげで購入することになったことがありますか?また、お気に入りの音楽アプリを開いたときに、お気に入りのアーティストによる忘れられた名曲が「好きかもしれないもの」としてトップに推奨されているのを見て喜んだことがありますか?意識的であろうと無意識であろうと、私たちは今日、人工知能(AI)によって生成された決定、行動、または経験に遭遇しています。これらの経験のうち、いくつかは比較的無害です(音楽のおすすめがピッタリなど)、他のものは時には不安を引き起こすことがあります(「このアプリは私がダイエットプログラムを考えていることをどうやって知ったのか」というようなもの)。これらの不安感は、自分自身や自分の愛する人々のプライバシーに関する問題になる場合に、心配や不信感に発展します。しかし、何故何かがおすすめされたのか、またその理由を知ることが、その不安感の一部を解消するのに役立ちます。
ここで、説明可能なAI(Explainable AI、XAI)が登場します。AIによるシステムがますます広まるにつれ、これらのシステムがどのように決定を下しているかを理解する必要性が高まっています。この記事では、XAIを探求し、解釈可能なAIモデルの課題、これらのモデルをより解釈可能にするための進歩、および企業や個人が製品にXAIを実装してAIに対するユーザーの信頼を育成するためのガイドラインを提供します。
説明可能なAIとは何ですか?
説明可能なAI(XAI)とは、AIシステムがその決定または行動の説明を提供することができる能力です。XAIは、AIシステムが決定を下し、エンドユーザーがその決定がなぜ下されたかを理解することの重要なギャップを埋めるものです。AIの出現以前は、システムはほとんどルールベースでした(例:顧客がパンツを買う場合、ベルトをお勧めします。または、人が「スマートテレビ」をオンにする場合、3つの固定オプションの間で#1のおすすめを回転させ続けます)。これらの経験は予測可能性を提供しました。しかし、AIが主流になるにつれて、何かが表示された理由や製品が決定を下す理由を後ろからつなげることは簡単ではありませんでした。説明可能なAIは、こうした場合に役立ちます。
- TRACE(トレース)に会おう:グローバル座標トラッキングを使用した正確な3D人体姿勢および形状推定のための新しいAIアプローチ
- 予測の作成:Pythonにおける線形回帰の初心者ガイド
- PyTorchを使った転移学習の実践ガイド
説明可能なAI(XAI)により、ユーザーはAIシステムが何を決定したか、どのような要因がその決定に影響したかを理解することができます。たとえば、音楽アプリを開くと、「Taylor Swiftが好きだから」というウィジェットが表示され、Taylor Swiftの曲に似たポップミュージックのおすすめが続きます。また、ショッピングアプリを開くと、「最近のショッピング履歴に基づくおすすめ」と表示され、最近数日間で赤ちゃんのおもちゃや洋服を購入したため、赤ちゃん用品のおすすめが続きます。
XAIは、アルゴリズムトレーディングやその他の金融推奨、医療、自動運転車など、AIによって高い価値のある決定が下される分野において特に重要です。決定に説明を提供することにより、ユーザーは理論的根拠を理解し、モデルの意思決定に導入されたバイアスを特定し、意思決定の誤りを修正し、人間とAIの間の信頼を構築することができます。また、増加する規制指針や法的要件に対応するため、XAIの重要性はますます高まっています。
XAIの課題
もしXAIがユーザーに透明性を提供するならば、なぜすべてのAIモデルを解釈可能にしないのでしょうか?そうすることを妨げるいくつかの課題があります。
ディープニューラルネットワークなどの高度なAIモデルには、入力と出力の間に複数の隠れたレイヤーがあります。各レイヤーは、前のレイヤーからの入力を受け取り、それに対して計算を行い、次のレイヤーの入力としてそれを渡します。レイヤー間の複雑な相互作用により、意思決定プロセスを追跡して、説明可能にすることは困難です。これが、これらのモデルがしばしばブラックボックスと呼ばれる理由です。
これらのモデルはまた、画像、音声、テキストなどの高次元データを処理します。どの機能がどの決定に最も影響を与えたかを判断するために、各機能の影響を解釈できるようにすることは困難です。これらのモデルをより解釈可能にするために単純化すると、性能が低下することがあります。たとえば、決定木などのより単純で「理解しやすい」モデルは、予測性能を犠牲にするかもしれません。そのため、予測可能性のために性能と正確性をトレードオフすることは受け入れられません。
XAIの進歩
人間のAIに対する信頼を継続的に構築するために、XAIの必要性が高まるにつれ、この分野で最近進歩がありました。たとえば、決定木や線形モデルなど、解釈可能性を比較的明らかにするモデルがあります。また、情報や知識の明示的表現に焦点を当てたシンボリックまたはルールベースのAIモデルもあります。これらのモデルは、しばしばルールを定義し、ドメイン情報をモデルにフィードする必要があります。この分野で積極的な開発が進んでいるため、ディープラーニングと解釈性を組み合わせたハイブリッドモデルもあり、性能に対する犠牲を最小限に抑えることができます。
製品にXAIを実装するためのガイドライン
AIモデルがなぜそのような判断を下したのかを理解することができるようにすることは、モデルに関する信頼性と透明性を促進するのに役立ちます。これにより、AIモデルが透明性を持って人間を意思決定のサポートをすることができ、人間はAIモデルを調整してバイアス、不正確さ、エラーを除去することができるようになります。
以下は、企業や個人が製品にXAIを実装する方法のいくつかです:
- 解釈可能なモデルを選択する – 適切であれば、解釈可能なAIモデルを、解釈が難しいモデルよりも選択するべきです。たとえば、医療分野では、決定木などのよりシンプルなモデルを使用することで、医師がAIモデルがある診断を推奨した理由を理解できるようになり、医師とAIモデルの信頼関係を築くことができます。解釈性を向上させるために、ワンホットコーディングや特徴スケーリングなどの特徴エンジニアリング技術を使用する必要があります。
- ポストホックの説明を使用する – 特徴の重要性やアテンション機構などの技術を使用して、ポストホックの説明を生成することができます。LIME(Local Interpretable Model-agnostic Explanations)は、モデルの予測を説明する技術であり、モデルの意思決定に対する各特徴の貢献を強調する特徴の重要性スコアを生成します。たとえば、特定のプレイリストの推奨を「好き」にした場合、LIMEメソッドはプレイリストから特定の曲を追加および削除して、プレイリストが好きか嫌いかの可能性を予測し、プレイリスト内の曲のアーティストがあなたのプレイリストが好きか嫌いかに大きな影響を与えることを結論付けます。
- ユーザーとのコミュニケーション – LIMEやSHAP(SHapley Additive exPlanations)のような技術を使用して、モデル全体の複雑さをすべて説明する必要がなく、特定のローカルな決定または予測に関する有用な説明を提供することができます。アクティベーションマップやアテンションマップなどのビジュアルクーを利用して、モデルが生成した出力に最も関連性の高い入力を強調することもできます。Chat GPTのような最近の技術を使用することで、ユーザーが理解できるように簡単な言葉で複雑な説明を簡素化することができます。最後に、ユーザーがモデルとやり取りできるように制御を与えることで、信頼関係を築くことができます。たとえば、ユーザーは、入力を異なる方法で調整して出力がどのように変化するかを確認することができます。
- 継続的なモニタリング – 企業は、モデルのパフォーマンスを監視し、バイアスやドリフトが検出された場合に自動的に検出および警告するメカニズムを実装する必要があります。モデルの定期的な更新や微調整、規制法に準拠し、倫理的基準を満たしていることを確認するための監査や評価が必要です。最後に、必要に応じてフィードバックや修正を提供するために人間を介入させる必要があります。
結論
AIがますます成長するにつれて、AIに対するユーザーの信頼を維持するために、XAIを構築することが必要になってきます。上記で説明したガイドラインを採用することにより、企業や個人は、より透明で理解しやすく、シンプルなAIを構築することができます。企業がXAIを採用することが多くなればなるほど、ユーザーとAIシステムの間のコミュニケーションが改善され、ユーザーはAIによって自分たちの生活がより良くなることに自信を持つようになります。Ashlesha Kadamは、Amazon Musicのグローバル製品チームを率いて、AlexaやAmazon Musicアプリ(Web、iOS、Android)向けに、45以上の国で数百万人の顧客に音楽体験を提供しています。また、女性の技術者を支援する情熱的な支持者として、女性のための最大のテックカンファレンスであるGrace Hopper Celebrationの人間コンピュータインタラクション(HCI)トラックの共同議長を務めています。趣味は、小説を読むこと、ビジネス・テクノロジーのポッドキャストを聴くこと(現在のお気に入りはAcquired)、美しい太平洋北西部でハイキングをすること、夫と息子、そして5歳のゴールデンレトリバーと過ごすことです。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- ChatGPTのバイアスを解消するバックパック:バックパック言語モデルはトランスフォーマーの代替AI手法です
- DeepMindのAIマスターゲーマー:2時間で26のゲームを学習
- 単一モダリティとの友情は終わりました – 今やマルチモダリティが私の親友です:CoDiは、合成可能な拡散による任意から任意への生成を実現できるAIモデルです
- AWSが開発した目的に特化したアクセラレータを使用することで、機械学習ワークロードのエネルギー消費を最大90%削減できます
- Sealとは、大規模な3Dポイントクラウドに対して自己教示学習のための2Dビジョンファウンデーションモデルを活用し、「任意のポイントクラウドシーケンスをセグメント化する」AIフレームワークです
- NVIDIA CEO:クリエイターは生成的AIによって「スーパーチャージ」されるでしょう
- 量産自動運転におけるBEVパーセプション