アラウカナXAI:医療における意思決定木を用いたローカル説明性

アラウカナXAI:医療の意思決定木によるローカル説明性

ヘルスケアにおけるAI支援の意思決定の透明性を向上させるため、CARTに基づいた新しいモデルに依存しない事後のXAIアプローチを紹介します

チリのモンキーパズルツリーパインからアラウカニアという言葉が来ていますが、それはまた、美しい鶏の品種の名前でもあります。© MelaniMarfeld from Pixabay

なぜAIはこれを間違えたのか?

人工知能の領域では、複雑なAIシステムの透明性と理解可能性の不足に関する懸念が増しています。最近の研究では、ブースティング、バギング、ディープラーニング技術などの不透明なシステムの内部動作を明らかにするための説明モデルの開発に取り組まれています。

ローカルとグローバルの説明性

説明モデルは、AIシステムの動作を次の2つの異なる方法で明らかにすることができます:

  • グローバルの説明性。グローバルの説明者は、AI分類器がどのように動作するかについて包括的な理解を提供します。彼らは、異なる入力やシナリオにわたって一貫して存在する総合的なパターン、傾向、バイアス、およびその他の特徴を明らかにすることを目指しています。
  • ローカルの説明性。一方、ローカルの説明者は、単一のインスタンスに対するAIシステムの意思決定プロセスに関する洞察を提供します。モデルの予測に大きく影響を与えた特徴や入力を強調することで、ローカルの説明者は特定の決定がどのようになされたかの一部を示します。ただし、これらの説明は他のインスタンスには適用されない可能性があり、モデルの全体的な振る舞いを完全に理解するものではありません。

信頼できる透明なAIシステムへの需要の増加は、複雑なブラックボックスモデルの普及によってのみ引き起こされているわけではありません。これらのモデルはその精度で知られていますが、解釈可能性には限界があります。また、データやデータ駆動型アプリケーションの誤用から個人を保護するための新しい規制(例:人工知能法、一般データ保護規則(GDPR)、または米国国防総省の人工知能倫理原則)への遵守の必要性にも動機付けられています。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「UVeyeの共同設立者兼CEO、アミール・ヘヴェルについてのインタビューシリーズ」

アミール・ヘヴァーは、UVeyeのCEO兼共同創設者であり、高速かつ正確な異常検出により、自動車およびセキュリティ産業に直面...

データサイエンス

「Seerの最高データオフィサーであるDr. Serafim Batzoglouによるインタビューシリーズ」

セラフィム・バツォグルはSeerのチーフデータオフィサーですSeerに加わる前は、セラフィムはInsitroのチーフデータオフィサー...

人工知能

ジョナサン・ダムブロット、Cranium AIのCEO兼共同創設者- インタビューシリーズ

ジョナサン・ダムブロットは、Cranium AIのCEO兼共同創業者ですCranium AIは、サイバーセキュリティおよびデータサイエンスチ...

人工知能

「アナコンダのCEO兼共同創業者、ピーターウォングによるインタビューシリーズ」

ピーター・ワンはAnacondaのCEO兼共同創設者ですAnaconda(以前はContinuum Analyticsとして知られる)を設立する前は、ピー...

人工知能

「コーネリスネットワークスのソフトウェアエンジニアリング担当副社長、ダグ・フラーラー氏 - インタビューシリーズ」

ソフトウェアエンジニアリングの副社長として、DougはCornelis Networksのソフトウェアスタック全体、Omni-Path Architecture...

人工知能

「ジンディのCEO兼共同創設者、セリーナ・リー― インタビューシリーズ」

「Celina Leeは、ZindiのCEO兼共同創設者であり、アフリカのデータサイエンティスト向けの最大の専門ネットワークです Celina...