「ヘルスケア業界における生成型AIは、説明可能性の一撃を必要としている」

Healthcare industry needs explainable AI.

テキストベースの生成型AIツールが高度な文章作成やコミュニケーションのタスクを素早く完了する驚異的なスピードに、企業や消費者の両方が共感しています。しかし、これらの印象的な機能を可能にするために行われる裏側のプロセスは、保険、金融、医療などの機密情報を扱う政府規制業界においては、十分な注意を払わなければならないリスクを伴います。

その最も具体的な例は、医療業界に見つけることができます。

このような問題は、主にトレーニングに使用される広範で多様なデータセットと関連しており、テキストベースの生成型AIツールが高度なタスクを実行するために利用するモデルであるLarge Language Models(LLMs)に関連しています。プログラマーの明示的な介入がない場合、これらのLLMsは、知識ベースを拡大するためにインターネット上のさまざまなソースからデータを無差別にスクレイピングする傾向があります。

このアプローチは、顧客を正確に求められる商品に誘導することを最終目標とする低リスクの消費者志向のユースケースに最も適しています。しかし、大規模なデータセットとAIモデルが出力を生成する経路の複雑さが増しているため、病院や医療提供者が追跡し、潜在的な誤りを防ぐために必要とする解釈可能性は曖昧になっています。

この文脈において、解釈可能性とは、任意のLLMの論理経路を理解する能力を指します。アシスト生成型AIツールを採用しようとする医療専門家は、モデルがどのように結果を出すのかを理解する手段を持たなければなりません。これにより、患者とスタッフがさまざまな意思決定プロセスの中で完全な透明性を持つことができます。言い換えれば、生命がかかっているような医療業界のような業界では、専門家がAIツールのトレーニングに使用されるデータを誤解することは単純にリスクが高すぎます。

幸いなことに、生成型AIの解釈可能性のジレンマを回避する方法があります。これには、少しの制御と焦点が必要です。

謎と懐疑

生成型AIでは、非生成型アルゴリズムよりも、LLMが入力から出力までたどる方法を理解する概念ははるかに複雑です。生成型AIツールは、入力から出力まで移動する間に無数の接続を行いますが、外部の観察者にとって、どのようにしてなぜ特定の接続のシリーズを行うのかは謎です。AIアルゴリズムが進む”思考プロセス”を見る方法がないため、人間のオペレーターはその推論を調査し、潜在的な誤りを追跡するための徹底的な手段を欠いています。

また、MLアルゴリズムが使用する拡大し続けるデータセットは解釈可能性をさらに複雑にします。データセットが大きければ大きいほど、システムが関連する情報と関係のない情報の両方から学習し、「AI幻覚」と呼ばれる外部の事実や文脈の論理とは異なる虚偽の情報を生成する可能性が高くなります。

医療業界では、このような欠陥のある結果は、誤診や誤った処方箋などのさまざまな問題を引き起こす可能性があります。倫理的、法的、財政的な結果はさておき、このようなエラーは医療提供者とそれを代表する医療機関の評判を傷つける可能性があります。

したがって、医療業界などの高度に規制された業界のAI開発者は、潜在的なミスを制限するためにデータソースを制御する必要があります。つまり、外部のウェブページを無計画にかつ明示的な許可なしでスクレイピングする代わりに、信頼できる業界審査済みのソースからデータを抽出することを優先します。医療業界の場合、これはFAQページ、CSVファイル、医療データベースなどの内部ソースにデータ入力を制限することを意味します。

これがいくらか制限的に聞こえるかもしれませんが、大規模な医療システムのウェブサイトでサービスを検索してみてください。米国の医療機関は、プラットフォーム上で何百、もしくは何千もの情報ページを公開しており、ほとんどは患者が実際にアクセスできないほど奥深くに埋もれています。内部データに基づく生成型AIソリューションは、患者にこの情報を便利かつシームレスに提供することができます。これは、医療システムがついにコンテンツからROIを得ることができると同時に、患者は必要なサービスを瞬時に簡単に見つけることができるため、双方にとって利益になります。

規制産業における生成型AIの次なる展開は何か?

医療業界は、生成型AIによってさまざまな方法で恩恵を受けることができます。

例えば、近年、アメリカの医療部門に広がる疲弊感を考えてみてください。労働力の約50%が2025年までに辞めると予測されています。生成型AIを活用したチャットボットは、多くの業務負荷を軽減し、負担のかかりすぎた患者アクセスチームを保護するのに役立つかもしれません。

患者側では、生成型AIは医療提供者のコールセンターサービスを向上させる可能性があります。AIの自動化は、FAQ、ITの問題、薬の再発行、医師の紹介など、さまざまな連絡手段を通じて幅広い問い合わせに対応する力を持っています。待ち時間のストレスに加えて、アメリカの患者の半数しか最初の通話で問題を解決できず、高い離脱率やケアへのアクセスの障害が生じています。その結果、顧客満足度が低下し、業界に対するさらなる圧力が生まれます。

業界が生成型AIの実装から真に恩恵を受けるためには、医療提供者がLLM(言語モデル)がアクセスするデータの意図的な再構築を支援する必要があります。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「LeanTaaSの創設者兼CEO、モハン・ギリダラダスによるインタビューシリーズ」

モーハン・ギリダラダスは、AIを活用したSaaSベースのキャパシティ管理、スタッフ配置、患者フローのソフトウェアを提供する...

人工知能

「ジンディのCEO兼共同創設者、セリーナ・リー― インタビューシリーズ」

「Celina Leeは、ZindiのCEO兼共同創設者であり、アフリカのデータサイエンティスト向けの最大の専門ネットワークです Celina...

人工知能

「クリス・サレンス氏、CentralReachのCEO - インタビューシリーズ」

クリス・サレンズはCentralReachの最高経営責任者であり、同社を率いて、自閉症や関連する障害を持つ人々のために優れたクラ...

人工知能

『ジュリエット・パウエル&アート・クライナー、The AI Dilemma – インタビューシリーズの著者』

『AIのジレンマ』は、ジュリエット・パウエルとアート・クライナーによって書かれましたジュリエット・パウエルは、著者であ...

人工知能

「マーク・A・レムリー教授による生成AIと法律について」

データサイエンス内で新しい分野が現れ、研究内容が理解しにくい場合は、専門家やパイオニアと話すことが最善です最近、私た...

データサイエンス

「David Smith、TheVentureCityの最高データオフィサー- インタビューシリーズ」

デビッド・スミス(別名「デビッド・データ」)は、TheVentureCityのチーフデータオフィサーであり、ソフトウェア駆動型のス...