「医療機械学習におけるバイアスのある臨床データをどのように見るべきか?考古学的な視点への呼びかけ」

医療機械学習におけるバイアスのある臨床データの見方

MIT、ジョンズ・ホプキンズ大学、アラン・チューリング研究所の研究者は、AIシステムにおける偏った医療データの扱いは、「ゴミを入れたらゴミが出る」という言葉が示唆するほど簡単ではないと主張しています。AIに偏見を持つモデルは、医療業界で人気があります。通常、データが偏っている場合、人々は未代表のグループからより多くのデータを収集したり、バランスをとるために合成データを作成したりすることで修正しようとします。しかし、研究者たちは、この技術的なアプローチはより広範な視野が必要だと考えています。彼らは、歴史的および現在の社会的要因も考慮すべきだと述べています。これにより、公衆衛生における偏見に効果的に取り組むことができます。著者たちは、データの問題をしばしば技術的な迷惑事として扱っていることに気付きました。彼らはデータを割れた鏡に例え、私たちの過去の行動を反映しており、完全な真実を示さないかもしれないと述べています。しかし、データを通じて私たちの歴史を理解すると、将来の実践の改善に取り組むことができます。

「AI支援医療における偏ったデータを情報的な遺物として考慮する」という題名の論文では、3人の研究者が、偏った医療データを考古学や人類学の貴重な遺物と見なすべきだと主張しています。これらの遺物は、医療格差につながった実践、信念、文化的価値観を示しています。例えば、広く使用されているアルゴリズムは、病気の重い黒人患者が健康な白人患者と同じケアが必要だと誤って仮定していましたが、医療へのアクセスの不平等を考慮していませんでした。研究者たちは、単に偏ったデータを修正するだけでなく、捨てるのではなく、「遺物」のアプローチを取るべきだと提案しています。つまり、社会的および歴史的要因がデータ収集と臨床AIの開発にどのような影響を与えるかを認識することです。コンピュータ科学者は、使用するデータの背後にある社会的および歴史的な側面を完全に理解していないかもしれませんので、医療のすべてのグループに対してAIモデルがうまく機能するためには協力が必要です。

研究者たちは、アーティファクトベースのアプローチにおいて、データが人種的に修正されているかどうかを判断する難しさを認識しています。これは、白人の男性の体が比較の基準となるという仮定に基づいています。例えば、ある腎機能測定方程式は、黒人はより多くの筋肉量を持っていると修正されたという例があります。研究者は、研究中にそのような修正を調査する準備が必要です。別の論文では、自己申告の人種を機械学習モデルに含めることが、少数派グループにとって悪化することが示されています。自己申告の人種は社会的な構築物であり、常に役立つとは限りません。アプローチは利用可能な証拠に依存するべきです。

偏ったデータセットはそのままにしておくべきではありませんが、アーティファクトとして扱うと貴重な情報源になります。国立衛生研究所(NIH)の研究者たちは、倫理的なデータ収集を強調しています。さまざまな文脈での偏りの理解は、特定の人口に対してより良いAIを作成するのに役立ちます。このアプローチは、バイアスを排除するための新しい政策を生み出す可能性もあります。研究者たちは、将来の仮想的なAIの問題を恐れるのではなく、現在の医療問題に取り組むことを重視しています。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more