「エヴァ・マリー・ミュラー=シュトゥーラ博士による、倫理的なAIとデータサイエンスの実践の重要性について」

Importance of Ethical AI and Data Science Practices by Dr. Eva Marie Müller-Stuhler

私たちはEY MENAのDr. Eva-Marie Muller-Stulerに、データとAIのパイオニアとしての素晴らしい旅、倫理的なAIおよびデータサイエンスの実践に関するいくつかの洞察、および将来のプロフェッショナルに対する貴重なアドバイスを共有していただきました。このインタビューでは、透明性、学際的な協力、倫理的なAIおよびデータサイエンスの実践を採用しない場合の潜在的なリスクの重要性が明らかにされています。倫理を自分の仕事に取り入れたいと考えているプロフェッショナルにとって、この先見的なリーダーから貴重なアドバイスと指導を見つけることができます。エキスパートの知識と将来の倫理的なAIのビジョンを見つけるために、読み進めてください。

目次

  • データとAIのパイオニアとしての旅:データとAIの未来を形作るための道を探る
    • データとAIのパイオニアとしての旅やこの分野に興味を持つようになったきっかけについて教えていただけますか?
    • 倫理的なAIおよびデータサイエンスの実践の重要性に焦点を当てるようになった動機は何ですか?
  • EY MENAにおけるデータサイエンスとAIのイニシアティブのリーディング:複雑なデータサイエンスとAIプロジェクトおよび変革の開発と実装における主な責任は何ですか?
    • 組織はどのようにして、オペレーション全体で倫理的なAIおよびデータサイエンスの実践を採用していることを保証できますか?
  • 業界における倫理的な実践の洞察
    • AIやデータサイエンスのプロジェクトの実装において、倫理的な考慮が重要な役割を果たした具体的な例を共有していただけますか?
    • 組織はAIやデータサイエンスの利点を最大限に活用しながら倫理的な基準を維持するためにどのようなバランスを取ることができますか?
    • 透明性が倫理的なAIおよびデータサイエンスの実践を確保するためにどのような役割を果たし、組織はAIシステムにおける透明性をどのように実現できますか?
    • 倫理的なAIおよびデータサイエンスの実践を採用しない場合の潜在的なリスクや結果は何ですか?
    • 倫理的なAIおよびデータサイエンスの実践を確保するために、さまざまな分野の専門家を巻き込んだ学際的な協力の重要性は何ですか?
  • 将来の洞察とアドバイス
    • 倫理的なAIおよびデータサイエンスの将来の展望はどのように進化していくと予想され、組織はこの急速に変化する状況に先んじるためにどのような手段を講じることができますか?
    • 倫理を自分の仕事に取り入れたいと考えているデータとAIのプロフェッショナルにどのようなアドバイスをお授けしますか?

データとAIのパイオニアとしての旅:データとAIの未来を形作るための道を探る

データとAIのパイオニアとしての旅やこの分野に興味を持つようになったきっかけについて教えていただけますか?

私は常に論理的思考やパターンの発見、現実世界の多くの問題を数学の問題に変換して解決することが好きだったため、数学を学びました。しかし、当時は数学者向けの仕事があまりありませんでしたので、大学を卒業したときにより多くの仕事の選択肢を開くためにビジネスとコンピュータサイエンスを追加しました。

その後、企業再構築や財務モデリングのキャリアをスタートしました。そこでは、ビジネス上の意思決定が企業の財務パフォーマンスに与える財務的な影響を予測します。これが私がビジネスのためのデータサイエンスとAIについて考えるようになった原点です。データサイエンスは2つの分野に分かれています:

a) ビジネスを改善するためにデータサイエンスを使用する(収益の向上、コスト削減、リスク管理など)、または

b) 長期投資目標を持つ研究です。企業がデータサイエンスとAIのチームを設立する際には、最初から生成したい影響を明確に定義する必要があります。多くのデータとAIのチームはコストセンターであり、ビジネスにはポジティブな影響を与えません。

ロンドンの投資ファンドのディレクターとして働いていたとき、金融モデルに組み込まれた仮定や入力データがいかにシンプルかに気づきました。そこで、より良い意思決定をするためのドライバーや洞察を見つけ、モデルにより多くのデータと情報を追加するようにしました。私はこの経験をKPMGに持ち込み、ヨーロッパ初のデータとAIチームを立ち上げ、より良いビジネスの意思決定を行うための「常にオン」のマシンを作りました。

@media(min-width:0px){#div-gpt-ad-aitimejournal_com-banner-1-0-asloaded{max-width:728px;max-height:400px;}}

私のキャリアを推進したのは、地球上で最も優れた人々に囲まれ、学んだ領域をデータサイエンスのプロジェクトに結びつけることができるということに気付いたからです。

他の仕事では、数学の美しい論理を最新の技術開発と組み合わせ、人間の行動や心理、生活の質の向上、小売業、医療、エネルギーなどあらゆる領域に応用できる場所はありません。

倫理的なAIとデータサイエンスの重要性に焦点を当てることに動機を得たのは何ですか?

2013年には、ビッグデータモデルの構築に本格的に取り組みました。データアクセスや制限の理解がほとんどなかったため、個人情報の電話情報や小売り、健康に関するデータなど、多くのデータを無料で入手できました。私たちは収集したデータをつなげてつながりのあるエコシステムを構築し、モデルの改善につなげました。情報をつなげたことの影響は非常に強力で、私たちを驚かせました。

@media(min-width:0px){#div-gpt-ad-aitimejournal_com-large-leaderboard-2-0-asloaded{max-width:728px;max-height:400px;}}

また、私たちのモデルがどれだけバイアスを持っているか、リスクを説明できることにも気付きました。モデルが間違った結果を出す可能性のある多くの潜在的な問題がありましたが、データサイエンスとAIはまだ非常に小さな分野であり、主に研究に基づいていました。数年後、シンギュラリティのポイントやAIが人間に逆転する可能性について警告する声がますます増えてきました。しかし、私はそれを最も重要なリスクとは見なしませんでした。悪いAIを作ることは非常に簡単であり、高校生なら誰でもできます。しかし、信頼性のある、公正な、透明性のある、安全なAIを構築することはまったく別の話です。市場に出ているAIの多くは公開する品質ではありませんでした。例えば、利用可能なデータのほとんどは白人の男性のデモグラフィックからのものであり、このデータに基づいて構築されたモデルは自動的にバイアスを持っています。

そのため、データサイエンスとAIの採用が私たちの生活に悪影響を与えないようにするために、政策立案者の意識を高めることを決めました。それが私が政府機関やNGOと協力し、ルールと規制の必要性を広め始めた時です。

データサイエンスとAIの主導的なイニシアチブ:EY MENAでの主要な責任の公開

EY MENAでの複雑なデータサイエンスとAIプロジェクト、トランスフォーメーションの開発と実装における主な責任は何ですか?

この役割には2つの焦点があります。まず第一に、内部の実践と戦略です。私は提供物、市場参入、内部スキルの開発を決定しなければなりません。私は主要な柱であるデータガバナンス&戦略、技術とアーキテクチャ、ユースケースの構築を中心にプラクティスを構築しました。また、適切なチーム構成とスキルを確保することも重要です。

第二に、クライアントのニーズを理解し、データ変換の旅における彼らの進捗状況を把握し、EYのベストを結集して前進させることが焦点です。どれだけ上位に行っても、品質を確保し、問題が発生した場合には仲介するために、自らが実践に関与することが必要です。

組織はどのようにして、自社の運用全体で倫理的なAIとデータサイエンスの実践を採用することができますか?

データサイエンスまたはAIチームの設立の最初から、チームの異なる役割と責任が明確に理解されている必要があります。各プロジェクトでは、チームが集まって倫理的かどうかだけでなく、責任を果たす方法についても決定しなければなりません。倫理的で信頼性のあるAIは、正しいことをするだけでなく、正しく行うことにも関わるのです。

信頼性や倫理的な懸念の欠如は、AIの採用における最大の障害です。さまざまなフレームワークがありますが、その核心はすべて非常に類似しています。開発における基本的な原則は、人間の代理性と監視、技術の堅牢性と安全性、プライバシーとデータガバナンス、透明性、公正さ、説明可能性、持続可能性に焦点を当てています。そして、すべてのプロジェクトで、これらの原則を最初から常に確保し、モデルの展開を通じて監視しなければなりません。これが信頼できるAIを実現するための複雑なプロセスです。チームの設立の初めから始まります。チームには適切なスキル、明確な役割と責任、行動規範、エスカレーションプロセスが必要です。

現在のほとんどの企業は、倫理的または法的なコンプライアンスの責任者が誰であるかについてまだ明確ではありません。責任ある方法でプロジェクトを設定し、展開し、その後も監視するためのプロセスがしばしば存在しません。しかし、インパクトのあるAIについて話すとき、その影響は常に両方の方向に及ぶことができます。お金を稼ぐためのすべての行動は、それが間違っている場合にはお金を失う原因にもなります。そのため、信頼できるAIを構築するには、データガバナンスから技術インフラストラクチャ、モデルのモニタリングと再トレーニングまで、エンドツーエンドのプロセス全体を経る必要があります。モデルや推奨事項の結果は、プロセスのすべてのステップが信頼できる場合にのみ信頼できます。

業界における倫理的な慣行の促進に関する洞察

AIやデータサイエンスのプロジェクトの実装において、倫理的な考慮事項が重要な役割を果たした具体的な例を共有していただけますか?

データ変換を真剣に取り組むすべての企業は、倫理的で信頼性のあるAIの課題に取り組まなければなりません。基本的な考え方は、影響を受ける人々が多ければ多いほど、影響度が高く、通常はリスクも高くなるということです。AIソリューションは、重要な意思決定にますます使用されており、完全に展開されると、非常に高速で多くの誤った決定をすることがあります。一般に、個人を特定できる情報(PII)や生体認証データ、重要なインフラ、教育、雇用、法執行などは、高リスクと見なされる領域です。

これらの領域でAIソリューションを開発する場合、ソリューションが引き起こす潜在的なリスクや害を考慮し、そのリスクを軽減する方法を見つけることが重要です。倫理的で信頼性のある開発を保証することが不可能であれば、そのようなソリューションは市場にリリースすべきではありません。これらは通常、犯罪予測、大学入学や採用、給与体系、医療などに関するケースです。この分野でAIソリューションを活用することに関心を持つ組織は、バイアスのあるまたは不正確なAIソリューションが非常に高い財務、法的、または評判上のリスクにつながる可能性があることも認識しておく必要があります。

組織は、倫理的基準を維持しながらAIとデータサイエンスの利益を活用するためにどのようなバランスを取ることができますか?

それは実際にはバランスではありません。倫理的で信頼性のないソリューションは、混乱をもたらし、ビジネスにリスクをもたらします。短期的には、素早くモデルを組み合わせることが安く済むかもしれませんが、長期的にはモデルは失敗し、その問題は非常に大きくなり、企業は問題を隠すためにより多くのお金を費やすことになります。問題が発生した場合の緩和策が非常に高価になるケースが増えていることを見ています。

透明性は、倫理的なAIとデータサイエンスの実践を保証する上でどのような役割を果たし、組織はどのようにしてAIシステムの透明性を実現できますか?

透明性は、AIシステムの目的、設計、影響に関する適切なレベルのオープンさを重視しています。これには、AIソリューションが意思決定を行うことを人々が認識することだけでなく、モデルのトレーニングに使用されたデータ、目的、および潜在的なリスクに関する明確なドキュメントやファクトシートが含まれます。モデルの説明書やファクトシートは、モデルと一緒に保管されなければならず、更新、変更、または異なる目的で再利用される場合でも、元の目的、トレーニングデータ、および潜在的な問題が利用可能である必要があります。アメリカ市場向けに構築された医療モデルの例としては、中東やアフリカの60歳以上の女性のデータをトレーニングに使用していない可能性があります。そのモデルが販売され、市場に導入される場合、異なる地域では機能しない可能性があることが明確でなければなりません。

@media(min-width:0px){#div-gpt-ad-aitimejournal_com-leader-3-0-asloaded{max-width:728px;max-height:400px;}}

バイアスや公平性の問題を特定する最良の方法は、多様なチームを持つことです。多様なチームのクラウドエラーは、同質なチームのそれよりも低くなります。多様なチームは、プロジェクトの初めからソリューションの開発やデータに関する潜在的な問題を見つける可能性が高くなります。プロトタイプの開発では、トレーニングデータにバイアスがないかをチェックして、潜在的な問題を把握する必要があります。モデルのバイアスをテストするための多くのツールや技術があり、これらのテストは開発と展開の始めから終わりまで継続的に実施する必要があります。展開、再トレーニング、または更新の過程ですべてのモデルを監視することが重要です。

倫理的なAIおよびデータサイエンスのプラクティスを採用しない場合の潜在的なリスクや結果は何ですか?

非倫理的または信頼できないAIの潜在的なリスクや結果は非常に深刻です。AIが影響を持つと言うとき、ポジティブな影響があるものはネガティブな影響も持つ可能性があることを忘れてはなりません。AIが倫理的でなく信頼できない場合、システムが何をしているのか本当にわかりません。そのため、結果は評判リスク、財務上の損失、法的リスク、知的財産の喪失、または人命へのリスクなど、解決策の使用目的に応じて、あらゆるものになり得ます。

会社は基本的に盲目的に行動しています。たとえば、高速道路の速度制限を理解するためにAIと画像認識を使用する自動車会社は、システムが頑丈で改ざんできないようにする必要があります。例えば、標識を変えることで対策を講じることがあります。自動車が30km/hゾーンで急に時速130km/hに加速しないようにするために、測定と保護策が必要です。安全な試験環境でも、自動運転車に関するネガティブなニュースが公表されるたびに、自動車会社の評判に悪影響を与えました。これはすべての業界で同じです。COVID時にAIソリューションを使用して大学入学の決定を行った政府、バイアスのあるクレジットカードやローンの承認プロセスを持つ銀行など、多くのケースが財務的な評判またはリスクの損害をもたらしました。

様々な分野の専門家が関与する学際的な連携は、倫理的なAIおよびデータサイエンスのプラクティスを確保する上でどれくらい重要ですか?

倫理的で信頼できるAIフレームワークの開発は常に学際的な分野で行われてきました。フレームワークの多くは、政治、法律、倫理の専門家を含むさまざまな分野で共同開発されました。私たちはみんな、最低限の要件について協力して作業しようとしていました。残念なことに、技術コミュニティは作業グループで頻繁に代表されていませんので、達成すべきことについて合意はあるものの、技術的な解釈やガイドライン、法律の遵守方法に関する詳細がしばしば欠けています。企業は法律の遵守に必要な手順について自信が持てず、例えば説明可能なまたは透明性のあるAIについての適合性について不確かさを抱えています。

将来の展望とアドバイス

倫理的なAIおよびデータサイエンスの進化についてどのように考えていますか?また、組織がこの急速に変化する環境で先行するためにどのようなステップを取ることができますか?

GenAIの最近の発展やより洗練されたAIソリューションのリリースにより、倫理的で責任あるAI、政府の規則、およびフレームワークに対する認識と需要が大幅に高まりました。より多くの人々がAIツールにアクセスし、実験し、探求できるようになると、確率的特性に関連するリスクを認識し始めます。これにより、倫理的なAIが多くの企業や政府の最優先課題になりました。倫理的で信頼性のあるAIソリューション、法的要件の遵守、および企業の財務および評判への影響との直接的な関連性は、過去半年間でより明確になりました。したがって、私は法的なフレームワークや要件を企業にとって障害や負担とは見ていません。それどころか、その実施はリスクを減らし、データとAIの変革の成功を可能にするでしょう。

倫理を自分の仕事に取り入れたいと思っているデータとAIの専門家志望者に何かアドバイスはありますか?

まず、自分の分野や働いている国で重要な倫理的なフレームワークや法的要件について調べることから始めるべきです。フレームワークの核心メッセージは非常に似通っており、リスクを理解し、何がうまくいかない可能性があるか、それをどのように緩和するかに焦点を当てています。政府や非政府組織からは多くの情報やトレーニングが利用できます。たとえば、IEEEのような業界団体からも情報やトレーニングが利用できます。フレームワークの意図と要件を理解した後、上級のメンターと協力してプロジェクトの現状評価を行い、リスクを分類し、フレームワークとプロセスを起草して実施することをお勧めします。これにより、すべてのプロジェクトがライフサイクル全体で常に倫理的なAIに準拠していることを確認します。

@media(min-width:0px){#div-gpt-ad-aitimejournal_com-leader-2-0-asloaded{max-width:728px;max-height:400px;}}

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more