創造的AIの進展により、責任あるAIに対処する時が来ています

創造的AIの進展により、責任あるAIへの対応が求められる時代が到来

2022年には、企業は平均して3.8個のAIモデルを運用していました。現在では、10社に7社が生成型AIを実験しており、運用中のAIモデルの数は今後爆発的に増加するでしょう。その結果、責任あるAIに関する業界の議論がより迫害を帯びています。

良いニュースは、既に半数以上の組織がAI倫理を推進しているということです。しかし、約20%の組織しか、フレームワーク、ガバナンス、およびガードレールを組み込んだ包括的なプログラムを実施しておらず、AIモデルの開発を見守り、リスクを予測し軽減することができていません。AIの開発の速度が速いため、リーダーたちは今すぐフレームワークを実装し、プロセスを成熟させるべきです。世界中で規制が導入されており、すでに2社に1社が責任あるAIの失敗を経験しています。

責任あるAIの実装における課題

責任あるAIは20以上の異なるビジネス機能に影響を及ぼし、プロセスと意思決定の複雑さを増大させます。責任あるAIチームは、リーダーシップ、ビジネスの所有者、データ、AI、ITチーム、およびパートナーと協力して以下の作業を行う必要があります。

  • 公平かつバイアスのないAIソリューションの構築:チームとパートナーは、ソリューションの開発前に潜在的なバイアスを特定し軽減するため、探索的データ分析などのさまざまな手法を使用できます。そのようにすることで、モデルは初めから公正性を考慮して構築されます。さらに、データの前処理、アルゴリズム設計、ポストプロセッシングで使用されるデータをレビューし、それが代表的かつバランスのとれたものであることを確認できます。さらに、グループおよび個人の公平性技術を使用して、アルゴリズムが異なるグループや個人を公正に扱うようにします。また、カウンターファクチャル公平性アプローチは、特定の要因が変化した場合にモデルの結果をモデル化し、バイアスを特定して対処するのに役立ちます。
  • AIの透明性と説明可能性を促進する:AIの透明性とは、AIモデルがどのように機能し、意思決定を行うのかを理解しやすいことを意味します。説明可能性とは、これらの決定が非技術者にも簡単に伝えられることを意味します。共通の用語を使用し、ステークホルダーとの定期的な議論を行い、AIに対する意識と継続的な学習の文化を創り出すことで、これらの目標を達成するのに役立ちます。
  • データのプライバシーとセキュリティの確保:AIモデルは膨大な量のデータを使用します。企業は、モデルにデータを供給するために、第一者および第三者のデータを活用しています。また、スパーシティの問題を克服するために、プライバシーを保護する学習技術(例:合成データ)を使用しています。リーダーとチームは、機密情報や個人情報を新たな方法で使用する際に、データのプライバシーとセキュリティの保護策を見直し進化させる必要があります。たとえば、合成データは顧客の重要な特性を模倣する必要がありますが、個人に追跡可能であってはなりません。
  • ガバナンスの実装:ガバナンスは企業のAIの成熟度に応じて異なるでしょう。しかし、企業は最初からAIの原則とポリシーを設定すべきです。AIモデルの使用が増えるにつれて、AIオフィサーを任命し、フレームワークを実装し、責任と報告の仕組みを作り、フィードバックループと継続的な改善プログラムを開発することができます。

責任あるAIプログラムの重要な要素

では、責任あるAIリーダーである企業とそれ以外の企業との違いは何でしょうか?彼らは以下のことを行っています:

  • AIのビジョンと目標を作り出す:リーダーはAIのビジョンと目標を明確に伝え、それが企業、顧客、社会にどのように利益をもたらすかを示しています。
  • 期待値を設定する:経営幹部はチームに対して正しい期待値を設定し、ソリューションを完成後に合わせるのではなく、責任あるAIソリューションを最初から構築するよう指示しています。
  • フレームワークとプロセスを実装する:パートナーは、透明なプロセスとガードレールを備えた責任あるAIフレームワークを提供します。たとえば、データプライバシー、公正性、およびバイアスのチェックは、初期のデータ準備、モデル開発、および継続的な監視に組み込まれるべきです。
  • ドメイン、業界、およびAIのスキルを活用する:チームは、ビジネスの競争力を高めるためにAIソリューションのイノベーションを加速したいと考えています。彼らは、データとAI戦略の設定と実行、顧客分析、マーケティングテクノロジー、サプライチェーンなどの能力を備えた関連するドメインと業界のスキルを持つパートナーに頼ることができます。パートナーはまた、責任あるAIのフレームワークとプロセスを活用して、大規模言語モデル(LLM)のエンジニアリング、開発、運用、プラットフォームエンジニアリングの包括的なAIスキルを提供することができます。
  • アクセラレータにアクセスする:パートナーはAIエコシステムへのアクセスを提供し、責任ある伝統的なAIおよび生成型AIパイロットプロジェクトの開発時間を最大50%短縮します。企業は、市場競争力を高める垂直ソリューションを得ることができます。
  • チームの採用と責任を確保する:企業とパートナーチームは、新しいポリシーやプロセスについてのトレーニングを受けます。さらに、主要なポリシーの遵守をチームが監査することもあります。
  • 結果を定量化するための適切なメトリックスを使用する:リーダーとチームは、ベンチマークやその他のメトリックスを使用して、責任あるAIがどのようにビジネス価値に貢献しているかを示し、利害関係者の参加を高めます。
  • AIシステムを監視する:パートナーはモデル監視サービスを提供し、問題を積極的に解決し、信頼性のある結果を提供します。

責任あるAIの計画を立てましょう

AIのイノベーションを加速している企業であれば、おそらく責任あるAIプログラムが必要になるでしょう。リスクを減らし、プログラムやプロセスを成熟させ、ステークホルダーに対する説明責任を示すために、積極的に行動しましょう。

パートナー企業が、責任あるAIでビジネス価値を引き出すために必要なスキルセット、フレームワーク、ツール、パートナーシップを提供してくれます。公平かつバイアスのないモデルを展開し、コントロールを強制し、企業の要件に対するコンプライアンスを向上させると同時に、将来の規制に備えましょう。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「スノーケルAIのCEO兼共同創設者、アレックス・ラットナー - インタビューシリーズ」

アレックス・ラトナーは、スタンフォードAIラボを母体とする会社、Snorkel AIのCEO兼共同創設者ですSnorkel AIは、手作業のAI...

データサイエンス

「2023年にデータサイエンスFAANGの仕事をゲットする方法は?」

データサイエンスは非常に求められる分野となり、FAANG(Facebook、Amazon、Apple、Netflix、Google)企業での就職は大きな成...

データサイエンス

「3つの質問:ロボットの認識とマッピングの研磨」

MIT LIDSのLuca CarloneさんとJonathan Howさんは、将来のロボットが環境をどのように知覚し、相互作用するかについて議論し...

人工知能

『ジュリエット・パウエル&アート・クライナー、The AI Dilemma – インタビューシリーズの著者』

『AIのジレンマ』は、ジュリエット・パウエルとアート・クライナーによって書かれましたジュリエット・パウエルは、著者であ...

データサイエンス

アステラソフトウェアのCOO、ジェイ・ミシュラ - インタビューシリーズ

ジェイ・ミシュラは、急速に成長しているエンタープライズ向けデータソリューションの提供企業であるAstera Softwareの最高執...

機械学習

「Prolificの機械学習エンジニア兼AIコンサルタント、ノラ・ペトロヴァ – インタビューシリーズ」

『Nora Petrovaは、Prolificの機械学習エンジニア兼AIコンサルタントですProlificは2014年に設立され、既にGoogle、スタンフ...