創造的AIの進展により、責任あるAIに対処する時が来ています

創造的AIの進展により、責任あるAIへの対応が求められる時代が到来

2022年には、企業は平均して3.8個のAIモデルを運用していました。現在では、10社に7社が生成型AIを実験しており、運用中のAIモデルの数は今後爆発的に増加するでしょう。その結果、責任あるAIに関する業界の議論がより迫害を帯びています。

良いニュースは、既に半数以上の組織がAI倫理を推進しているということです。しかし、約20%の組織しか、フレームワーク、ガバナンス、およびガードレールを組み込んだ包括的なプログラムを実施しておらず、AIモデルの開発を見守り、リスクを予測し軽減することができていません。AIの開発の速度が速いため、リーダーたちは今すぐフレームワークを実装し、プロセスを成熟させるべきです。世界中で規制が導入されており、すでに2社に1社が責任あるAIの失敗を経験しています。

責任あるAIの実装における課題

責任あるAIは20以上の異なるビジネス機能に影響を及ぼし、プロセスと意思決定の複雑さを増大させます。責任あるAIチームは、リーダーシップ、ビジネスの所有者、データ、AI、ITチーム、およびパートナーと協力して以下の作業を行う必要があります。

  • 公平かつバイアスのないAIソリューションの構築:チームとパートナーは、ソリューションの開発前に潜在的なバイアスを特定し軽減するため、探索的データ分析などのさまざまな手法を使用できます。そのようにすることで、モデルは初めから公正性を考慮して構築されます。さらに、データの前処理、アルゴリズム設計、ポストプロセッシングで使用されるデータをレビューし、それが代表的かつバランスのとれたものであることを確認できます。さらに、グループおよび個人の公平性技術を使用して、アルゴリズムが異なるグループや個人を公正に扱うようにします。また、カウンターファクチャル公平性アプローチは、特定の要因が変化した場合にモデルの結果をモデル化し、バイアスを特定して対処するのに役立ちます。
  • AIの透明性と説明可能性を促進する:AIの透明性とは、AIモデルがどのように機能し、意思決定を行うのかを理解しやすいことを意味します。説明可能性とは、これらの決定が非技術者にも簡単に伝えられることを意味します。共通の用語を使用し、ステークホルダーとの定期的な議論を行い、AIに対する意識と継続的な学習の文化を創り出すことで、これらの目標を達成するのに役立ちます。
  • データのプライバシーとセキュリティの確保:AIモデルは膨大な量のデータを使用します。企業は、モデルにデータを供給するために、第一者および第三者のデータを活用しています。また、スパーシティの問題を克服するために、プライバシーを保護する学習技術(例:合成データ)を使用しています。リーダーとチームは、機密情報や個人情報を新たな方法で使用する際に、データのプライバシーとセキュリティの保護策を見直し進化させる必要があります。たとえば、合成データは顧客の重要な特性を模倣する必要がありますが、個人に追跡可能であってはなりません。
  • ガバナンスの実装:ガバナンスは企業のAIの成熟度に応じて異なるでしょう。しかし、企業は最初からAIの原則とポリシーを設定すべきです。AIモデルの使用が増えるにつれて、AIオフィサーを任命し、フレームワークを実装し、責任と報告の仕組みを作り、フィードバックループと継続的な改善プログラムを開発することができます。

責任あるAIプログラムの重要な要素

では、責任あるAIリーダーである企業とそれ以外の企業との違いは何でしょうか?彼らは以下のことを行っています:

  • AIのビジョンと目標を作り出す:リーダーはAIのビジョンと目標を明確に伝え、それが企業、顧客、社会にどのように利益をもたらすかを示しています。
  • 期待値を設定する:経営幹部はチームに対して正しい期待値を設定し、ソリューションを完成後に合わせるのではなく、責任あるAIソリューションを最初から構築するよう指示しています。
  • フレームワークとプロセスを実装する:パートナーは、透明なプロセスとガードレールを備えた責任あるAIフレームワークを提供します。たとえば、データプライバシー、公正性、およびバイアスのチェックは、初期のデータ準備、モデル開発、および継続的な監視に組み込まれるべきです。
  • ドメイン、業界、およびAIのスキルを活用する:チームは、ビジネスの競争力を高めるためにAIソリューションのイノベーションを加速したいと考えています。彼らは、データとAI戦略の設定と実行、顧客分析、マーケティングテクノロジー、サプライチェーンなどの能力を備えた関連するドメインと業界のスキルを持つパートナーに頼ることができます。パートナーはまた、責任あるAIのフレームワークとプロセスを活用して、大規模言語モデル(LLM)のエンジニアリング、開発、運用、プラットフォームエンジニアリングの包括的なAIスキルを提供することができます。
  • アクセラレータにアクセスする:パートナーはAIエコシステムへのアクセスを提供し、責任ある伝統的なAIおよび生成型AIパイロットプロジェクトの開発時間を最大50%短縮します。企業は、市場競争力を高める垂直ソリューションを得ることができます。
  • チームの採用と責任を確保する:企業とパートナーチームは、新しいポリシーやプロセスについてのトレーニングを受けます。さらに、主要なポリシーの遵守をチームが監査することもあります。
  • 結果を定量化するための適切なメトリックスを使用する:リーダーとチームは、ベンチマークやその他のメトリックスを使用して、責任あるAIがどのようにビジネス価値に貢献しているかを示し、利害関係者の参加を高めます。
  • AIシステムを監視する:パートナーはモデル監視サービスを提供し、問題を積極的に解決し、信頼性のある結果を提供します。

責任あるAIの計画を立てましょう

AIのイノベーションを加速している企業であれば、おそらく責任あるAIプログラムが必要になるでしょう。リスクを減らし、プログラムやプロセスを成熟させ、ステークホルダーに対する説明責任を示すために、積極的に行動しましょう。

パートナー企業が、責任あるAIでビジネス価値を引き出すために必要なスキルセット、フレームワーク、ツール、パートナーシップを提供してくれます。公平かつバイアスのないモデルを展開し、コントロールを強制し、企業の要件に対するコンプライアンスを向上させると同時に、将来の規制に備えましょう。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「アナコンダのCEO兼共同創業者、ピーターウォングによるインタビューシリーズ」

ピーター・ワンはAnacondaのCEO兼共同創設者ですAnaconda(以前はContinuum Analyticsとして知られる)を設立する前は、ピー...

人工知能

アーティスの創設者兼CEO、ウィリアム・ウーによるインタビューシリーズ

ウィリアム・ウーは、Artisseの創設者兼CEOであり、ユーザーの好みに基づいて写真を精密に変更する技術を提供していますそれ...

人工知能

「ElaiのCEO&共同創業者、Vitalii Romanchenkoについてのインタビューシリーズ」

ヴィタリー・ロマンチェンコは、ElaiのCEO兼共同創設者であり、マイク、カメラ、俳優、スタジオの必要なく、個人が一流のビデ...

人工知能

スコット・スティーブンソン、スペルブックの共同創設者兼CEO- インタビューシリーズ

スコット・スティーブンソンは、Spellbookの共同創設者兼CEOであり、OpenAIのGPT-4および他の大規模な言語モデル(LLM)に基...

人工知能

「LeanTaaSの創設者兼CEO、モハン・ギリダラダスによるインタビューシリーズ」

モーハン・ギリダラダスは、AIを活用したSaaSベースのキャパシティ管理、スタッフ配置、患者フローのソフトウェアを提供する...

人工知能

「スノーケルAIのCEO兼共同創設者、アレックス・ラットナー - インタビューシリーズ」

アレックス・ラトナーは、スタンフォードAIラボを母体とする会社、Snorkel AIのCEO兼共同創設者ですSnorkel AIは、手作業のAI...