『責任ある生成AIの基準の確立』

『美容・ファッションの専門家が語る、信頼性の高いAI開発のための基準の確立』

産業全体でAIの急速な進歩と共に、責任あるAIは意思決定者やデータサイエンティストの間で注目を集めています。しかし、利用しやすい生成AIの登場により、それはこれまで以上に重要なテーマとなっています。技術が進歩するにつれて、責任あるAIの原則がなぜ重要な要素になるのか、いくつかの理由を見ていきましょう。

その理由には、バイアス/差別、データプライバシーと保護、安全性、透明性と説明責任などが含まれます。このため、AIに関わる際には、責任あるAIの原則が重要な要素となる理由を詳しく考えてみましょう。また、一部のテックリーダーが何を行っているかについても見てみましょう。

マイクロソフトの責任ある生成AIへの取り組み

マイクロソフトは、責任ある生成AIに対する取り組みを公開することで、そのコミットメントを示そうとしています。マイクロソフトは、公平性、信頼性と安全性、プライバシーとセキュリティ、包括性、透明性、責任に焦点を当てた6つの原則を掲げています。また、マイクロソフトは、これらの原則をガバナンス、ポリシー、研究を通じて具体化しています。

マイクロソフトの責任ある生成AIの具体的な取り組みには、Human-AI Experience (HAX) Workbook、AI Fairness Checklist、Responsible AI Dashboardなどがあります。マイクロソフトはまた、ユネスコと協力して責任ある生成AIを推進しています。

イベント – ODSC West 2023

対面および仮想会議

10月30日から11月2日まで開催

最新のデータサイエンスとAIのトレンド、ツール、技術について、LLMからデータ分析、機械学習から責任あるAIまで、詳しく掘り下げましょう。

責任ある設計

責任ある生成AIを促進するためにできる最も重要なことの一つは、責任を考慮に入れたAIシステムの設計です。これは、システムがオンラインになった後ではなく、AIシステムの潜在的なリスクと課題について、最初から考えることを意味します。AIシステムの進展に関し、前進する決定がなされた後は、責任ある生成AIを設計の基盤にするべきです。

もちろん、これは公平性、信頼性、安全性、包括性、透明性、責任を備えた設計でAIシステムを設計することを意味します。

アドバーサリアルテストを行う

この側面については、十分に話し合われることがありませんが、それはAIへの責任を促進するために敵対的なトレーニングとテストを行うことです。アドバーサリアルテストは、プロンプトや他の方法を使用してAIシステムの弱点を見つけるためにテストや赤線を引くことによって機能します。例えば、AIシステムをジェイルブレイクしようとするためにプロンプトチェーンの一連の使用を試みることが含まれることもあります。

これらの応答は、事実情報の誤りから、AIが生成するコンテンツによる合法的な安全上の懸念まで、さまざまなものです。したがって、アドバーサリアルテストを実施することにより、内部チームはAIシステムの潜在的な脆弱性を特定し修正することができます。これらのチームは、データサイエンスの専門家だけでなく、セキュリティ上の問題をより確実に発見するためのさまざまなスキルを活用しています。

コミュニケーションには注意を払う

信じるか信じないかは別として、責任ある生成AIを促進するためにはコミュニケーションが重要です。なぜなら、AIについてコミュニケーションする際には、非技術的な利害関係者を含む多くの人々に対して明確で簡潔な情報を提供することが重要だからです。これは、昨年以来非技術の人々によるChatGPTの急激な普及を見れば、簡単に理解できます。ChatGPTは、社会がAIを今すぐ使いたいと考えていることを示しました。

これがなぜ重要なのかを説明しておくことで、特定の技術的専門知識を持たないオーディエンスとの信頼と透明性を築くことができます。また、バイアスや差別を軽減し、AIシステムが人間の価値観に合致していることを確認するのにも役立ちます。

バイアスのモニタリング

バイアスは非常に良い理由で明確なネガティブな意味合いを持っています。誰もがAIがどのグループにも偏見を持つことを望んでいません。なぜなら、これは信頼を減らし、他のリスクを増加させるからです。そのため、バイアスを監視することは重要です。クリーンなデータセットとその他の方法を確保してAIシステムを監視することが重要です。しかし、真実は、バイアスはさまざまな方法でAIシステムに入り込む可能性があるため、用心することが重要です。バイアスを監視するためのいくつかの方法があります。

  • AIシステムのトレーニングに使用されるデータの分析
  • AIシステムの出力を評価する
  • ユーザースタディを実施する

高品質データセットの使用

昨年見てきたように、ウェブスクレイピングはユニークで機能的なLLMの作成に非常に役立っています。複雑さが増すにつれて、モデルをトレーニングするために使用されるデータセットの品質はますます重要になります。これは、合成データがより人気が出て、今後数年間でさらに人気が高まる理由の1つです。ただし、合成データに頼る必要はありません。

ここで、データサイエンティストや他のデータ専門家が登場します。彼らは、すべてのデータセットの品質が維持されるようにします。品質の低いセットに関連するリスクは、会社内のチームの何百、何千時間もの作業を台無しにすることができるため、彼らは非常に重要です。

責任ある生成AIに関する結論

責任ある生成AIは、技術が公平で透明であり、可能な限り多くの人々にアクセス可能であり、同時に最小限の害をもたらすようにするのに役立っています。このトピックに興味がある方は、マイクロソフトの責任あるAIエンジニアリングのグローバルリード、サラ・バード博士が数週間後のODSC Westで登壇します。

それを見逃さないでください。AIの未来について自分自身で確認してください。今ならまだチケットが30%オフで登録できます!

また、私たちの生成AIトラックをチェックして、自分自身でGenAIを使用する方法を見てみることもできます。いくつかのセッションのタイトルは以下の通りです。

  • フィードバックからの強化学習によるオープンソースLLMの整合性
  • 生成AI、自律型AIエージェント、AGI – AIの新たな進歩が私たちが構築する製品を改善する方法
  • 実践でのGen AIの実装
  • セキュリティドメインでのLLMとGPTモデルの範囲
  • GPT-4とLangchainを用いたプロンプト最適化
  • 生成AIアプリケーションの構築:LLMの事例研究
  • グラフ:GenAIの説明可能性の次のフロンティア
  • 安定した拡散:テキストから画像へのパラダイムへの新たなフロンティア
  • 生成AI、自律エージェント、ニューラルテクニック:ゲーム、シミュレーション、メタバースの次の時代のパイオニア
  • 企業における生成AI:ポテンシャルの解放と課題のナビゲーション
  • AIのパラダイムシフト:大規模な言語モデルの裏側
  • 信頼性のある生成AIの展開

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more