AIの闇面──クリエイターはどのように助けを提供できるのか?
AIの闇の側面──クリエイターがどのように助けを提供できるのか?
AIリーダーやAIプロダクトチームのための責任あるAI開発-考慮事項とフレームワーク
これらの日々、私たちが驚くべきAIツールについて学ぶことなしには過ぎません。はい、私たちは未知の領域にいます。AI革命は猛烈なスピードで前進しています。それに伴って懸念と恐怖も進んでいます。真実は、それらの恐怖の多くは現実です!
「人工知能は2029年ごろには人間レベルに達するでしょう。2045年を例に挙げると、我々の文明の人間の生物学的機械知性は10億倍になっているでしょう。」
― レイ・カーツワイル
ただし、それは私たちがAIの開発に対して躊躇すべき意味ではありません。全体的な効果は主に好意的です-医療、自律走行などあらゆる応用分野である。したがって、適切なセーフガードを備えることで、倫理的かつ責任ある範囲を押し広げることができるはずです。
以下に、解決策の一部となりたい人々のための責任あるAI開発を支援するいくつかの考慮事項とフレームワークをご紹介します。
原則に同意する
組織レベルでこれらのジレンマに対処するための最初で重要な手順の1つは、原則を明確に定義することです。原則が定義されていると、意思決定プロセスが容易になり、組織の価値観に反する決定をする可能性が減少します。Googleは『人工知能の原則』を作成しました。マイクロソフトは『責任あるAIの原則』を作成しました。
OECD(経済協力開発機構)は『OECD AI原則』を作成しており、革新的で信頼性があり、人権と民主主義の価値を尊重するAIの使用を推進しています。現在、90以上の国がこれらの原則を採用しています。
2022年、国連事務総長会議は、国連システムでの人工知能の倫理的利用に関する原則を承認しました。
コンサルティング会社のPWCは、200以上の原則を含む90以上の倫理的原則を9つのコア原則にまとめました(以下参照)。彼らの責任あるAIツールキットはこちらで確認してください。
バイアスを対処するための多様性の構築
1. AIワークフォースの多様性:バイアスに効果的に対処するには、組織はAIの全般において包括的な参加を保証する必要があります-研究、開発、展開、および保守において。簡単に言われても実践するのは難しいです。2021年のAI Indexの調査によると、代表的な要因は、模範となる存在の不足と共同体の不足です。
2. データセット内の多様性:アルゴリズムの訓練に使用するデータセットに多様性を確保します。人口の多様性を反映するデータセットを入手することは容易ではありません。
プライバシーの組み込み
個人を特定できるデータが安全であることをどのように確保するのでしょうか?データの収集を防ぐことはできませんが、組織はデータの収集、保管、利用においてプライバシーを確保しなければなりません。
- 同意 — データの収集は、対象者がデータの利用に同意することを確保しなければなりません。人々は自分の個人データの利用に対する同意を撤回したり、個人データの削除を求めることもできるべきです。EUはこの点においてコースを設定しています。GDPRを通じて、個人を特定できる情報を含む音声や映像データの処理には、情報提供者の明示的な同意がなければ違法とされています。他の国々も適切な時期に合わせて同様の対応をすると予想されます。
- 最小限の必要データ — 組織はアルゴリズムの訓練に必要な最小限のデータのみを収集し使用するように注意する必要があります。必要なもののみを使用します。
- 匿名化データ — 使用するデータは匿名化された形式である必要があります。ただし、個人を特定できる情報を公開しない必要がある場合でも、データの開示は特定の管轄区域の規制に従う必要があります。医療分野はこの点においてリーダーです。個人を特定できる情報(PII)や個人の健康情報(PHI)へのアクセスを防ぐために明確に規定された法律や規制が存在します。
安全性の組み込み
AIが予期しない動作を行わず、あるいは誰かがAIシステムをハックまたは誤誘導して違法行為を行わせないようにするにはどうすればよいでしょうか?DeepMindはこの点において最も効果的な手段の一つを打ち出しました。彼らはAIシステムが意図どおりに動作し、できるだけ不利な結果を軽減するために3つの柱に焦点を当てることで技術的なAIの安全性を確保できると述べています。
- 仕様 — システムの目的を定義し、理想的な仕様(希望)、設計仕様(設計図)、および明示された仕様(動作)のギャップを特定します。
- 頑健性 — システムが摂動に耐えるようにします。
- 保証 — システムの動作を積極的に監視し、逸脱があれば介入します。
責任の組み込み
AIにおける責任は、その社会的技術的性質のため、扱うのが最も難しい面の一つです。Stephen Sanford氏、Claudio Novelli, Mariarosaria Taddeo & Luciano Floridi氏によれば、以下がパズルの主要なピースです。
- ガバナンスの構造 — AIに関しては、明確に定義されたガバナンスの構造が確立されることを目指しています。これには目標、責任、プロセス、文書化、モニタリングの明確さが含まれます。
- コンプライアンス基準 — システムとその適用に適用される倫理的・道徳的基準を明確にすることが目標です。少なくとも、システムの行動の背後にある意図が示されます。
- 報告 — ここでは、システムの使用とその影響が記録されるようにすることが目標です。必要に応じて正当化や説明に使用できます。
- 監視 — 目標は、継続的な監査が可能にすることです。内部および外部の監査が有益です。これにはデータの検証、証拠の入手、システムの行動の評価が含まれます。必要に応じて司法審査も含まれます。
- 執行 — 目標は、組織および関係者への結果を決定することです。これには制裁、認可、禁止が含まれる場合もあります。
透明性と説明責任を組み込む
AIにおける説明可能性(XAI)は、最近注目を浴びている重要な領域です。簡単に言えば、AIアルゴリズムが特定の結論に至った理由や要因に透明性をもたらす能力です。 GDPRでは、Recital 71で「説明の権利」が追加されました。これにより、データ主体は企業に対して、アルゴリズムが自動的に意思決定を行った方法についての情報を要求することができます。特に、法の執行や医療などの信頼度が高い産業やプロセスにAIを導入しようとする場合には、トリッキーな面があります。
問題は、モデルの精度と非線形性が高ければ高いほど、説明が難しくなることです
分類のルールベースモデル、線形回帰モデル、決定木、KNN、ベイズモデルなどのような単純なモデルは主にホワイトボックスであり、直接説明可能です。複雑なモデルは主にブラックボックスです。
- 特化したアルゴリズム: 再帰的ニューラルネットワークなどの複雑なモデルはブラックボックスモデルですが、他のモデルによるポストホックな説明可能性を実現するためのアルゴリズムを使うことができます。代表的なものとしてはLIME(Local Interpretable Model-Agnostic Explanations)やSHAP(SHapley Additive exPlanations)などがあります。他にもWhat-ifツール、DeepLift、AIX360などのアルゴリズムが広く使用されています。
- モデル選択: 上記のツールや方法は、AIアルゴリズムに説明可能性をもたらすために使用することができます。加えて、ホワイトボックスのAIが十分であればブラックボックスのAIを使用するケースもあります。直接説明可能なホワイトボックスモデルは、使用ケースの必要な感度と特異度を満たす場合には説明作業が簡単になります。
- 透明性カード: GoogleやIBMなどの一部の企業は、自社のAIに対する説明可能性ツールを持っています。例えば、GoogleのXAIソリューションが利用可能です。Googleはまた、AIモデルに対応するモデルカードを公開しており、それによりトレーニングデータ、アルゴリズム、出力の制限事項が明確になっています。
NISTは、説明可能性、解釈可能性、透明性を区別しています。今回は簡単のために、説明可能性の下でこれらの用語を交換可能に使用しました。
医療に関しては、CHAI(Coalition for Health AI)は「信頼性のあるAIのための設計図」を提案しており、医療AIシステムにおける透明性を確保する包括的なアプローチです。医療技術でAIシステムに取り組んでいる人々にとって、一読の価値があります。
リスクアセスメントと軽減策の構築
組織は、AIソリューションの実装における倫理的な落とし穴を防ぐために、エンドツーエンドのリスク管理戦略を確保する必要があります。使用されている複数の孤立したフレームワークがあります。国立標準技術研究所(NIST)のリスク管理フレームワーク(RMF)は、AI分野で活動する民間および公共部門の組織との協力のもとに開発されました。これは自発的な利用を想定しており、AIソリューションの信頼性向上が期待されています。
要するに…
技術は進歩し続けます。それが産業化、電力、そしてコンピュータの場合と同様です。AIも同様です。AIは法律がそれに追いつくよりも速く進歩しています。それに関連する潜在的な危険も同様です。したがって、AIを開発する者は、私たちの社会の最善の利益を考えた責任あるアプローチをとることが求められています。私たちがすべきことは、技術が安全かつ責任ある方法で繁栄するための適切なフレームワークを整備することです。
「大いなる力には、大いなる責任が伴う。」- スパイダーマン
上記で素晴らしいスタート地点を手に入れました。問題は、責任を負うか、または規則と規制がそれを強制するのを待つかどうかです。正しいことはわかっています。以上です!
- 👏 もし私の記事が気に入ったら、たくさんの拍手と購読をお願いします!それは私たちコンテンツクリエイターにとって世界を意味し、将来的に素晴らしい記事をもっと生み出すことができます ❤️
- 🔔 VoAGIをフォローする | LinkedInをフォローする | Twitter
お時間とご支援いただきありがとうございました。大変感謝しています!
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 「ヒューメインのAIピンは、ウェアラブルテクノロジーの進歩の一歩ですが、欠点もあります」
- フリートテクノロジーのためのAI駆動エッジインサイトの実装
- 「2024年に注目すべきトップ10のリモートスタッフィングエージェンシー」
- デジタルワーカーやAIエージェントのレベルを定義する時が来ましたこれは自動運転車と同様のものですIDWAがプロセスをスタートします
- 安定性AIの新しいアップカミングツールは、AIを使用して3Dモデルを生成します
- 2024年に注目すべきAIを活用したヘルスケア業界のトップ8企業
- ハリソン.aiのCEOであるエンガス・トラン博士による、健康チェックにAIをスペルチェックとして使用することについての記事