『ジュリエット・パウエル&アート・クライナー、The AI Dilemma – インタビューシリーズの著者』
Juliet Powell & Art Kleiner, authors of The AI Dilemma - Interview Series
「AIディレンマ」はジュリエット・パウエルとアート・クライナーによって執筆されました。
ジュリエット・パウエルは著者であり、テレビクリエーターとして9,000以上の生放送番組を手がけ、技術者および社会学者でもあります。彼女はまた、ブルームバーグTV / ビジネスニュースネットワークの解説者であり、エコノミストと国際金融公社が主催する会議で講演者でもあります。彼女のTEDトークはYouTubeで130,000回再生されています。ジュリエットは、倫理的なAIとデータを活用して成功を収めるビジネスリーダーのパターンと実践を特定しています。彼女はNYUのITPで教鞭をとり、彼女の著書に基づくデザインスキルのための責任あるメディアのコースを含む4つのコースを教えています。
アート・クライナーはライター、編集者、未来派です。彼の著書には「異端派の時代」「本当に重要なこと」「特権と成功」「賢い者たち」などがあります。彼はPwCが発行する賞を受賞した雑誌「strategy+business」の編集者でもありました。アートはまた、NYU-ITPとIMAの長い教職員でもあり、彼のコースには「責任あるテクノロジーとメディアの未来」などが含まれます。
「AIディレンマ」は、AI技術が誤った手に落ちた場合の危険性に焦点を当てながら、AIが社会にもたらす利益も認識している本です。
問題が生じるのは、基礎となる技術が非常に複雑であるため、エンドユーザーが閉鎖されたシステムの内部動作を真に理解することが不可能になるからです。
最も重要な問題の一つは、責任あるAIの定義が常に変動することであり、社会的な価値観が時間とともに一貫していないことがよく指摘されています。
私は「AIディレンマ」を読むことをとても楽しんでいます。この本はAIの危険性を誇張せず、人工知能総合(AGI)の潜在的な落とし穴に深く踏み込むことはありません。代わりに、読者は私たちの個人データが知らず知らずのうちに使用されている驚くべき方法や、AIの現在の制約や懸念の理由について学ぶことができます。
以下には、この画期的な本から期待できる内容を示すいくつかの質問があります。
「AIディレンマ」を執筆することに最初にインスピレーションを受けたのは何ですか?
ジュリエットは、AIの規制の限界と可能性を研究するために一部コロンビア大学に通いました。彼女はAIプロジェクトに取り組んでいる友人から直接聞いたことで、それらのプロジェクトに固有の緊張感があることを知りました。彼女は自己規制よりもはるかに大きな問題であるAIのジレンマについての結論に至りました。彼女はApexベンチマークモデルを開発し、企業や企業内のグループ間の相互作用のためにAIに関する意思決定が低い責任に傾くというモデルを作成しました。これが彼女の博士論文につながりました。
アートはジュリエットといくつかの執筆プロジェクトで共同作業をしてきました。彼は彼女の博士論文を読んで「ここには本がある」と言いました。ジュリエットは彼を共著者に招待しました。一緒に取り組んでいく中で、彼らは非常に異なる視点を持っていることを発見しましたが、この複雑な、非常にリスキーなAI現象をよりよく理解する必要があるという強い見解を共有しています。
「AIディレンマ」で強調されている基本的な問題の一つは、AIシステムが責任を持つか、またはソースコードを単に研究することで社会的な不平等を助長するかを理解することが現在不可能であるということです。この問題の重要性はどれくらいですか?
問題は主にソースコードではありません。キャシー・オニールが指摘しているように、クローズドボックスのシステムでは、コードだけではありません。それは社会技術的なシステムであり、人間と技術的な要素が互いに形作り合うものです。AIシステムを構築しリリースするために必要なロジックには、目的の特定、データの特定、優先順位の設定、モデルの作成、機械学習のためのガイドラインとガードレールの設定、人間が介入する場合のタイミングと方法の決定などが含まれています。少なくとも観察者や監査人に対しては、これらのプロセスの透明性が必要です。社会的な不平等やその他のリスクは、これらのプロセスの一部が隠されている場合にはずっと大きくなります。ソースコードから設計ロジックを本当に再構築することはできません。
説明可能なAI(XAI)に焦点を当てることで、これを解決することはできるのでしょうか?
エンジニアにとって、説明可能なAIは現在、モデルを取り組んでいる人々に対してモデルをより透明にするための技術的な制約と慣行の集合と考えられています。誤って告発された人にとって、説明可能性にはまったく異なる意味と緊急性があります。彼らは自己防衛のために説明可能性が必要です。ビジネスや政府の意思決定の根底にあるモデルを明確にするために、私たちは皆、説明可能性を必要としています。少なくともアメリカでは、説明可能性(人間の知る権利)と組織の競争とイノベーションの権利との間には常に緊張関係が存在します。監査人や規制当局は、異なるレベルの説明可能性を必要としています。これについては、「AIディレンマ」で詳しく説明しています。
AI企業が世に出すコードに対して関係者(ステークホルダー)が責任を持つことの重要性について、簡単にご意見をお聞かせいただけますか?
例えば、テンペで起きた自動運転車による歩行者の死亡事故では、運転手が責任を負い、個人が逮捕されました。しかし、最終的には組織の失敗でした。
橋が崩壊した場合、機械工学者が責任を負います。それは機械工学者が訓練され、常に再訓練され、その職業によって責任を負うからです。しかし、コンピュータエンジニアはそうではありません。
ステークホルダー、AI企業を含む人々は、より良い意思決定をするために訓練や再訓練を受け、より多くの責任を持つべきでしょうか?
「AIのジレンマ」では、GoogleやMetaのような企業が個人のデータを収集し、利益を上げる方法に焦点が当てられています。私たちのデータの乱用の重要な例を共有していただけますか?
「AIのジレンマ」の67ページ以降によると:
人々の個人データの系統的な乱用の新たな事例が公に明るみに出ており、その多くは顔認識の隠れた使用に関連しています。2022年12月、MIT Technology Reviewは、長期間にわたるiRobotの実態について報告しました。Roombaの家庭用ロボットは、ベータテスターの自宅で撮影された画像や動画を記録しますが、これには個人や家族に関連するプライベートな画像も含まれます。これらは、テスターの認識なしに、国外のグループと共有されます。少なくとも一つのケースでは、トイレにいる人の画像がFacebookに投稿されました。一方、イランでは、ヒジャブを着用していない女性を追跡して逮捕するために顔認識システムからのデータを使用し始めています。
これらの話をさらに詳しく語る必要はありません。それらは非常に多いです。しかし、このような生活の累積効果を特定することは重要です。私たちは、私たちのプライベートな情報がいつでも警告なしに、いつでも私たちに対して利用される可能性があると感じると、自分たちの人生をコントロールしている感覚を失います。
危険な概念の一つは、私たちの世界全体が摩擦のないものに設計されていることであり、「摩擦」とは「顧客の会社との旅で、彼らがスムーズに進むのを妨げたり不満を引き起こす要素」のことです。摩擦のない体験を期待することが、危険なAIにつながる可能性はありますか?
ニュージーランドでは、Pak’n’Saveの頭脳を持つ食事用ボットが、使用すると塩素ガスを生成するレシピを提案しました。これは、顧客が残り物を使い切り、お金を節約する方法として宣伝されました。
摩擦のない体験は、コントロールの幻想を作り出します。アプリを聞く方が、おばあちゃんのレシピを調べるよりも速く簡単です。人々は最も抵抗の少ない道を辿り、それがどこに向かっているのかに気づきません。
一方、摩擦は創造的です。あなたは関与します。これにより、実際のコントロールが可能になります。実際のコントロールには注意と作業が必要であり、AIの場合は拡張されたコストと利益の分析が必要です。
コントロールの幻想により、AIシステムが人間に指示を与えるようになり、人間が完全にコントロールを保持していると信じている場合、実際にはコントロールを持っていないという例をいくつか挙げられますか?
現在のサンフランシスコでは、ロボタクシーが活躍しています。自動運転タクシーのアイデアは、2つの相反する感情を引き起こす傾向があります。「タクシーが格段に安くなる!」という興奮と、「私にぶつかるのではないか?」という恐怖です。そのため、多くの規制当局は、制御を管理できる人々を車内に乗せてテストすることを提案しています。残念ながら、リアルタイムでシステムをオーバーライドできるように警戒している人間がいる状況は、公共の安全性をテストするには適していないかもしれません。AIシステムでは、過信は頻繁に起こる動態です。システムがより自律的であればあるほど、人間のオペレーターはそれを信頼し、完全な注意を払わない傾向があります。私たちは、これらの技術を見守るのは退屈です。事故が実際に起ころうとしているとき、私たちはそれを予期せず、しばしば時間内に反応しません。
この本には多くの研究が行われましたが、驚かれたことはありますか?
私たちにとって本当に驚くべきことの一つは、世界中の人々が自動運転車の衝突シミュレーションで誰が生き残り、誰が死ぬべきかについて合意できなかったことです。それが合意できないのであれば、統一されたグローバルなガバナンスやAIシステムのための普遍的な基準が存在することは想像しにくいです。
あなた方は両方とも起業家として自己を説明していますが、学んだことや報告したことが将来の取り組みにどのように影響を与えるでしょうか?
私たちのAIアドバイザリーの実践は、組織が技術を責任を持って成長するためのものです。弁護士、エンジニア、社会科学者、ビジネスの考え方のすべてのステークホルダーがAIの未来に関与しています。私たちは、これらの視点をすべて結集させ、創造的な摩擦を実践してより良い解決策を見つけるためのフレームワークを開発しました。意図的なリスクの計算などのフレームワークは、これらの問題を解決するためのナビゲーションを支援する役割を果たしています。
素晴らしい回答をいただき、さらに学びたい読者はThe AI Dilemmaを訪れてください。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles