AIに倫理を注入する

Ethics injection into AI

.fav_bar { float:left; border:1px solid #a7b1b5; margin-top:10px; margin-bottom:20px; } .fav_bar span.fav_bar-label { text-align:center; padding:8px 0px 0px 0px; float:left; margin-left:-1px; border-right:1px dotted #a7b1b5; border-left:1px solid #a7b1b5; display:block; width:69px; height:24px; color:#6e7476; font-weight:bold; font-size:12px; text-transform:uppercase; font-family:Arial, Helvetica, sans-serif; } .fav_bar a, #plus-one { float:left; border-right:1px dotted #a7b1b5; display:block; width:36px; height:32px; text-indent:-9999px; } .fav_bar a.fav_de { background: url(../images/icons/de.gif) no-repeat 0 0 #fff } .fav_bar a.fav_de:hover { background: url(../images/icons/de.gif) no-repeat 0 0 #e6e9ea } .fav_bar a.fav_acm_digital { background:url(‘../images/icons/acm_digital_library.gif’) no-repeat 0px 0px #FFF; } .fav_bar a.fav_acm_digital:hover { background:url(‘../images/icons/acm_digital_library.gif’) no-repeat 0px 0px #e6e9ea; } .fav_bar a.fav_pdf { background:url(‘../images/icons/pdf.gif’) no-repeat 0px 0px #FFF; } .fav_bar a.fav_pdf:hover { background:url(‘../images/icons/pdf.gif’) no-repeat 0px 0px #e6e9ea; } .fav_bar a.fav_more .at-icon-wrapper{ height: 33px !important ; width: 35px !important; padding: 0 !important; border-right: none !important; } .a2a_kit { line-height: 24px !important; width: unset !important; height: unset !important; padding: 0 !important; border-right: unset !important; border-left: unset !important; } .fav_bar .a2a_kit a .a2a_svg { margin-left: 7px; margin-top: 4px; padding: unset !important; }

エキスパートは、生成的AIが注目を浴びている中、倫理的かつ安全な人工知能の実践を考慮することがますます重要になっていると述べています。 ¶ クレジット:Daffodil.com

消費者と企業の両方で、生成的人工知能(GAI)が急速に広まっています。この技術は、人工知能(AI)の一部であり、あらゆる種類の高品質なコンテンツを生成します。このため、過去数年間にAIをシステムやプロセスに組み込んできた組織がバイアスや倫理の問題について議論を始めたことが、さらに注目されています。

AIは、プロセスの自動化や効率化、人材不足の補填、コスト削減のためにより頻繁に使用されています。そして、生成的AIが注目を浴びている今、エキスパートは倫理的かつ安全な実践を考慮することがますます重要になっていると述べています。

「生成的AIが急速に広まり主流になる中、その人気の高まりは、AIを倫理的に開発・展開することが組織にとって最も重要な懸念事項であるという理由の1つです」と、KPMGのレポートは述べています。

リスクの1つは知的財産に関するもので、生成的AIは大規模なデータセットでトレーニングされたニューラルネットワークを使用して、与えられたデータのパターンに基づいて新しいテキスト、画像、音声、または動画を生成するため、KPMGは指摘しています。

その他のリスクには、従業員の誤用の可能性、生成物の可能性の不正確さ、ディープフェイク画像の作成に使用されることが含まれます。

「今日見られるこれらのリスクは、バイアスのようなAIの一部でしたが、法執行機関が顔認識技術を使用し始めたときにより大きな関心事となりました」と、グローバルデロイトAI研究所のエグゼクティブディレクターであり、書籍「信頼性のあるAI」の著者であるビーナ・アマナスは述べています。「生成的AIはリスクを増幅し加速させています」。

AIに関する規制が導入されるのは時間の問題でしょう。バイデン政権は、AI企業のAmazon、Anthropic、Google、Inflection、Meta、Microsoft、OpenAIから自主的な取り組みを確保しました。これには、バイアスやプライバシーの懸念に関する研究、AI生成物の透明性の確保など、さまざまな分野が含まれています。自己統治への移行は、将来の立法および規制措置の形成の試みと見なされています。2022年には、政権は「AIの権利に関する設計図」を公開しました。KPMGの米国信頼イノベーションリーダーであるエミリー・フロリック氏は、「生成AIに関するガバナンスは、使用と並行して構築され、ステークホルダーの信頼を構築することができるだけでなく、消費者や投資家を保護するのに役立つ」と述べています。

良いニュースは、組織が責任あるAIの実践にますます注意を払っていることです。

たとえば、225のAIスタートアップを対象に行われた2022年のブルッキングスの調査によれば、製品開発のためにトレーニングデータを使用するAIスタートアップの58%がAIの原則を確立しています。テック企業とのデータ共有関係を持つスタートアップ、プライバシー規制の影響を受けたスタートアップ、または機関投資家からの事前(シード以外)の資金調達を受けたスタートアップが、倫理的なAIの原則を確立する可能性が高いと報告書は述べています。

さらに、報告書は、欧州連合の一般データ保護規則(GDPR)の以前の規制経験を持つスタートアップは、「倫理的なAIポリシーに従うために、トレーニングデータを削除したり、ビジネスを断ったりするなどのコストのかかる手段を取る可能性が高い」と述べています。

ブルッキングスの報告書は、「規制当局や既存の判例から十分なガイダンスを得ることなく、倫理的な問題とデータアクセスのトレードオフを多くのスタートアップがバランスさせなければならない」と助言しています。

大手企業もこの助言に従っています。たとえば、PepsiCoは、スタンフォード人間中心の人工知能研究所(HAI)と協力し、責任あるAIの採用に向けた研究、教育、政策、ベストプラクティスの推進を開始しました。HAIの研究の一環として、「人間の状況を改善する」ことが挙げられます。

スタンフォードHAIの副所長で工学部の教授であるジェームズ・ランデイ氏は、「AIを通じた技術の変化が社会に大きな影響を与えると感じ、スタンフォードが人類のためにこれを導くために適切な位置にいると考えました」と説明しています。「私たちは5年半前にこれを予測しましたが、思ったよりも少し早く実現しています」と彼は付け加えました。

現時点では倫理的なAIの一般的に合意された定義はありませんし、しばしば人々はそれを「責任あるAI」と呼んだり、スタンフォードが指摘するように「人間中心のAI」と呼んだりすることもあります。

ランデイ氏は、AIの周りに倫理的な欠如があるとは考えていませんが、「ビジネス全般における倫理の欠如があります。最終的には、人々はお金を稼ぐことがより重要であり、それが悪影響を及ぼす場合でも、しばしば誤ったことをします」と述べています。

彼は、Facebookを例に挙げ、同社が「純粋にお金を稼ぐために、ディスインフォメーションや自己評価を下げるコンテンツを広めるなどのことをした」という証拠が浮上していると述べています。ランデイ氏によれば、AIはそのような意思決定の多くを推進しており、お金を稼ぐことが正しいことよりも人々の動機になっているため、「人々に倫理的になるよう教えることは常にそれを解決するわけではない」と彼は付け加えました。

バイアスの他にも、AIがシステムに組み込まれるときには、心臓移植リストの次に心臓を受けるべき人物や、武器を発射すべきかどうかといった道徳的な問題もあります。これらのジレンマは常に存在していましたが、それらをデータの透明性なしに機械に任せると、より深刻な問題になります。

「銀の弾丸はありませんし、一つの答えもありません」と彼は指摘しています。「大学の領域では、技術を構築する人々だけでなく、それに関わる人々にも教育を行わなければなりません」とランデイ氏は述べています。

学生はAIがどのように機能するかを学び、それが常に正しい答えを出すわけではないことを理解する必要があります。「もし人々が自分たちがFacebookや他のソーシャルメディアで得ているニュースがAIの影響を受けていると理解していれば、もっと懐疑的になるかもしれません」と彼は述べ、「教育は一つの側面です」と述べています。

AIの文脈で倫理を確立するための他のアプローチには、企業や学生に対して、社会へのポジティブな影響を持つAIプロセスの設計を教えることや、法的および政策の考慮による「ルールに従ったり安全にプレイしたりし、責任が発生する場所を特定する」ということも含まれます」とランデイ氏は述べています。

消費財企業のMarsは、生成AIを責任を持って使用し、公平で包括的かつ持続可能な方法で使用する必要があるという立場を取っています。同社はまた、生成AIの使用において従業員、消費者、パートナーのプライバシーとセキュリティを保護することを約束しています。

もう一つのアプローチは、企業のCEOが責任あるAIの推進に関与することです。ボストンコンサルティンググループの6月の報告書によれば、これが実現すると、ほぼ4人に3人(79%)がAIの規制に備えていると報告しています。一方、CEOが関与しない場合、その割合は22%にまで下がることが報告されています。

公正性と公平性のガイドラインを確立することは重要だとDeloitteのアンマナート氏は述べています。また、プライバシーも重要であり、モデルの作成とトレーニングの際に適切な許可が必要です。安全性とセキュリティもまた重要であり、ガードレールが設置されていることを確認する必要があります。

さらに、AIモデルは透明性があり、説明可能であり、責任を持つべきです。「AIがまともに機能しない場合、組織内で誰がその責任を負うのですか?」とアンマナート氏は述べています。「モデル自体は、その出力に対して意味のある責任を持つことはできません。」

最後の要素は、AIの使用において責任を持つことです。「一歩引いて、『これは正しいことまたは責任あることなのか?私が作成または構築しているものは、世界の責任ある市民であるのか?』と問いかけてください。責任ある市民であることが曖昧になる世界に生きています。」

Esther Sheinは、ボストン地域を拠点とするフリーランスのテクノロジーおよびビジネスライターです。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI研究

黄さんの法則に留意する:エンジニアたちがどのように速度向上を進めているかを示すビデオ

話の中で、NVIDIAのチーフサイエンティストであるビル・ダリー氏が、モーアの法則時代後のコンピュータパフォーマンスの提供...