「AI企業は、彼らが引き起こす損害について責任を負わなければならない」と『ゴッドファーザー』が言う

『ゴッドファーザー』が言うとおり、「AI企業は、自身が引き起こす損害に責任を負わなければならない」

テクノロジーの「ゴッドファーザー」を含むシニアエキスパートグループは、強力な人工知能システムが社会の安定を脅かしていると警告し、AI企業は自社製品によって引き起こされた損害に対して責任を負う必要があると述べました。 ¶ クレジット: ガーディアンデザイン/ゲティイメージズ

アートフィシャルインテリジェンス(AI)の「ゴッドファーザー」とされるGeoffrey Hinton氏とYoshua Bengio氏を含む一群の専門家は、AI企業は自社製品が引き起こす損害に対して責任を負わなければならないと述べ、ロンドンで開催されるAI安全サミットに先立ってこのような要求をしました。

アメリカカリフォルニア大学バークレー校のStuart Russell氏(昨日公開されたAI政策提案の一部を構成した23人の専門家の1人)は、安全なAIの実現方法を理解する前にますます強力なAIシステムを開発することは「まったく無謀」と呼びました。

提案された政策には、政府や企業がAIの研究開発リソースの33%を安全で倫理的なAIの利用に注力することが含まれます。

また、AIモデルで危険な機能を発見した企業は、特定のセーフガードを採用する必要があります。 The Guardian (U.K.)より 全文を読む

要約著作権 ©2023 SmithBucklin、アメリカ合衆国ワシントンD.C.

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AIニュース

「学生向けの最高のAIツール(2023年9月)」

人工知能(AI)は、教育においてさまざまな応用があります。インタラクティブなバーチャル教室の開発、”スマートコンテ...

機械学習

ニューラルネットワークにおける活性化関数の種類

ニューラルネットワークの活性化関数は、ディープラーニングの重要な部分であり、トレーニングモデルの精度と効率を決定しま...

AI研究

「産業界が音声AIを活用して消費者の期待に応えている方法」

急速な技術の進歩のおかげで、消費者は前例のないほどの便利さと効率性に慣れてきました。 スマートフォンを使えば、商品を検...

人工知能

「KaggleのAIレポート2023で未来にダイブしよう - ホットなトレンドをチェックしよう」

「AIの世界について学んだことについて、世界最大のデータサイエンスと機械学習コミュニティに飛び込んでください」

AI研究

「研究者がChatGPTを破った方法と、将来のAI開発に与える可能性」

「研究者たちは、ChatGPT、Bard、およびClaudeのセーフティガードレールを一連の敵対的攻撃で迂回しました」

AI研究

スタンフォードの研究者が提案する「EVAPORATE:言語モデルの推論コストを110倍削減する新しいAIアプローチ」

近年、大型言語モデルは常に注目を浴びています。彼らの非凡な能力と様々な分野での応用により、新しい研究論文やLLMの新しい...