「AI企業は、彼らが引き起こす損害について責任を負わなければならない」と『ゴッドファーザー』が言う

『ゴッドファーザー』が言うとおり、「AI企業は、自身が引き起こす損害に責任を負わなければならない」

テクノロジーの「ゴッドファーザー」を含むシニアエキスパートグループは、強力な人工知能システムが社会の安定を脅かしていると警告し、AI企業は自社製品によって引き起こされた損害に対して責任を負う必要があると述べました。 ¶ クレジット: ガーディアンデザイン/ゲティイメージズ

アートフィシャルインテリジェンス(AI)の「ゴッドファーザー」とされるGeoffrey Hinton氏とYoshua Bengio氏を含む一群の専門家は、AI企業は自社製品が引き起こす損害に対して責任を負わなければならないと述べ、ロンドンで開催されるAI安全サミットに先立ってこのような要求をしました。

アメリカカリフォルニア大学バークレー校のStuart Russell氏(昨日公開されたAI政策提案の一部を構成した23人の専門家の1人)は、安全なAIの実現方法を理解する前にますます強力なAIシステムを開発することは「まったく無謀」と呼びました。

提案された政策には、政府や企業がAIの研究開発リソースの33%を安全で倫理的なAIの利用に注力することが含まれます。

また、AIモデルで危険な機能を発見した企業は、特定のセーフガードを採用する必要があります。 The Guardian (U.K.)より 全文を読む

要約著作権 ©2023 SmithBucklin、アメリカ合衆国ワシントンD.C.

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI研究

イェール大学とGoogle DeepMindの研究者は、大規模な言語モデルに対する高度な微調整技術を使用して数学の問題解決の成功を解き明かしました

“`html 最も先進的な大型言語モデル(LLMs)であるGPT-4やPaLM 2でも、数学の問題を解くのは困難です。なぜなら、それ...

AI研究

NVIDIAの研究者が「Retro 48B」を導入:前の指示調整よりも前にリトリーバルが行われた最大のLLM Pretrained

NvidiaとIllinois大学の研究者は、「Retro 48B」という以前の検索増強モデル(Retro(7.5Bパラメータ)など)よりも遥かに大...

機械学習

Concrete MLと出会ってください:プライバシーの保護と安全な機械学習を可能にするオープンソースのFHEベースのツールキット

人工知能と機械学習は、過去数年間で驚異的な生産性の向上を示しています。機械学習は、すべてのプライバシーと機密性の手段...

コンピュータサイエンス

マルチマテリアルプリンターにより、柔軟なデバイスの迅速かつ簡単な3Dプリントが可能になります

研究者たちは、柔軟なデバイスを迅速に製造するためのマルチマテリアル3Dプリンターを開発しました

機械学習

NVIDIA H100 GPUがMLPerfベンチマークのデビューで生成型AIの標準を設定

主要のユーザーと業界標準のベンチマークによれば、NVIDIAのH100 Tensor Core GPUは特に生成型AIを駆動する大規模言語モデル...