「AI企業は、彼らが引き起こす損害について責任を負わなければならない」と『ゴッドファーザー』が言う
『ゴッドファーザー』が言うとおり、「AI企業は、自身が引き起こす損害に責任を負わなければならない」

アートフィシャルインテリジェンス(AI)の「ゴッドファーザー」とされるGeoffrey Hinton氏とYoshua Bengio氏を含む一群の専門家は、AI企業は自社製品が引き起こす損害に対して責任を負わなければならないと述べ、ロンドンで開催されるAI安全サミットに先立ってこのような要求をしました。
アメリカカリフォルニア大学バークレー校のStuart Russell氏(昨日公開されたAI政策提案の一部を構成した23人の専門家の1人)は、安全なAIの実現方法を理解する前にますます強力なAIシステムを開発することは「まったく無謀」と呼びました。
提案された政策には、政府や企業がAIの研究開発リソースの33%を安全で倫理的なAIの利用に注力することが含まれます。
また、AIモデルで危険な機能を発見した企業は、特定のセーフガードを採用する必要があります。 The Guardian (U.K.)より 全文を読む
- 「Google DeepMindが、ソーシャルおよび倫理的なAIリスク評価のための人工知能フレームワークを提案」
- 事前訓練された視覚表現は、長期的なマニピュレーションの解決にどのように役立つのでしょうか? ユニバーサルビジュアルデコンポーザー(UVD)に会ってみてください:ビデオからサブゴールを識別するためのすぐに利用できる方法
- 文書解析の革命:階層構造抽出のための最初のエンドツーエンドトレーニングシステム、DSGに出会ってください
要約著作権 ©2023 SmithBucklin、アメリカ合衆国ワシントンD.C.
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles