元Google CEO、現在のAIガードレールは十分ではないと警告

元Google CEO、現在のAIガードレールの十分性に警鐘

アクシオスのAI +サミット中、元Google CEOのEric Schmidt氏は、現在のAIのガードレールは危害を防ぐのに十分ではないと警告しました。元Googleの最高経営責任者は、人工知能の開発を第二次世界大戦中の核兵器の導入に例えました。

Schmidt氏は、話す中で、企業がAI搭載製品に追加しているAIのガードレールは「十分ではない」と述べ、潜在的な危険に対処するためのものではないと述べました。彼の見解では、人類は次の10年から5年以内に関与する可能性があります。

AIがグローバルに拡大し続けていることから、AIの安全性は重要な問題として取り上げられてきました。さまざまな統治機関は、AIやデータプライバシー、安全性、その他の危険に関連する懸念を取り組む試みを行ってきました。

AIの開発について、Schmidt氏は核兵器の開発と比較しました。彼は「長崎と広島の後、テスト禁止に関する条約などに18年かかりました。我々は今日、その種の時間を持っていません。」と述べました。

彼の視点では、「コンピュータが自分自身の決定を始める」段階で危険が到来します。これは、AIが兵器システムや他の防衛システムに統合されていくにつれて、さらに敏感になります。

では、AIの安全性を確保するためにはどのような対策が必要ですか?Eric Schmidt氏の見解では、気候変動に関する政府間パネル(IPCC)に似た、グローバルな組織が必要であり、政策立案者に正確な情報を提供する役割を果たすことが重要です。

そのような組織があれば、世界中の政策立案者はAIに関連する合理的な意思決定に必要な情報を得ることができます。EricはAIについて心配しているものの、彼は依然として技術に対して楽観的な見方を持っています。

特に、AIが全人類にとって「ネットの利益」となる可能性について語りました。「AIの医師やAIのチューターが否定的なものであると主張することはできません。それは世界のために良いことになるはずです。」Eric Schmidt氏のAIに対する見解はユニークではありません。

今年、テクノロジーの内外で、AIに対する大きな責任と安全性の研究を求める専門家たちが声を上げてきました。一部の人々は、GPT-4よりも強力なLLMの研究を一時停止するよう陳情すらしました。

2023年はAIの普及の年でしたが、2024年はAIの安全性の年になるかもしれません。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more