「脳科学の専門家が「ニューロシールド」の導入を呼びかけている」
A neuroscientist calls for the introduction of NeuroShield.
ライス大学のベイカー公共政策研究所の論文によれば、神経科学の専門家は、AIに対するデジタル自己防衛システムの「緊急」な必要性があると主張しています。これは、AIの安全性に焦点を当てたAI規制への要望が高まっている時期に行われています。
ベイカー研究所の脳健康の研究員であるハリス・エアは、高度なAIを規制するための手順が必要であると述べました。彼はまた、AIを活用したソーシャルメディアについても言及し、AIの「ハッキング」と呼ばれるものが人間関係や集合知を害する可能性があるため、人々を保護する必要があると述べました。
論文の中で、ハリス・エアはAIが世界をつなげたと同時に多くの他の問題も指摘しています。彼は一部で次のように記しています。「そのような技術は、世界全体をデバイスにもたらし、個人とコミュニティの成就に十分な機会を提供しますが、現実を歪め、虚偽の幻想を作り出すこともあります」と。
しかし、彼の懸念は現実の見方以上のものであり、彼は社会に与えるマクロな影響についても指摘しています。「ディス・インフォメーションやミスインフォメーションを広めることにより、ソーシャルメディアとAIは私たちの民主主義の機能に直接的な挑戦を投げかけています」と述べました。
最大の懸念の一つは、ディープフェイクに関連しています。エアは、AIの虐待的な使用から市民を保護するために、神経科学に基づいた政策を設計する「緊急」な必要性があると主張しています。彼の見解では、「神経シールド」と呼ばれます。
彼は次のように述べています。「私たちが周りの現実を解釈し、学び、反応する方法は、私たちの脳の配線方法に依存します… 技術の急速な発展を考慮すると、高次の認知機能に責任を持つ新皮質の領域の発達に十分な時間が与えられていないと主張されています。その結果、私たちは生物学的に脆弱で露出しています」と。
神経シールドの機能は、三つのアプローチを通じて行われます。まず、情報客観性に関する行動規範の開発。次に、規制上の保護策の実施。そして最後に、市民のための教育ツールキットの作成です。
エアは、出版社、ジャーナリスト、メディアリーダー、意見リーダー、脳科学者の協力により、「情報の客観性を支持する行動規範」を形成することができると主張しています。「神経科学が示すように、事実の理解にあいまいさがあると、私たちの脳に強くエンコードされる『代替の真実』が生まれる可能性があります」と彼は説明しています。
今週、Google、Microsoft、OpenAIなどのテック企業が集結し、先進的なAIの安全性に焦点を当てた業界団体を設立しました。中国では、政府が既にディープフェイクへの透かしやスタートアップや企業が従う必要のある規制フレームワークを通じてAIの規制に取り組んでいます。
編集者の注:責任あるAIはAIの発展において重要なトピックとなっており、最新の動向について知りたい場合は、業界のリーダーからの情報を入手する必要があります。ODSC West 2023 マシンラーニングの安全性とセキュリティのトラックでそれを手に入れることができます。席を確保して今日登録してください。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles