「AI規制に反対する理論は無意味である」
Opposing theories on AI regulation are meaningless.
意見
ヨーロッパは正しい道を進んでいます – 世界の他の国もそれに続くべきです
2022年末にOpenAIがChatGPTをリリースして以来、Generative Artificial Intelligence(生成型人工知能)とそれが創り出す未来について世界中で話題になっています。資本主義のファンは、この技術をプラスの要素と見なしており、デジタル世界の論理的な発展であり、一握りの人々に莫大な富をもたらしたと考えています。一方、懐疑的な人々は80年代のSFの傑作を思い出し、我々が自分たち自身のHAL / SHODAN / Ultron / SkyNet / GLaDOSを作り出す途中にいるのではないかと恐れています。
これらは少数派の声です。Generative Artificial Intelligenceが提供する可能性を示された多くの人々は、技術が単なるツールであり、独自の意思を持たないことを理解しています。その責任は、それを「善」に使うユーザーにあるのです。そして、それが不可能である場合、「善」は本質的に主観的であるため、民主政府が介入して規制する必要があります。
これがどのように行われるのか(行われるべきなのか)はまだ激しく議論されています。欧州連合(EU)が提案したAI法案が最初に登場しました。それは完璧な初稿ではありませんが、テックビリオネアたちに決定権を与えずに、高度に破壊的な技術を管理しようとする真の試みです。以下に、提案された法律の概要とその規制の利点と欠点を示します。
EUのAI法案には何が含まれているのか
AI法案はリスクを議論の中心に置いています。「新しいルールは、人工知能によるリスクのレベルに応じて、プロバイダーやユーザーに義務を課します。多くのAIシステムは最小限のリスクをもたらしますが、それらは評価される必要があります」と述べています。
- 「AIコーディングツールが必要なエンジニアの数を減らすなら、予算をどこに使えばいいのか?」
- 「誰が勝ち、誰が負けるのか? AIコーディングツールが異なるタイプのビジネスにどのような影響を与えるのか」
- 「両方の世界のベスト:人間の開発者とAIの協力者」
- 行動操作、リアルタイムおよび遠隔生体計測、ソーシャルスコアリングなどの「受け入れられない」リスクをもたらすAIは禁止されます
- 法執行、教育、移民などに関連する高リスクのAIシステムは、「市場に出る前およびその後も評価される必要があります」
- 限定的なリスクのAIシステムは、「ユーザーが情報を元に意思決定をすることができる最低限の透明性要件を満たす必要があります」
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles