責任あるAI進歩のための政策アジェンダ:機会、責任、セキュリティ
Policy Agenda for Responsible AI Progress Opportunity, Responsibility, Security.
Googleは、責任あるAI進歩の方針提言に関するホワイトペーパーを公開しています。
Google I/OでSundarが述べたように、AIの成長は、私たちが見た技術の変化と同じくらい大きなものです。今日のAIモデルの進歩は、情報に対する新しい関与の方法を作り出すだけでなく、適切な言葉を見つけたり、新しい場所を発見するだけでなく、人々が完全に新しい科学的および技術的な地盤を築くのを助けています。
私たちは、数十億人の人々の生活を大幅に改善し、企業が繁栄し成長するのを手助けし、社会が最も難しい問題に答えるのを支援する方法を再考することを許された新しい時代の扉に立っています。同時に、私たちは皆、AIにはリスクと課題があることを明確に認識しなければなりません。
この背景を踏まえ、私たちは他者と共に大胆かつ責任ある進歩を目指すことを約束しています。
技術進歩を止めることを求める呼びかけは、成功することはなく、AIの重要な利点を見逃し、その可能性を受け入れるものに後れを取るリスクがあります。代わりに、我々は政府、企業、大学などの広範な取り組みが必要です。それにより、技術的な突破口を広範囲に利益に変え、リスクを軽減しながら、AIを活用した新しい機会を生み出すことができます。
私が数週間前に責任あるAI進歩の共有アジェンダが必要であることを述べたとき、個々のプラクティス、共有業界標準、そして健全な政府政策がAIを正しく導くために必要であると述べました。今日、私たちはAIに関する政策提言を含むホワイトペーパーを発表し、政府に対して3つの重要な分野に焦点を当てるよう呼びかけています。それは、機会の開放、責任の促進、およびセキュリティの強化です。
1. AIの経済的な約束を最大限に活用することによる機会の開放
AIを受け入れる経済は、採用が遅い競合他社を圧倒するほど大きな成長を見ることになるでしょう。 AIは、多様な業界がより複雑で価値の高い製品やサービスを生産するのを助け、人口の増加にもかかわらず生産性を向上させるのに役立ちます。 AIは、AIで動く製品やサービスを使用してイノベーションや成長を促進する中小企業、および非ルーチン的でより報酬の高い仕事に焦点を当てることができる労働者の両方を支援することを約束しています。
正しい方法を見つけるためには: AIが提供する経済的機会を開放し、労働力の混乱を最小限に抑えるために、政策立案者はイノベーションと競争力に投資し、責任あるAIのイノベーションをサポートする法的枠組みを促進し、AIによる雇用の移行に備えます。たとえば、政府は国立研究所や研究機関を通じて基礎的なAI研究を探求し、責任あるAI開発を支援する政策を採用する(個人情報を保護し、国境を越えた信頼できるデータフローを可能にするプライバシー法を含む)、継続的な教育、スキルアッププログラム、主要な人材の移動、および将来の仕事の進化に関する研究を促進する必要があります。
2. 不適切な使用のリスクを減らしながら責任を促進すること
AIは既に疾患から気候変動までの課題に取り組むのを助けており、進歩のための強力な力となる可能性があります。しかし、責任を持って開発および展開されない場合、AIシステムは、誤情報、差別、およびツールの誤用などの現在の社会問題を増幅する可能性があります。また、AIシステムに対する信頼と信頼がなければ、企業や消費者はAIを採用することに躊躇するため、AIの利点を限定することになります。
正しい方法を見つけるためには: これらの課題に対処するには、多数のステークホルダーが参加するガバナンスのマルチステークホルダー・アプローチが必要です。インターネットの経験から学ぶことを通じて、ステークホルダーは潜在的な利点と課題の健全な把握で協力することが必要です。一部の課題は、AIの利点とリスクをよりよく理解し、それらを管理する方法についての基礎的な研究が必要であり、解釈可能性や透かしのような新しい技術革新を開発および展開することが必要です。他の課題は、AI技術が責任を持って開発および展開されるように、共通の標準と共有のベストプラクティスと比例的なリスクに基づく規制を開発することによって最良に対処することができます。その他には、新しい組織や機関が必要になる場合があります。たとえば、主要企業がAIグローバルフォーラム(GFAI)を形成し、テロリズム対策のためのグローバルインターネットフォーラム(GIFCT)のような以前の例に続くことができます。民主主義の価値を反映し、分裂を避ける共通の政策アプローチを開発するには、国際的な調整も不可欠です。
3. 悪意のあるアクターがこの技術を悪用するのを防ぎながら、グローバルセキュリティを強化すること
AIは、グローバルセキュリティと安定性に重要な影響を与えます。生成型AIは(または誤情報や操作されたメディアを特定および追跡することができますが)、mis-およびdis-informationや操作されたメディアを作成するのに役立ちます。 AIベースのセキュリティ研究は、高度なセキュリティオペレーションと脅威インテリジェンスを通じて、新しい世代のサイバー防御を推進しています。一方、AIによって生成されたエクスプロイトは、敵対勢力によるより洗練されたサイバー攻撃を可能にする可能性があります。
正しい方法を見つけるためには: 最初に、悪意のあるAIの使用を防ぐための技術的および商用のガードレールを設置し、AIの潜在的な利点を最大限に活用しながら、悪質なアクターに対処するために協力して取り組むことが必要です。たとえば、政府は、セキュリティリスクと見なされるAIパワードソフトウェアの特定のアプリケーションや、グローバルセキュリティに脅威を与える可能性があるAI関連の研究および開発を支援する特定のエンティティに対する次世代の貿易制御政策を探索する必要があります。政府、学術界、市民社会、企業は、ますます強力なAIシステムの示唆するものを理解する必要があり、複雑なAIを人間の価値と調和させる方法を見つける必要があります。セキュ
最終的な考え
潜在的な課題に完全に認識しつつ、機会、責任、セキュリティの主要な柱に焦点を当てた政策が、AIの利点を引き出し、その利点がすべての人々に共有されることを確信しています。
以前に述べたように、AIは規制されないことがあまりにも重要であるため、規制されるべきです。シンガポールのAI Verifyフレームワークから、英国のAI規制のプロイノベーションアプローチ、アメリカの国立標準技術研究所のAIリスク管理フレームワークまで、私たちは世界中の政府がこれらの新しい技術のための適切な政策枠組みに真剣に取り組んでいることを喜んでいます。そして、私たちはその取り組みを支援することを楽しみにしています。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles