「安全で安心なAIに対する取り組みに基づいて行動する」
『安全かつ安心なAIに対する取り組みに基づく行動』
サイバー脅威は急速に進化しており、最も大きな脆弱性は企業や製品メーカーではなく、外部のセキュリティ研究者によって発見されることがあります。そのため、私たちは長い歴史を持ち、共同のセキュリティをサポートしてきました。その一環として、脆弱性報奨プログラム(VRP)、Project Zero、オープンソースソフトウェアのセキュリティ の分野での取り組みをサポートしています。また、今年初めに白宮で他の主要なAI企業と共に行動することを誓約し、AIシステムの脆弱性の発見を進めるための取り組みに参加しました。
本日、私たちはVRPを拡大して、生成AIに特化した攻撃シナリオに報奨を与えることにしました。これにより、AIの安全性とセキュリティに関する研究が奨励され、潜在的な問題が明らかにされ、結果的にAIがより安全になることが期待されます。また、AI供給チェーンのセキュリティに関する情報を普遍的に発見可能で検証可能にするために、オープンソースセキュリティの取り組みを拡大しています。
新しい技術には新しい脆弱性報告ガイドラインが必要です
AIのためのVRPを拡大する一環として、バグを分類し報告する方法について見直しています。生成AIは従来のデジタルセキュリティとは異なる心配事を引き起こす可能性があります。公正なバイアス、モデル操作、データの誤解釈(幻覚)などが挙げられます。私たちは引き続き生成AIをさらなる製品や機能に統合していく中で、信頼性と安全性のチームは長年の経験を活かし、これらの潜在的なリスクをより良く予測しテストするために包括的なアプローチを取っています。しかし、外部のセキュリティ研究者によって私たちの生成AI製品のさらなる安全性とセキュリティが向上する新しい脆弱性が見つかることを期待しています。今年8月には、私たちは白宮と業界のパートナーと連携して、DEF CONの最大規模のGenerative AI Red Teamイベントで数千人のセキュリティ研究者が潜在的な問題を見つけられるようにしました。今回、バグ報奨プログラムを拡大し、セキュリティ研究者にハンティングしてほしい追加ガイドラインを公開することで、どの領域に対応すべきかを誰でも確認できるようにしています。これにより、セキュリティ研究者がさらに多くのバグを報告し、より安全でセキュアな生成AIの目標を加速させることを期待しています。
- 「GoogleのAIの驚異的な進化、GeminiとゲームチェンジャーのStubbsを紹介します」
- バイデン大統領、優れたアメリカの科学者、技術者、イノベーターに敬意を表する
- 学生と教授たちは、建物のセンサーに抗議しています
AI供給チェーンを強化する2つの新しい方法
Secure AI Framework(SAIF)を導入し、業界が信頼性のあるアプリケーションを作成できるように支援し、AI red teamingを通じて実装を促しています。SAIFの第一の原則は、AIエコシステムに強力なセキュリティ基盤を確保することであり、それは機械学習(ML)を可能にする重要な供給チェーンのコンポーネントをモデルの改竄、データの毒化、そして有害なコンテンツの制作などの脅威から保護することを意味します。
本日、機械学習の供給チェーン攻撃に対する保護をさらに強化するために、私たちはオープンソースセキュリティの取り組みを拡大し、以前のオープンソースセキュリティ財団との共同作業を展開しています。Googleオープンソースセキュリティチーム(GOSST)は、SLSAおよびSigstoreを活用し、AI供給チェーンの総体的な完全性を保護しています。SLSAは、サプライチェーンの強靭性を向上させるための一連の基準と制御を含み、Sigstoreはサプライチェーン内のソフトウェアが主張するものと一致していることを検証します。そして今日、私たちはSigstoreによるモデル署名の最初のプロトタイプと、SLSAによるアテステーションの検証の提供を発表しました。
安全で安全な発展を確保するための初期段階です。私たちは、この仕事が始まったばかりであることを知っています。私たちの希望は、より多くのセキュリティ研究を促進すると同時に、AIに供給チェーンのセキュリティを適用することで、オープンソースセキュリティコミュニティや他の業界とのさらなる協力を引き起こし、結果としてAIをより安全にするお手伝いをすることです。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 「スマートフォンのアタッチメントが神経学的スクリーニングにおける人種公平性の向上につながる可能性がある」
- 「AI企業は、彼らが引き起こす損害について責任を負わなければならない」と『ゴッドファーザー』が言う
- 「Google DeepMindが、ソーシャルおよび倫理的なAIリスク評価のための人工知能フレームワークを提案」
- 事前訓練された視覚表現は、長期的なマニピュレーションの解決にどのように役立つのでしょうか? ユニバーサルビジュアルデコンポーザー(UVD)に会ってみてください:ビデオからサブゴールを識別するためのすぐに利用できる方法
- 文書解析の革命:階層構造抽出のための最初のエンドツーエンドトレーニングシステム、DSGに出会ってください
- エネルギー省が新興技術を加速させます
- 「人気コンテストをごまかすためのGitHubのブラックマーケット」