「安全で安心なAIに対する取り組みに基づいて行動する」

『安全かつ安心なAIに対する取り組みに基づく行動』

サイバー脅威は急速に進化しており、最も大きな脆弱性は企業や製品メーカーではなく、外部のセキュリティ研究者によって発見されることがあります。そのため、私たちは長い歴史を持ち、共同のセキュリティをサポートしてきました。その一環として、脆弱性報奨プログラム(VRP)、Project Zero、オープンソースソフトウェアのセキュリティ の分野での取り組みをサポートしています。また、今年初めに白宮で他の主要なAI企業と共に行動することを誓約し、AIシステムの脆弱性の発見を進めるための取り組みに参加しました。

本日、私たちはVRPを拡大して、生成AIに特化した攻撃シナリオに報奨を与えることにしました。これにより、AIの安全性とセキュリティに関する研究が奨励され、潜在的な問題が明らかにされ、結果的にAIがより安全になることが期待されます。また、AI供給チェーンのセキュリティに関する情報を普遍的に発見可能で検証可能にするために、オープンソースセキュリティの取り組みを拡大しています。

新しい技術には新しい脆弱性報告ガイドラインが必要です

AIのためのVRPを拡大する一環として、バグを分類し報告する方法について見直しています。生成AIは従来のデジタルセキュリティとは異なる心配事を引き起こす可能性があります。公正なバイアス、モデル操作、データの誤解釈(幻覚)などが挙げられます。私たちは引き続き生成AIをさらなる製品や機能に統合していく中で、信頼性と安全性のチームは長年の経験を活かし、これらの潜在的なリスクをより良く予測しテストするために包括的なアプローチを取っています。しかし、外部のセキュリティ研究者によって私たちの生成AI製品のさらなる安全性とセキュリティが向上する新しい脆弱性が見つかることを期待しています。今年8月には、私たちは白宮と業界のパートナーと連携して、DEF CONの最大規模のGenerative AI Red Teamイベントで数千人のセキュリティ研究者が潜在的な問題を見つけられるようにしました。今回、バグ報奨プログラムを拡大し、セキュリティ研究者にハンティングしてほしい追加ガイドラインを公開することで、どの領域に対応すべきかを誰でも確認できるようにしています。これにより、セキュリティ研究者がさらに多くのバグを報告し、より安全でセキュアな生成AIの目標を加速させることを期待しています。

AI供給チェーンを強化する2つの新しい方法

Secure AI Framework(SAIF)を導入し、業界が信頼性のあるアプリケーションを作成できるように支援し、AI red teamingを通じて実装を促しています。SAIFの第一の原則は、AIエコシステムに強力なセキュリティ基盤を確保することであり、それは機械学習(ML)を可能にする重要な供給チェーンのコンポーネントをモデルの改竄データの毒化、そして有害なコンテンツの制作などの脅威から保護することを意味します。

本日、機械学習の供給チェーン攻撃に対する保護をさらに強化するために、私たちはオープンソースセキュリティの取り組みを拡大し、以前のオープンソースセキュリティ財団との共同作業を展開しています。Googleオープンソースセキュリティチーム(GOSST)は、SLSAおよびSigstoreを活用し、AI供給チェーンの総体的な完全性を保護しています。SLSAは、サプライチェーンの強靭性を向上させるための一連の基準と制御を含み、Sigstoreはサプライチェーン内のソフトウェアが主張するものと一致していることを検証します。そして今日、私たちはSigstoreによるモデル署名の最初のプロトタイプと、SLSAによるアテステーションの検証の提供を発表しました。

安全で安全な発展を確保するための初期段階です。私たちは、この仕事が始まったばかりであることを知っています。私たちの希望は、より多くのセキュリティ研究を促進すると同時に、AIに供給チェーンのセキュリティを適用することで、オープンソースセキュリティコミュニティや他の業界とのさらなる協力を引き起こし、結果としてAIをより安全にするお手伝いをすることです。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AIニュース

量子コンピューティングが薬物探索にどのように役立つか

量子コンピューティングはコストと時間を削減することを目指しています

AI研究

KAISTの研究者らが「SyncDiffusion」を提案:知覚的な類似度の損失関数から勾配降下法を使って複数の拡散を同期させるためのプラグアンドプレイモジュールです

最近の研究論文では、KAISTの研究者チームが、事前学習済みの拡散モデルを使用して、パノラマ画像の生成を向上させる画期的な...

人工知能

刑事弁護士が警告する:AIは、法廷が「自分たちの目を疑う」ことになる可能性がある

オーストラリアの連邦政府は、AI技術に関する新しい規制を検討しています

機械学習

Googleと一緒にジェネレーティブAIを学ぶ

「Googleの10の無料コースでGenerative AIを学びましょう拡散モデル、エンコーダ・デコーダアーキテクチャ、アテンションメカ...

データサイエンス

「バリー・ディラー対生成AI:著作権法的な戦い」

メディアの大物であるバリー・ディラー氏と一部の著名な出版社は、人工知能(AI)システムのトレーニングで公開された作品の...

AI研究

ETHチューリッヒとマイクロソフトの研究者らが提案したX-Avatarは、人間の体の姿勢と顔の表情をキャプチャできるアニメーション可能な暗黙の人間アバターモデルです

ポーズ、見つめること、表情、手のジェスチャーなど、総称して「ボディランゲージ」と呼ばれるものは、多くの学術的研究の対...