Googleの安全なAIフレームワークを紹介します
Introducing Google's secure AI framework.
AIの潜在能力、特に生成型AIの可能性は広大です。しかし、この技術を責任ある方法で構築および導入するためには、明確な業界セキュリティ標準が必要です。今日は、セキュアAIフレームワーク(SAIF)を紹介することを誇りに思います。これは、セキュアなAIシステムのための概念的なフレームワークです。
- SAIFの概要については、このPDFをクリックしてください。
- 実践者がSAIFを実装する方法の例については、このPDFをクリックしてください。
なぜ今、SAIFを導入するのか
SAIFは、ソフトウェア開発に適用されているセキュリティのベストプラクティス(レビュー、テスト、およびサプライチェーンの制御など)に着想を得ています。また、AIシステムに特有のセキュリティのメガトレンドやリスクについての理解を取り入れています。
公共および私的セクターを横断するフレームワークは、責任ある行為者がAI進展を支援する技術を保護するために不可欠であり、AIモデルが実装されたときには、セキュリティがデフォルトで保護されています。今日は重要な第一歩です。
Googleでは、サイバーセキュリティに対してオープンかつ協力的なアプローチを取り入れてきました。これには、フロントラインのインテリジェンス、専門知識、およびイノベーションを組み合わせ、他の人と脅威情報を共有してサイバー攻撃に対処し、予防するための取り組みが含まれます。このアプローチを基に、SAIFは、モデルの窃盗、トレーニングデータのデータ汚染、プロンプトインジェクションを介した悪意のある入力の注入、およびトレーニングデータ内の機密情報の抽出など、AIシステムに固有のリスクを軽減するために設計されています。AIの能力が世界中の製品にますます統合されるにつれて、大胆で責任あるフレームワークに従うことが、より重要になるでしょう。
それでは、SAIFとその6つの主要な要素を見てみましょう。
1. AIエコシステムに強力なセキュリティ基盤を拡大する
これには、過去20年間に構築されたセキュリティによるデフォルトのインフラ保護と専門知識を利用して、AIシステム、アプリケーション、およびユーザーを保護することが含まれます。同時に、AIの進歩に適応し、AIおよび進化する脅威モデルの文脈でインフラ保護を拡大および適応させるための組織的な専門知識を開発します。たとえば、SQLインジェクションのようなインジェクション技術は、長い間存在しており、入力のサニタイズと制限などの緩和策を適応することで、プロンプトインジェクションスタイルの攻撃に対してより良い防御が可能です。
2. 検出および対応を拡張してAIを組織の脅威ユニバースに組み込む
タイムリーなAI関連のサイバーインシデントの検出と対応は重要であり、脅威インテリジェンスおよびその他の機能を組織に拡張することで、両方を改善することができます。組織にとっては、異常を検出するために生成型AIシステムの入出力を監視し、脅威インテリジェンスを使用して攻撃を予測することが含まれます。この取り組みには、信頼性と安全性、脅威インテリジェンス、およびカウンター乱用チームとの協力が通常必要です。
3. 既存および新しい脅威に適応して防御を自動化する
最新のAIイノベーションは、セキュリティインシデントへの対応の規模と速度を向上させることができます。アドバーサリーはAIを使用して影響を拡大する可能性が高いので、AIおよびその現在および新しい能力を使用して、それらに対して素早くコスト効果的に保護することが重要です。
4. プラットフォームレベルの制御を調和させて、組織全体で一貫したセキュリティを確保する
制御フレームワークの一貫性は、AIリスク軽減をサポートし、異なるプラットフォームやツールに対してスケーラブルかつコスト効率的に最高の保護が利用可能になるようにするために、異なるプラットフォームやツールに対してスケーラブルかつコスト効率的に最高の保護が利用可能になるようにするために、異なるプラットフォームやツールに対してスケーラブルかつコスト効率的に最高の保護が利用可能になるようにするために必要です。Googleでは、安全にデフォルトで保護する機能をVertex AIやSecurity AI WorkbenchなどのAIプラットフォームに拡張し、ソフトウェア開発ライフサイクルにコントロールと保護を組み込んでいます。Perspective APIのような一般的なユースケースに対応する機能は、最先端の保護を全組織で利用できるようにするのに役立ちます。
5. 制御を適応させて緩和策を調整し、AIの展開に対するより速いフィードバックループを作成する
実装の常時テストによる継続的な学習によって、変化する脅威環境に対応する検出および保護能力が確保されます。これには、インシデントとユーザーフィードバックに基づく強化学習などの技術が含まれ、トレーニングデータセットの更新、攻撃に戦略的に対応するようモデルを微調整する手順、モデルを構築するために使用されるソフトウェアがコンテキストにおいてさらなるセキュリティを埋め込むこと(例えば、異常な行動を検出すること)が含まれます。組織はまた、AIを活用した製品や能力の安全保証を向上させるために、定期的なレッドチーム演習を実施することができます。
6. AIシステムのリスクを周囲のビジネスプロセスに関連付ける
最後に、組織がAIを展開する方法に関連するエンドツーエンドのリスクアセスメントを実施することで、意思決定に役立てることができます。これには、データ系譜、検証、特定のアプリケーションに対する運用行動モニタリングなど、エンドツーエンドのビジネスリスクの評価が含まれます。さらに、組織は、AIのパフォーマンスを検証するための自動化されたチェックを構築する必要があります。
どうして私たちは安全なAIコミュニティを支援するのか
私たちは長年にわたり、セキュリティ基準を高め、全体的なリスクを減らすための産業フレームワークを提唱してきました。私たちは、ソフトウェアサプライチェーンの整合性を向上させるためのSupply-chain Levels for Software Artifacts(SLSA)フレームワークの発表に向けて他者と協力し、BeyondCorpアクセスモデルの先駆的な取り組みは、現在の業界標準となっているゼロトラスト原則につながりました。これらと他の取り組みから学んだことは、長期的に成功するためには、支援と推進をするコミュニティを構築する必要があるということです。そのため、私たちは、SAIFコミュニティを誰にでも開放するための最初のステップを発表することに興奮しています。
GoogleがSAIFを実行する方法
私たちは、すでにすべての人のために機能するフレームワークを支援し、推進するための5つのステップを踏んでいます。
- SAIFに対する産業支援を促進するために、今後数か月以内に主要パートナーや貢献者を発表し、NIST AIリスクマネジメントフレームワークやISO/IEC 42001 AIマネジメントシステム標準(業界初のAI認定標準)の開発を支援し続け、業界と関わりを持っています。これらの標準は、NISTサイバーセキュリティフレームワークおよびISO/IEC 27001セキュリティマネジメントシステムにおけるセキュリティの原則に強く依存しており、GoogleはAIなどの新興技術に適用可能な計画されたアップデートを確実にするために参加します。これらの標準は、SAIFの要素と一致しています。
- 顧客や政府を含む組織と直接協力し、AIのセキュリティリスクを評価し、軽減する方法を理解するのに役立ちます。これには、実践者とのワークショップの実施や、AIシステムを安全に展開するためのベストプラクティスの継続的な発行が含まれます。
- MandiantやTAGなどのGoogleの著名な脅威インテリジェンスチームからの洞察を共有することで、AIシステムに関わるサイバー活動について学びます。Googleの実践者がどのように生成型AIを活用して、脅威をより早く特定し、手間を減らし、セキュリティの人材不足に対処しているかについては、こちらをご覧ください。
- バグハンタープログラムを拡大することで(脆弱性報奨プログラムを含む)、AIの安全性とセキュリティに関する研究を報奨し、促進します。
- GitLabやCohesityなどのパートナーと共に、安全なAIオファリングを継続的に提供し、顧客が安全なシステムを構築するのを支援する新しい機能をさらに開発します。これには、オープンソースコミュニティへのコミットメントも含まれ、AIセキュリティのためにSAIF要素を実践するためのいくつかのオープンソースツールを近日中に公開する予定です。
私たちはSAIFを前進させるにつれ、AIを安全に利用するための研究や方法を共有し、探求することを続けます。私たちは、政府、産業、学術界と協力して、洞察を共有し、共通の目標を達成し、この非常に役立つ技術が誰にでも役立つようにし、社会として正しく取り組むことを約束します。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles