「AIセキュリティへの6つのステップ」

6 Steps to AI Security

ChatGPTの登場に伴い、すべての企業がAI戦略を考えようとしており、その作業にはすぐにセキュリティの問題が浮かび上がります。新しい技術のセキュリティを確保することに圧倒されるかもしれませんが、現在のポリシーとプラクティスは優れた出発点を提供しています。

実際には、エンタープライズとクラウドセキュリティの既存の基盤を拡張することが前進の道です。以下の6つのステップで要約できる旅です:

  • 脅威の分析を拡大する
  • 対応メカニズムを広げる
  • データ供給チェーンを保護する
  • AIを使用して取り組みを拡大する
  • 透明性を持たせる
  • 持続的な改善を作り出す
AIセキュリティは、企業が既に頼りにしている保護策を基に構築されます。

展望を広げる

最初のステップは、新しい状況に慣れることです。

セキュリティは、AIの開発ライフサイクルもカバーする必要があります。これには、トレーニングデータ、モデル、それらを使用する人々とプロセスなど、新しい攻撃対象が含まれます。

既知の脅威のタイプから推測し、新たに現れる脅威を特定するために展開します。たとえば、攻撃者は、クラウドサービスでモデルのトレーニング中にデータにアクセスしてAIモデルの振る舞いを変更しようとするかもしれません。

過去に脆弱性を調査したセキュリティ研究者やレッドチームは、再び素晴らしいリソースとなります。彼らはAIシステムとデータへのアクセスが必要であり、新たな脅威を特定し対処するだけでなく、データサイエンススタッフとの堅固な協力関係の構築にも役立ちます。

防御を広げる

脅威の全体像が明確になったら、それに対抗する方法を定義します。

AIモデルのパフォーマンスを密接にモニタリングします。それはドリフトする可能性があり、新たな攻撃対象を開く可能性があることを前提として、従来のセキュリティ防御が侵害されることも前提としています。

また、既に存在するPSIRT(製品セキュリティインシデント対応チーム)のプラクティスを基に構築します。

たとえば、NVIDIAはAIポートフォリオを包括する製品セキュリティポリシーを公開しました。Open Worldwide Application Security Projectなどのいくつかの組織は、従来のITの脅威を特定するために使用される共通脆弱性列挙法など、主要なセキュリティ要素のAI向け実装をリリースしています。

ネットワークの制御とデータプレーンを分離する

  • 安全でない個人識別データを削除する
  • ゼロトラストセキュリティと認証を使用する
  • 適切なイベントログ、アラート、テストを定義する
  • 適切なフローコントロールを設定する
  • 既存の保護策を拡張する

    AIモデルのトレーニングに使用されるデータセットを保護します。それらは貴重であり、脆弱です。

    ここでも、企業は既存のプラクティスを活用できます。ソフトウェアのチャネルを保護するために作成されたセキュアなデータ供給チェーンを作成します。トレーニングデータのアクセス制御を確立することは重要です。

    一部のギャップを埋める必要があるかもしれません。現在、セキュリティ専門家は、アプリケーションのハッシュファイルを使用して、コードが改ざんされていないことを確認します。このプロセスは、AIトレーニングに使用されるペタバイト規模のデータセットに対してスケーリングすることは難しいかもしれません。

    良いニュースは、研究者がその必要性に気付いており、それに対処するためのツールを開発しているということです。

    AIでセキュリティを拡大する

    AIは防御する新たな攻撃領域だけでなく、新たな強力なセキュリティツールでもあります。

    機械学習モデルは、ネットワークトラフィックの山に人間が見ることのできない微細な変化を検出することができます。これにより、AIはアイデンティティ盗難、フィッシング、マルウェア、ランサムウェアなど、最も広く使用される攻撃の多くを防ぐための理想的なテクノロジーとなります。

    サイバーセキュリティフレームワークであるNVIDIA Morpheusは、多くの種類の脅威をスキャンするデジタルフィンガープリントを作成、読み取り、更新するAIアプリケーションを構築することができます。さらに、生成AIとMorpheusは、スピアフィッシングの試みを検出するための新しい方法を可能にすることができます。

    機械学習は、セキュリティにおける多くのユースケースで強力なツールです。

    セキュリティは明確さを好む

    透明性はセキュリティ戦略の重要な要素です。新しいAIセキュリティポリシーや実践について顧客に知らせましょう。

    たとえば、NVIDIAは加速ソフトウェアのハブであるNGCのAIモデルに関する詳細を公開しています。モデルカードと呼ばれるこれらの詳細は、AI、トレーニングに使用されたデータ、使用の制約などを説明する貸付行為に似たものです。

    NVIDIAは、ユーザーがニューラルネットワークを本番環境に導入する前に、そのネットワークの歴史と制限が明確になるよう、拡張されたフィールドを使用しています。これにより、セキュリティの向上、信頼の確立、およびモデルの堅牢性が確保されます。

    目的地ではなく、旅を定義する

    これらの6つのステップは、旅の始まりに過ぎません。このようなプロセスやポリシーは進化する必要があります。

    たとえば、機密コンピューティングの新しい実践では、AIモデルが頻繁に訓練および本番実行されるクラウドサービス全体にセキュリティを拡張しています。

    業界では既にAIモデル用の基本的なコードスキャナーが見られるようになっています。これらは今後の兆候です。チームは、到着するベストプラクティスやツールに対して常に注視する必要があります。

    途中で、コミュニティは学んだことを共有する必要があります。最近のジェネレーティブレッドチームチャレンジでは、それが優れた例として示されました。

    結局のところ、共同防衛を作り上げることが重要です。私たちは皆、AIセキュリティの旅を一歩ずつ共に進んでいます。

    We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

    Share:

    Was this article helpful?

    93 out of 132 found this helpful

    Discover more

    機械学習

    「トランスフォーマーの単純化:あなたが理解する言葉を使った最先端の自然言語処理(NLP)— パート1 — イントロ」

    「トランスフォーマーは、AIの進歩に大きく貢献したディープラーニングのアーキテクチャですそれはAIとテクノロジー全体の範...

    機械学習

    「リトリーバル増強生成によるジェネラティブAIの最適化:アーキテクチャ、アルゴリズム、およびアプリケーションの概要」

    この記事はAIの専門家を対象にし、AIのアーキテクチャー、トレーニング、そして応用に焦点を当てて検討します

    AIニュース

    GoogleがAI搭載の文法チェッカー機能を追加:有効にする方法を学びましょう

    オンラインの世界に波紋を広げる動きとして、Googleが静かに新しいツールを発表しました。このツールは、あなたの言語力を洗...

    データサイエンス

    「AI開発でこれらのミスを com しないでください」

    「品質の高いAIデプロイメントを開発するには、準備が全体の90%を占めます以下に、最高のAIモデルを開発するために注意すべ...

    AIニュース

    KubernetesでのGenAIアプリケーションの展開:ステップバイステップガイド

    このガイドは、高い可用性のためにKubernetes上でGenAIアプリケーションを展開するための包括的で詳細な手順を提供します

    機械学習

    Google AIは、アクティブノイズキャンセリング(ANC)ヘッドフォンのための人工知能搭載の革新的な心臓モニタリングモダリティである音響脈波計(APG)を導入します

    コンシューマーエレクトロニクスと健康技術の分野において、活発なノイズキャンセリング(ANC)ウェアラブルに健康モニタリン...