「明日のAIによるサイバーセキュリティの風景に備える」

Preparing for the landscape of AI-driven cybersecurity tomorrow.

モバイルおよびIoTセキュリティに特化したセキュリティ研究者であるAzeria Labsの創設者であるMaria Markstedterは、BlackHat 2023のオープニングキーノートスピーカーでした。キーノートのタイトルは「AI時代の守護者:明日のサイバーセキュリティの景色を航海する」でした。Markstedterは、人工知能が今後のサイバーセキュリティをどのように変革するかについて明快な見解を示しました。AIは多くの利点をもたらす一方で、開発者がシステムをセキュアにするために理解する必要がある新たな脅威ももたらします。

Markstedterによると、ChatGPTのようなAIチャットボットは一夜にして主流になりましたが、企業はこれらの外部サービスに機密データを公開することに対して正当な懸念を抱いています。そのため、社内AI開発プラットフォームの新しい市場が急速に出現しました。

これにより、AIアシスタントは生産性を向上させるために内部システムへの広範なアクセス権を持つようになります。しかし、自律的な意思決定能力は重要なセキュリティ上の問題を引き起こします。アイデンティティとアクセス管理が人間のユーザーをセキュアにするように、AIエージェントをセキュアにするために新たな安全対策が必要です。

画像、テキスト、音声などからデータを総合的に合成するマルチモーダルAIは、潜在的な攻撃面を指数関数的に拡大します。悪意のある指示は、どの入力チャネルにも見えない形で潜んでいるかもしれません。AIシステムのセキュリティを確保するには、現行の慣行を超えた包括的なデータ検証とサニタイズが必要です。

Sergienkoは、AIがインターネットデータを自動的に処理することで悪用される可能性があると警告しています。たとえば、新しいアプリを作成するよう指示されたAIエージェントが、バックドアを含むオンラインで見つかった任意のコードをダウンロードする可能性があります。外部データを取り込む能力は基本的ですが、同時に危険でもあります。

AIの意思決定は透明性に欠けているという重要な課題があります。開発者でさえ、応答の背後にある正確な論理を理解することができないことがよくあります。これは、結果の操作や障害のトラブルシューティングを検出することが不可能になるため、結論がどのように導かれるのかを明確にするために説明可能なAIが必要であることを強調しています。

Markstedterは、AIがセキュリティの仕事を置き換えるのではなく、セキュリティを強化するためにAIを活用できる専門家の価値が高まると述べています。AIシステムを操作しにくいように構築する能力を持つ開発者は、アルゴリズムの未来に私たちを導くために完璧な立場にあります。

積極的な開発者は、AIのためのゼロトラストネットワーキングの原則を取り入れ、堅固な入力検証を行い、AIサンドボックスを展開し、異常を監視し、エッジケースを厳密にテストするという原則を取り入れるべきです。クリエイティブなハッカーは、開発者がまだ想像できない方法でAIを騙す方法を見つける可能性が高いです。

彼女は、AIがセキュリティの仕事を置き換えるのではなく、AIを利用してサイバーセキュリティを強化する能力を持つ専門家の価値が高まると結論付けました。操り人形化されない堅牢な機械学習システムを構築する能力を持つ開発者は、アルゴリズムの未来に私たちを導くために完璧な立場にあります。

さらに深く掘り下げると、キーノートの中心テーマは、「AIを世界から保護する」ということであり、セキュリティと安全性を確保する必要があります。リアルタイムで制御されないデータを取り込むAIエージェントは、悪用に対して強化された防御策が必要です。

開発者向けの具体的な推奨事項は以下の通りです:

  • AIを公共のインターネットから隔離し、WAF、DLPシステム、およびサンドボックス環境などのセキュリティスタックを介して入力をフィルタリングする。
  • 異常を示すアノマリを検出するために、APIコール、データベースクエリ、およびAIシステム内の情報フローを積極的に監視する。
  • AIが触れることができるデータと実行できるアクションを管理するために、堅牢なアクセス制御を実装する。ゼロトラストの原則が適用されます。
  • アドバーサルな例やAIを誤導するためのデータ汚染など、新たな攻撃の検出に向けて機械学習モデルを継続的に調整する。
  • AIを展開する前に、バイアス、悪用の可能性、および意図しない結果をキャッチするために広範な倫理テストを実施する。モデルの透明性が重要です。
  • セキュリティの実践を機械学習のライフサイクル全体に深く統合した「DevSecOps」アプローチを採用する。
  • AIコンポーネントと依存関係の完全性を確保するため、ソフトウェア供給チェーンのセキュリティに対するSLSAなどの原則を活用する。
  • 監査と再現性を可能にするため、トレーニングデータ、モデル、パイプラインの厳格な起源の追跡を強制する。
  • 問題を示すドリフト、劣化、および異常をスポットするためにモデルのモニタリング機能を組み込む。

Markstedterは、昨日のセキュリティの実践はAIが普及するにつれて不十分であると強調しました。AIがより能力を高め、ビジネスの運用に不可欠な存在となるにつれて、AIに強固なセキュリティの基盤を築くためのチャンスが開かれています。

多くの面で、旅は始まったばかりです。しかし、開発者に対するメッセージは明確です。セキュリティをAIに最初から統合し、新興のベストプラクティスを活用し、長期的にAIを安全に運用するために必要な透明性を確保してください。警戒心を持ち、共同責任を果たすことで、AIの約束は安全に実現されるでしょう。

要約すると、広く展開されたAIの出現により、開発者は完全にセキュリティポジションを再考する必要があります。人間のプロセスを保護するために機能した前提は、AIアシスタントには適用されません。AI固有の脅威を早期に考慮しない場合、欠陥のあるシステムが定着した場合には、長期的な深刻な結果をもたらす可能性があります。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more