『Generative AIがサイバーセキュリティを強化する3つの方法』
『3つの方法でサイバーセキュリティを強化するジェネレーティブAI』
人間のアナリストは、サイバーセキュリティ攻撃の速度と複雑さに対して効果的に防御することができなくなっています。データの量が手作業でスクリーニングするには単に大きすぎます。
ジェネラティブAIは、私たちの時代で最も変革的なツールであり、デジタルの柔術のようなものです。これにより、データの脅威が企業を圧倒する力を、彼らの防御を強化する力に変えることができます。
ビジネスリーダーはこの機会を待ち望んでいるようです。最近の調査では、CEOたちはサイバーセキュリティを彼らのトップ3の懸念事項の一つとして挙げ、競争上の優位性を提供する主導技術としてジェネラティブAIを見ています。
ジェネラティブAIはリスクと利益の両方をもたらします。以前のブログでは、エンタープライズAIのセキュリティ確保のプロセスを開始するための6つの手順を説明しました。
- 「リトリーバル増強生成によるジェネラティブAIの最適化:アーキテクチャ、アルゴリズム、およびアプリケーションの概要」
- この人工知能論文は、大規模なマルチモーダルモデル(GLaMM)を導入していますこれは、画像と領域の両方の入力を処理する柔軟性を備えた、エンドツーエンドトレーニングされた大規模なマルチモーダルモデルで、ビジュアルグラウンディング能力を提供します
- バーゼル大学病院が、「TotalSegmentator」を発表:体のCT画像の主要な解剖構造を自動的にセグメント化するための深層学習セグメンテーションモデル
以下はジェネラティブAIがサイバーセキュリティを強化する3つの方法です。
開発者から始める
まず、開発者にセキュリティの共同パイロットを与えましょう。
セキュリティは全員が関与するものですが、セキュリティの専門家ではない人もいます。そのため、これは最も戦略的な始まりの場所の一つです。
セキュリティを強化する最善の方法は、開発者がソフトウェアを作成するフロントエンドです。セキュリティの専門家としてトレーニングされたAIパワードのアシスタントは、開発者が彼らのコードがセキュリティのベストプラクティスに従っていることを確認するのに役立ちます。
AIソフトウェアアシスタントは、以前に審査されたコードを入力することで毎日賢くなることができます。それは前の作業から学び、開発者をベストプラクティスにガイドするのに役立ちます。
ユーザーに利益をもたらすため、NVIDIAはこのような共同パイロットやチャットボットを構築するワークフローを作成しています。この特定のワークフローは、NVIDIA NeMoからのコンポーネントを使用し、大規模な言語モデルの構築とカスタマイズのためのフレームワークです。
ユーザーが独自のモデルをカスタマイズするか、商業サービスを使用するかに関係なく、セキュリティアシスタントはサイバーセキュリティにジェネラティブAIを適用するための最初のステップに過ぎません。
脆弱性を分析するエージェント
次に、ジェネラティブAIが既知のソフトウェア脆弱性の海を航海するのを助けましょう。
いつでも企業は、既知の脆弱性を軽減するために何千ものパッチから選択する必要があります。それはすべてのコードが数十、数千の異なるソフトウェアブランチやオープンソースプロジェクトにルートがあるためです。
脆弱性分析に特化したLLMは、会社が最初に実装すべきパッチを優先順位付けするのに役立ちます。それは、会社が使用しているソフトウェアライブラリや、対応している機能やAPIに関するポリシーを読み取るための特に強力なセキュリティアシスタントです。
このコンセプトをテストするために、NVIDIAは脆弱性に対してソフトウェアコンテナを分析するためのパイプラインを構築しました。このエージェントは高い精度でパッチが必要なエリアを特定し、人間のアナリストの作業を最大4倍高速化しました。
結論は明確です。脆弱性分析において、ジェネラティブAIを最初の応答者として従事させる時が来ています。
データギャップを埋める
最後に、ジェネラティブAIを利用して、サイバーセキュリティのデータギャップを埋めるためにLLMを使用しましょう。
ユーザーはデータ侵害について情報を共有することは滅多にありません。それにより、攻撃を予測するのが困難になります。
そこで登場するのがLLMです。ジェネラティブAIモデルは、これまでに見たことのない攻撃パターンをシミュレートするための合成データを作成できます。このような合成データは、トレーニングデータのギャップを埋めることもできますので、機械学習システムが攻撃に対してどのように防御するかを学ぶことができます。
安全なシミュレーションを行う
攻撃者が可能なことを示すのを待つのではありません。安全なシミュレーションを作成して、彼らが企業の防御を侵入しようとする方法を学びましょう。
このような積極的な防御は、強力なセキュリティプログラムの特徴です。敵対者はすでに攻撃にジェネラティブAIを使用しています。時間ですべてのユーザーがこの強力な技術をサイバーセキュリティの防御に利用することです。
可能性を示すために、別のAI workflowは、企業が2021年だけで推定24億ドルもの損失を出す厳密にターゲットされた偽のメール、スピアフィッシングに対抗するために生成AIを使用しています。
このワークフローでは、スピアフィッシングメッセージの良い例が豊富にあることを確認するために、合成メールを生成しました。このデータにトレーニングされたAIモデルは、AIによるサイバーセキュリティのためのフレームワークであるNVIDIA Morpheusの自然言語処理能力を通じて、受信メールの意図を理解することを学びました。
その結果、既存のツールよりも21%多くのスピアフィッシングメールを検出することができました。詳細は、開発者ブログをご覧いただくか、以下のビデオをご覧ください。
ユーザーがこの作業を始める場所はどこであっても、サイバーセキュリティの専門家の不足と企業が保護する必要がある無数のユーザーとユースケースのために、自動化が重要です。
ソフトウェアアシスタント、仮想的な脆弱性アナリスト、合成データシミュレーションという3つのツールは、毎日続くセキュリティ旅行に生成AIを適用するための素晴らしい出発点です。
しかし、これは始まりにすぎません。企業は生成AIを防御のすべてのレイヤーに統合する必要があります。
詳細については、ウェビナーにご参加ください。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles