サイバーセキュリティにおける生成AIの約束と危険性

Generating AI Promises and Dangers in Cybersecurity

2023年のBlack Hatで行われたパネルディスカッション「Generative AI: Security Friend or Foe?」は、ChatGPTなどの生成型AIモデルがセキュリティチームに与える影響についての洞察を提供しました。Dark Readingの編集長であるKelly Jacksonが、Palo Alto NetworksのJosh Zelonis、DeVry UniversityのFred Kwong、OmdiaのアナリストであるCurt Franklinというサイバーセキュリティのリーダーたちと共にラウンドテーブルをモデレートしました。生成型AIの急速な台頭は、セキュリティ専門家にとって機会とリスクの両方をもたらします。

利点としては、生成型モデルは繰り返しのタスクを自動化し、セキュリティアナリストの効率を高めることができます。Zelonisは、AIが環境がより複雑になる中でスケールで対応するために不可欠であると説明しました。Kwongは、脅威の研究や教育における利点を強調しました – AIは大量のデータを素早く要約してスキルの開発を加速させることができます。Franklinは、狭く特化した「ドメインエキスパート」AIが現在の一般的な知能よりも現実的であると警告しました。

自然言語のクエリやレポートの生成は、重要な応用例とされました。これにより、アナリストは一貫して質問を表現し、信頼できる回答を得ることができます。しかし、Franklinは、効果的なAIクエリのプレイブックを構築するためにクエリエンジニアリングのスキルが必要となると指摘しました。Kwongも、基本的な活動ログの収集など、日常的なSOCタスクの自動化の可能性を指摘しました。

パネリストたちは、生成型AIが人間の能力を高める可能性があるが、セキュリティチームを完全に置き換えることはできないと一致しました。Kwongは、従業員に適切で倫理的なAIの使用方法を教育することの重要性を強調しました。組織は、他のどの技術能力と同様に、AIに対してポリシーとガバナンスを必要とするでしょう。

リスクの側面では、パネルはソーシャルエンジニアリングとフィッシングキャンペーンの高度化に注目しました。攻撃者は今や、ターゲットに合わせた非常に信憑性の高いスピアフィッシングのコンテンツを生成することができます。Kwongは、サイバー犯罪者が公共の録音からクローンされた音声の合成を作成してヴィッシング詐欺を行っていると述べました。

Zelonisは、生成型モデルが攻撃者により多くの弾薬を提供すると説明しましたが、ゼロトラストのようなセキュリティの基本原則は依然として重要です。内部の脅威や機密性の高いトレーニングデータへのアクセスの誤用によるAIの兵器化の潜在的なリスクもあります。Kwongは、セキュリティチームが顧客データがAIモデルのトレーニングにどのように使用されるかについてベンダーに問い合わせることを推奨しました。

他の課題には、セキュリティ製品におけるAIの「ハイプと現実」があります。Zelonisは、組織は採用するのが早すぎるかどうかを評価する必要があると指摘しました。AIの透明性や商業オファリングの倫理観も検討する必要があります。

全体的に、パネルはAIは今後も存在し続け、セキュリティチームがそれを受け入れる必要があることを明確にしました。強力なデータガバナンス、トレーニングの監視、そして人間中心のユースケースへの焦点を当てることにより、生成型AIは脅威検知とアナリストの生産性を向上させることができます。しかし、ボイススプーフィングやディープフェイクなどのリスクには継続的な教育が必要です。AIセキュリティポリシーは継続的な適応が必要です。魔法の弾丸ではないものの、慎重なAIの導入は利益をもたらすことができます。ただし、技術はセキュリティリーダーが予測する必要がある新たな脅威をもたらします。

キーポイント

以下は、生成型AIセキュリティディスカッションのキーポイントです:

  • 生成型AIは、セキュリティチームをより効率的かつ迅速にするために、アナリストの繰り返しタスクを自動化することができます。
  • 適切に実装されれば、クエリやレポートのための自然言語生成は近い将来の有望な応用です。
  • しかし、AIは魔法の解決策ではありません-人間の能力を補完するものであり、セキュリティ専門家を置き換えるものではありません。
  • 強力なデータガバナンス、トレーニングの監視、ポリシーは、AIツールの展開時に重要です。
  • 倫理的なAIの使用に関する教育は重要であり、ベンダーからの透明性も必要です。
  • 合成コンテンツや音声を使用したソーシャルエンジニアリングは、新たな生成型AIの脅威です。
  • 組織は、AIセキュリティ製品の採用時にハイプと現実を評価し、戦略的な価値を追加する機能のみを統合する必要があります。
  • AIの進歩にもかかわらず、ゼロトラストやセキュリティトレーニングなどの基本原則は依然として重要です。
  • 内部の脅威やトレーニングデータの悪用などのリスクに対しては、AIシステムのための緩和策が必要です。
  • 生成型AIは利点と新たな脅威をもたらします-利益を最大化し、リスクを最小限に抑えるためには、計画的なAIの導入が重要です。

要約すると、パネルは生成型AIがセキュリティにおける約束を強調しましたが、価値を得るための責任ある採用、教育、スマートな実装が重要であると強調しました。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

Aaron Lee、Smith.aiの共同設立者兼CEO - インタビューシリーズ

アーロン・リーさんは、Smith.aiの共同創業者兼CEOであり、AIと人間の知性を組み合わせて、24時間365日の顧客エンゲージメン...

人工知能

「コーネリスネットワークスのソフトウェアエンジニアリング担当副社長、ダグ・フラーラー氏 - インタビューシリーズ」

ソフトウェアエンジニアリングの副社長として、DougはCornelis Networksのソフトウェアスタック全体、Omni-Path Architecture...

機械学習

「機械学習 vs AI vs ディープラーニング vs ニューラルネットワーク:違いは何ですか?」

テクノロジーの急速な進化は、ビジネスが効率化のために洗練されたアルゴリズムにますます頼ることで、私たちの日常生活を形...

人工知能

「パクストンAIの共同創業者兼CEO、タングイ・シャウ - インタビューシリーズ」

タングイ・ショウは、Paxton AIの共同創設者兼CEOであり、法的研究と起草の負担を軽減するためにGenerative AIを使用するプラ...

人工知能

「マーシャンの共同創設者であるイータン・ギンスバーグについてのインタビューシリーズ」

エタン・ギンズバーグは、マーシャンの共同創業者であり、すべてのプロンプトを最適なLLMに動的にルーティングするプラットフ...

人工知能

「シフトのCEOであるクリス・ナーゲル – インタビューシリーズ」

クリスはSiftの最高経営責任者です彼は、Ping Identityを含むベンチャー支援および公開SaaS企業のシニアリーダーシップポジシ...