「Generative AIの活用:Generative AIツールのサイバーセキュリティへの影響の解明」
Generative AIツールのサイバーセキュリティへの影響の解明
言ってもいいでしょう。ジェネラティブAIは現在、あらゆる取締役会やビジネスリーダーの注目を集めています。かつては扱いにくく、さらにマスターするのも困難なフリンジ技術でしたが、ChatGPTやDALL-Eなどのアプリケーションの登場により、ジェネラティブAIの扉は広く開かれました。従業員たちは自分たちの利益に役立てるための技術の活用方法を見つけ出し、あらゆる業界や年齢層でジェネラティブAIの全面的な受け入れが進行しています。
最近の調査では、Gen Zの29%、Gen Xの28%、ミレニアルの27%の回答者が日常の業務の一環としてジェネラティブAIツールを使用していることが示されています。2022年には大規模なジェネラティブAIの導入率は23%であり、2025年までにこの数字は46%に倍増すると予想されています。
ジェネラティブAIは未成熟ながらも急速に進化している技術であり、トレーニングされたモデルを活用して、書かれたテキストや画像、さらにはビデオ、音楽、ソフトウェアコードなど、さまざまな形式のオリジナルコンテンツを生成します。大規模な言語モデル(LLM)と膨大なデータセットを使用することで、この技術はほぼ人間の作業と区別がつかないほどのユニークなコンテンツを瞬時に作成し、多くの場合、より正確かつ魅力的なものとなります。
しかし、ビジネスはますますジェネラティブAIを日常業務のサポートに活用しており、従業員たちも迅速に採用していますが、採用のペースと規制の不足は、重要なサイバーセキュリティと規制の遵守に関する懸念を引き起こしています。
一般市民の調査によると、ChatGPTやジェネラティブAIによるセキュリティリスクへの懸念を持つ人は80%以上であり、調査対象者の52%は規制が追いつくまでジェネラティブAIの開発を一時停止すべきと考えています。この広範な意見は、ビジネス界でも反響を呼んでおり、65%のシニアITリーダーはセキュリティ上の懸念からジェネラティブAIツールへの摩擦のないアクセスを是認しないと述べています。
ジェネラティブAIはまだ未知の未知
ジェネラティブAIツールはデータに依存しています。ChatGPTやDALL-Eなどのモデルは、インターネット上の外部または自由に利用可能なデータでトレーニングされていますが、これらのツールの最大の効果を得るためには、ユーザーが非常に具体的なデータを共有する必要があります。ChatGPTなどのツールを使用する際、ユーザーは正確で幅広い結果を得るために、機密性の高いビジネス情報を共有することがよくあります。これにより、ビジネスには多くの未知の要素が生じます。権限のないアクセスや意図しない機密情報の開示のリスクは、自由に利用できるジェネラティブAIツールを使用する際に「組み込まれて」います。
このリスク自体は必ずしも悪いことではありません。問題は、これらのリスクがまだ十分に探求されていないということです。現時点では、広く利用可能なジェネラティブAIツールのビジネスへの影響分析や、ジェネラティブAIの使用に関する世界的な法的および規制的枠組みはまだ成熟していません。
規制はまだ進行中
規制当局は既にジェネラティブAIツールをプライバシー、データセキュリティ、および生成されるデータの信頼性の観点から評価しています。しかし、新興技術にはよくあるように、その使用をサポートし統制するための規制体制は数歩遅れています。この技術は広範に企業や従業員によって使用されている一方で、規制の枠組みはまだまだ計画段階にあります。
これは現在、十分に重要視されていない明確なリスクを企業にもたらします。幹部たちは当然、これらのプラットフォームが自動化や成長の機会などの具体的なビジネス利益をもたらす方法に興味を持っていますが、リスクマネージャーたちは、この技術がどのように規制されるのか、最終的な法的な影響は何か、企業データがどのように危険にさらされる可能性があるのかを懸念しています。これらのツールの多くは、ブラウザとインターネット接続さえあれば誰でも自由に利用できるため、規制が追いつくまで待つ間に、企業はジェネラティブAIの使用に関する自身の「ルール」について非常に注意を払う必要があります。
CISOの役割とジェネラティブAIの統制
規制の枠組みがまだ不十分な状況で、最高情報セキュリティ責任者(CISO)は、組織内でジェネラティブAIの使用を管理する重要な役割を果たす必要があります。彼らは、技術を使用している人々とその目的、従業員がジェネラティブAIツールとやり取りする際に企業情報をどのように保護するか、基礎技術のセキュリティリスクをどのように管理するか、セキュリティのトレードオフを技術が提供する価値とどのようにバランスさせるかを理解する必要があります。
これは容易な課題ではありません。詳細なリスク評価を実施し、テクノロジーの公式な導入による負の結果と正の結果の両方を明らかにする必要があります。また、従業員が監視なしに自由に利用できるツールについても同様です。ジェネラティブAIアプリケーションへの簡単なアクセスの性質から、CISOは、その使用に関する会社のポリシーについて注意深く考える必要があります。従業員がChatGPTやDALL-Eなどのツールを利用して仕事をより簡単にすることができるべきか、それともこれらのツールへのアクセスを制限または調整すべきか、使用方法に関する内部のガイドラインとフレームワークをどのようにするかなどです。明らかな問題の一つは、内部の使用ガイドラインが作成されたとしても、技術の進化の速さを考慮すると、それらが最終的には時代遅れになる可能性があるということです。
この問題に対処する方法の一つは、実際には生成型AIツール自体から焦点を外し、データの分類と保護に焦点を当てることかもしれません。データの分類は、データが侵害されたり漏洩されたりするのを防ぐために常に重要な要素であり、この特定のユースケースでも同様です。データに感度レベルを割り当てることで、それがどのように扱われるべきかが決まります。暗号化するべきですか?封じ込めるべきですか?通知するべきですか?誰がアクセスできるべきであり、どこで共有されることが許可されるべきでしょうか?ツール自体ではなくデータの流れに焦点を当てることにより、CISOやセキュリティオフィサーはいくつかのリスクを軽減する可能性が大幅に高まります。
新興技術である生成型AIは、ビジネスにとって利益とリスクの両方です。自動化や創造的な概念化といったエキサイティングな新しい機能を提供する一方で、データセキュリティや知的財産の保護に関するいくつかの複雑な課題も引き起こします。規制や法的フレームワークはまだまとまっている最中ですが、企業は自らのセキュリティポスチャーを反映したポリシーコントロールを実施し、機会とリスクのバランスを取る責任を負う必要があります。生成型AIはビジネスを前進させますが、ハンドルを握り続けることに注意が必要です。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles