「あなたのLLMアプリを守る必読です!」

Essential reading to protect your LLM app!

LLMの展開における潜在的なセキュリティリスクについての教育を目指して

OWASP Top 10 for Large Language Model Applicationsプロジェクトは、開発者、デザイナー、アーキテクト、マネージャー、組織に、大規模言語モデル(LLM)を展開・管理する際の潜在的なセキュリティリスクについて教育することを目指しています。このプロジェクトでは、LLMアプリケーションでよく見られる上位10の重要な脆弱性をリストアップし、それらの潜在的な影響、悪用の容易さ、および実世界のアプリケーションでの普及を強調しています。

GuerrillaBuzzによる写真

LLMの展開時に考慮すべき以下の10の重要なセキュリティリスク:

プロンプトインジェクション

攻撃者は、クラフトされた入力を通じてLLMを操作し、攻撃者の意図を実行させることができます。これは、直接的にシステムのプロンプトを攻撃的に操作することや、間接的に外部の入力を操作することによって行われる可能性があり、データの漏洩、ソーシャルエンジニアリング、その他の問題を引き起こす可能性があります。

* ダイレクトプロンプトインジェクションはシステムのプロンプトを上書きする* インダイレクトプロンプトインジェクションは会話のコンテキストを乗っ取る* ユーザーがインダイレクトプロンプトインジェクションを含むウェブページを要約するためにLLMを使用する。

予防

* LLMがバックエンドシステムへのアクセスに特権制御を強制する* 拡張機能のための人間をループに組み込む* 外部コンテンツをユーザープロンプトから分離する* LLM、外部ソース、および拡張機能の間に信頼境界を確立する。

攻撃シナリオ

* 攻撃者がLLMベースのサポートチャットボットに直接的なプロンプトインジェクションを提供する* 攻撃者がウェブページに間接的なプロンプトインジェクションを埋め込む* ユーザーがインダイレクトプロンプトインジェクションを含むウェブページを要約するためにLLMを使用する。

セキュリティの甘い出力処理

セキュリティの甘い出力処理は、ダウンストリームのコンポーネントが適切な検査なしに大規模言語モデル(LLM)の出力を盲目的に受け入れる場合に発生する脆弱性です。これはXSSや…につながる可能性があります。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

データサイエンス

「2023年にデータサイエンスFAANGの仕事をゲットする方法は?」

データサイエンスは非常に求められる分野となり、FAANG(Facebook、Amazon、Apple、Netflix、Google)企業での就職は大きな成...

人工知能

「ジャスティン・マクギル、Content at Scaleの創設者兼CEO - インタビューシリーズ」

ジャスティンは2008年以来、起業家、イノベーター、マーケターとして活動しています彼は15年以上にわたりSEOマーケティングを...

人工知能

「リオール・ハキム、Hour Oneの共同創設者兼CTO - インタビューシリーズ」

「Hour Oneの共同創設者兼最高技術責任者であるリオール・ハキムは、専門的なビデオコミュニケーションのためのバーチャルヒ...

人工知能

スコット・スティーブンソン、スペルブックの共同創設者兼CEO- インタビューシリーズ

スコット・スティーブンソンは、Spellbookの共同創設者兼CEOであり、OpenAIのGPT-4および他の大規模な言語モデル(LLM)に基...

人工知能

「マーク・A・レムリー教授による生成AIと法律について」

データサイエンス内で新しい分野が現れ、研究内容が理解しにくい場合は、専門家やパイオニアと話すことが最善です最近、私た...

機械学習

3つの質問:大規模言語モデルについて、Jacob Andreasに聞く

CSAILの科学者は、最新の機械学習モデルを通じた自然言語処理の研究と、言語が他の種類の人工知能をどのように高めるかの調査...