「GoogleのAI Red Team:AIを安全にするための倫理的なハッカー」

GoogleのAI Red Team AIの安全性を確保する倫理的なハッカー

先月、私たちはSecure AI Framework(SAIF)を導入しました。これは、AIシステムへのリスクに対処し、技術のセキュリティ基準を責任ある方法で推進するために設計されました。

この勢いをさらに高めるために、本日、私たちはSAIFをサポートするために展開している重要な能力の1つであるレッドチーミングについての新しいレポートを公開します。私たちは、レッドチーミングがAIシステムへの攻撃に対して組織全体を準備するために決定的な役割を果たすと信じており、皆が安全にAIを活用できるように協力していくことを楽しみにしています。このレポートでは、AIレッドチームの設立に取り組んだ私たちの取り組みについて詳しく調査し、以下の3つの重要な領域を含んでいます:1)AIシステムのコンテキストでのレッドチーミングとそれがなぜ重要なのか、2)AIレッドチームがシミュレートする攻撃の種類、そして3)私たちが他の人と共有できる学びの教訓。

レッドチーミングとは何ですか?

Googleのレッドチームは、国家や知られた高度な持続的脅威(APT)グループからハクティビスト、個々の犯罪者、さらには悪意のある内部者まで、さまざまな敵対者をシミュレートするハッカーのチームです。この用語は軍から来ており、指定されたチームが「ホーム」チームに対して敵対的な役割(「レッドチーム」)を演じる活動を指していました。

10:25

Googleのセキュリティレッドチームについてもっと詳しく知りたい場合は、上記のビデオをご覧ください。

過去10年間で、私たちはレッドチーミングのコンセプトを最新の技術革新、AIを含むものに適用するために進化させてきました。AIレッドチームは、従来のレッドチームと密接に連携していますが、AIシステムに対して複雑な技術攻撃を実施するために必要なAIの専門知識も持っています。現実的な敵対者の活動をシミュレートするために、私たちのチームはMandiantやThreat Analysis Group(TAG)などの世界クラスのGoogle脅威インテリジェンスチーム、Trust & Safetyのコンテンツ悪用レッドチーミング、そしてGoogle DeepMindからの最新の攻撃に関する研究成果を活用しています。

AIシステムへのレッドチーム攻撃の一般的なタイプ

GoogleのAIレッドチームの主な責任の1つは、関連する研究を取り上げ、AIを使用して実際の製品や機能に対して機能を学習させるためにそれを適用することです。このような演習は、展開される技術の場所や方法に応じて、セキュリティ、プライバシー、および乱用の分野で調査結果を得ることができます。私たちは攻撃者の戦術、技術、手順(TTP)を利用して、さまざまなシステム防御をテストすることで、これらの機会を特定し、安全性を向上させるための取り組みを行っています。今日のレポートでは、実際の世界の敵対者とレッドチーミングの演習に最も関連性があり現実的なと考えられるTTPのリストが含まれています。それには即時攻撃、トレーニングデータの抽出、モデルへのバックドアの設置、敵対的な例、データの汚染と流出などが含まれます。

学んだ教訓

私たちはすでに、AIの専門知識と能力を持つ攻撃シミュレーションへの投資が非常に成功していることを見ています。例えば、レッドチームの取り組みは、AIシステムに現れるいくつかの攻撃を予測するのに役立つ潜在的な脆弱性や弱点を明らかにしました。以下に、レポートで挙げた主な教訓を示します。

  1. 従来のレッドチームは良い出発点ですが、AIシステムへの攻撃はすぐに複雑になり、AIの専門知識が必要となります。
  2. レッドチームの調査結果に対処することは困難な場合があり、いくつかの攻撃には単純な修正方法がないかもしれません。そのため、組織はレッドチーミングを研究や製品開発の取り組みに活用することをお勧めします。
  3. システムやモデルの適切なロックダウンを確保するなど、従来のセキュリティ制御はリスクを大幅に軽減することができます。
  4. AIシステムへの多くの攻撃は、従来の攻撃と同じ方法で検出することができます。

今後の展望

Googleのレッドチームは、10年以上前に創設され、絶えず変化する脅威の状況に対応し、Google全体の防御チームの信頼できる相手となっています。このレポートが他の組織がどのようにこの重要なチームを使用してAIシステムを保護しているかを理解するのに役立ち、SAIFを進め、セキュリティ基準を向上させるための行動を促すことを願っています。大規模な公共システムにおける重要なAI展開を保護するため、私たちはすべての組織に定期的なレッドチームの演習を実施することをお勧めします。SAIFの実装、AIパイプラインのセキュリティ確保に関するさらなる情報については、また、今年のDEF CON AI Villageでの私の講演もご覧いただけます。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AIニュース

「エンジニアたちが、心臓の右室のロボットレプリカを設計する」

マサチューセッツ工科大学(MIT)のエンジニアたちは、心臓の右室をロボットのレプリカとして作成しました

機械学習

「MetaGPTと出会ってください:GPTをエンジニア、建築家、マネージャに変えるオープンソースAIフレームワーク」

大規模言語モデル(LLM)ベースのマルチエージェントシステムは、人間の操作を模倣し、改善するための非常に優れた機会を持っ...

機械学習

実験から展開へ MLflow 101 | パート01

こんな感じで想像してみてください:新しいビジネスアイデアが浮かび、必要なデータがすぐに手元にあるとしますあなたは素晴...

AIニュース

「最高のAI音楽生成器(2023年9月)」

人工知能(AI)音楽生成器は、音楽を作成するコンピュータプログラムです。これは、ニューラルネットワークを利用して完全に...

機械学習

「Google LLMは、ドキュメントを読むだけでツールをマスターできる」

急速な技術の進歩の時代において、人工知能(AI)は時折、人間のような驚異的な進歩を遂げています。Googleの研究者たちは画...

AIニュース

「魔法の角度」グラフェンにおける磁気サプライズが明らかにされる

「磁石と超伝導体は普通は相性が悪いですが、新しい研究によると、『魔法角度』グラフェンは超伝導性と強磁性の両方を生み出...