スケールを通じた高精度の差分プライバシー画像分類の解除

Unlocking high-precision differential privacy image classification through scaling.

最近のDeepMindの論文では、言語モデルの倫理的および社会的なリスクについて、これらのモデルに取り組む組織が対処する責任があるとして、大規模な言語モデルが訓練データに関する機密情報を漏洩する可能性があると指摘しています。別の最近の論文では、同様のプライバシーのリスクが標準の画像分類モデルでも発生することが示されています。各個別の訓練画像の指紋がモデルパラメータに埋め込まれており、悪意のある者がそのような指紋を利用してモデルから訓練データを再構築する可能性があります。

差分プライバシー(DP)などのプライバシー強化技術は、これらのリスクを軽減するために訓練時に展開することができますが、しばしばモデルの性能の大幅な低下をもたらします。この研究では、差分プライバシーの下で高精度な画像分類モデルの訓練を解放するための大幅な進歩を遂げました。

図1:(左)GPT-2における訓練データの漏洩のイラスト[引用:Carlini et al. "Extracting Training Data from Large Language Models", 2021]。(右)100Kパラメータの畳み込みニューラルネットワークから再構築されたCIFAR-10の訓練例[引用:Balle et al. "Reconstructing Training Data with Informed Adversaries", 2022]

差分プライバシーは、統計的なデータ分析(機械学習モデルの訓練を含む)の過程で個々のレコードを保護する要件を捉えるための数学的なフレームワークとして提案されました。DPアルゴリズムは、所望の統計量またはモデルの計算中に注意深くキャリブレーションされたノイズを注入することによって、個々の特徴を一意にする要素に関する推測(完全または部分的な再構築を含む)から個人を保護します。DPアルゴリズムの使用は、理論的にも実践的にも堅牢で厳密なプライバシー保証を提供し、公共および私的な組織の数で事実上の標準となっています。

深層学習のための最も人気のあるDPアルゴリズムは、差分プライバシー確保確率的勾配降下法(DP-SGD)であり、個々の例の勾配をクリッピングし、各モデル更新における各個別の寄与をマスクするために十分なノイズを追加することによって標準的なSGDを修正したものです。

図2:DP-SGDが個々の例の勾配を処理し、ノイズを追加してプライバシー化された勾配を生成する様子のイラスト。

残念ながら、これまでの研究では、DP-SGDによるプライバシー保護は、実践的にはしばしば正確性の低下というコストを伴うことが分かっており、これは機械学習コミュニティにおける差分プライバシーの広範な採用を妨げる大きな障害となっています。以前の研究からの経験的な証拠によると、DP-SGDにおけるこのユーティリティの低下は、より大きなニューラルネットワークモデル(難しい画像分類ベンチマークで最高の性能を達成するために定期的に使用されるモデルを含む)ではより深刻になる傾向があります。

私たちの研究では、この現象を調査し、訓練手続きとモデルアーキテクチャの両方に対する一連の単純な修正を提案して、標準的な画像分類ベンチマークでのDPトレーニングの精度を大幅に改善しました。私たちの研究から得られた最も驚くべき観察結果は、モデルの勾配が適切に制御されている限り、DP-SGDを使用してこれまで考えられていたよりもはるかに深いモデルを効率的に訓練できるということです。私たちは、研究によって達成された性能の大幅な向上が、形式的なプライバシー保証を持つ画像分類モデルの実用的な応用の可能性を開くと考えています。

以下の図は、私たちの主な2つの結果をまとめたものです:追加データなしでのプライベートトレーニング時のCIFAR-10での約10%の改善と、別のデータセットで事前にトレーニングされたモデルをプライベートにファインチューニングした場合のImageNetでのトップ1の精度が86.7%であり、最高の非プライベートパフォーマンスにほぼ追いついています。

図3:追加データなしでのCIFAR-10上のWideResNetモデルの最良の結果(左)。ImageNet上のNFNetモデルのファインチューニングの最良の結果(右)。最も優れたモデルは、ImageNetとは異なる内部データセットで事前にトレーニングされました。

これらの結果は、機械学習アプリケーションにおける差分プライバシーの提供力を調整するための標準設定である𝜺=8で達成されました。このパラメータに関する議論や、他の𝜺の値や他のデータセットでの追加の実験結果については、論文を参照してください。論文と共に、私たちの実装もオープンソース化しており、他の研究者が私たちの結果を検証し、それを基にさらなる研究を行うことができるようにしています。この貢献が実用的な差分プライバシーのトレーニングを実現したい他の人々のお手伝いになることを願っています。

GitHubで私たちのJAXの実装をダウンロードしてください。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AIニュース

グーグルはコントロールを失っている - CTR操作から大量のAIコンテンツまで

人工知能(AI)の時代は私たちに迫っており、私たちの日常生活を形作り続けていますAIによるコンテンツの人気が高まる中、ス...

AIテクノロジー

「2023年に注目すべきトップホームセキュリティ企業」

適切なホームセキュリティシステムを選ぶことは非常に困難ですこの記事では、最善の決定をするためにあなたをガイドします!

コンピュータサイエンス

世界のトップ10量子コンピューティング企業(2024年)

この記事にリストされているトップ10の量子コンピューティング企業は、量子コンピューティングの分野が急速に変化している中...

AIテクノロジー

「AIとビジネス戦略:ポリッシングロボットを活用した競争上の優位性の確保」

画像の出典:Pexels AIとロボティクスの急速な進歩により、磨きロボットが急増していますこれらの機械は、最新のテクノロジー...

AIテクノロジー

勝利チームの構築:従業員のエンゲージメントとビジネスパフォーマンスの関連性

従業員のエンゲージメントがビジネスパフォーマンスに直接影響する方法を発見してください勝利を収めるチームを構築し、組織...

AIテクノロジー

「ファイナンシャルアドバイザーがAIを活用してより多くの価値を引き出す方法」

人工知能は、金融アドバイザリー業界を含むあらゆる分野に革命をもたらしていますデータ分析から自動取引まで、AIの広範な能...