Googleの研究者たちは、AIによって生成された画像を透かしを入れたり識別するためのデジタルツールである「𝗦𝘆𝗻𝘁𝗵𝗜𝗗」を紹介しました

Google研究者はAIによって生成された画像を透かしや識別するための「𝗦𝘆𝗻𝘁𝗵𝗜𝗗」というデジタルツールを紹介しました

人工知能(AI)の急速に進化する風景の中で、生成モデルは伝統的な手段でキャプチャされたものとほとんど区別のつかない、写真のようなリアルな画像を作り出しています。この技術は膨大な創造力を開放する一方で、AIによるコンテンツと実際のイメージを区別する必要性や誤情報の拡散についての懸念も呼び起こしています。課題は、これらのAIによって生成された画像を識別することであり、それらは正確な情報と誤った情報の両方を広めるために使用され、現実とシミュレーションの境界を曖昧にします。

現在、AIによって生成されたコンテンツを識別することは大きな課題となっています。スタンプや透明のテキストオーバーレイのような従来の透かしの方法は、簡単に操作または削除することができます。有用なメタデータも編集中に変更または失われる可能性があります。既存の解決策には、コンテンツの操作がより洗練されている時代におけるメディアの完全性を保証するために必要な堅牢性が欠けています。

Google DeepMindとGoogle Researchが共同開発した画期的なツールであるSynthIDにご挨拶を。この革新的な技術は、画像のピクセルに直接目に見えないデジタルウォーターマークを埋め込むことにより、識別目的で検出することができます。SynthIDは、ユーザーが責任を持ってAIに生成されたコンテンツと対話し、デジタルメディアへの信頼を高めることを目指して考案されました。

SynthIDは、ウォーターマークと識別のために2つのディープラーニングモデルの力を利用しています。これらのモデルは、多様な画像のトレーニングを受けており、正確なウォーターマークの識別とオリジナル画像との微妙なウォーターマークの整列を含む複数の目標を最適化しています。この埋め込みウォーターマーキング技術は、JPEGなどの形式で一般的な色の変更、フィルタ、またはロッシー圧縮などの変更後も画像の品質を保持します。

SynthIDは、ウォーターマークの識別結果を解釈するための3つの信頼レベルを提供します。デジタルウォーターマークが検出されると、画像の一部がおそらくImagenによって生成されたものです。内部テストでは、SynthIDは一般的な画像操作に対して効果を発揮し、現実世界のシナリオでの堅牢性と信頼性を高めています。

AIによって生成されたコンテンツが現実にシームレスに溶け込む世界で、SynthIDのようなツールは信頼と責任を育むために重要な一歩を提供します。極端な操作に対する完全な解決策ではありませんが、SynthIDのウォーターマーキングと識別のアプローチは、AIによって生成された画像の識別に向けた有望な進歩です。Googleの責任あるAI開発への取り組みは、このツールが画像以外の新興のAIモデルやメディアの形態とともに進化する可能性を強調しています。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

モデルの自信を求めて ブラックボックスを信頼できるか?

この記事では、大規模な言語モデル(LLM)によって生成されたラベルの信頼性を評価する戦略を探求しますさまざまなアプローチ...

データサイエンス

『Re Invent 2023の私のお勧め』

ここに私のお気に入りのリストがありますが、特定の順序はありません (Koko ni watashi no okiniiri no risuto ga arimasu ga...

機械学習

「Rodinに会ってください:さまざまな入力ソースから3Dデジタルアバターを生成する革新的な人工知能(AI)フレームワーク」

生成モデルは、コンピュータサイエンスの多くの困難なタスクに対する事実上の解決策となっています。それらは視覚データの分...

AI研究

AIモデルは、患者のがんがどこで発生したかを判断するのに役立つことができます

OncoNPCモデルからの予測により、医師は難治性の腫瘍に対してターゲット治療を選択することが可能になる可能性があります

AI研究

中国の研究者が提案する、新しい知識統合における大規模言語モデルの評価における画期的な人工知能ベンチマーク「ALCUNA」

大規模言語モデル(LLM)の新しい知識の取り扱い能力を評価することは困難です。北京大学の研究者たちは、既存のエンティティ...