Transcript AIコンテンツの生成を検出する

AIが生成したコンテンツを検出する方法

ディープフェイク、信頼性、および大統領のAIに関する行政命令について

偽物を見つけることができますか?写真:Liberty AnnによるUnsplash

生成的AIの進歩に伴う興味深い倫理的問題の一つが、モデルの生成物の検出です。私たちメディアを消費する者にとっても、これは実際的な問題です。私が読んでいるまたは見ているものは、人の緻密な作業の産物なのか、私にアピールする確率的に生成された単語や画像なのか、どう判断すればいいのでしょうか?それが重要な場合、私たちはどうするべきでしょうか?

区別できないコンテンツの意味

AIによる生成と見分けがつかないコンテンツについて話すとき、私たちはチューリングテストに似たものになっています。テキストのパラグラフや画像ファイルを与えられたときに、「これは人間によるものか機械学習モデルによるものか?」と聞かれ、正確に答えることができない場合、私たちはこれらの問題について考える必要があります。

特にGPT-4など進化の途中では、私たちはこれに近づいています。しかし、より洗練されていないモデルでも、使用するプロンプトの種類やコンテキストのボリュームによって異なります。GPTモデルからの長文ドキュメントであれば、それが人間による生成ではないことを検出するのは比較的簡単でしょう。なぜなら、新しい単語ごとにモデルが通常の人間では行わないことをする機会があるからです。同様に、ビデオや高解像度の画像でも、ピクセル化やアンカニーバレーのチャンスが増えるほど、フェイクを見つける機会も増えます。

また、モデル生成コンテンツにより慣れ親しんでいくうち、AIの関与の兆候を見分ける能力も向上していくでしょう。私が以前に説明したように、ジェネレーティブ対抗ネットワーク(GAN)の仕組みについて説明したときに述べたように、私たちは自身も生成的AIと何らかの関係にあると言えます。モデルは可能な限り人間らしいコンテンツを作成するために働いており、私たちはそれが人間ではないことを見抜く能力を高めています。お互いを出し抜こうとする競争のようなものです。

モデル生成コンテンツに慣れ親しんでいくと、AIの関与の兆候を見分ける能力も向上していくでしょう。

検出手法

しかしながら、この検出については私たちがどれだけ上手になれるかの限界もあり、モデルは一般的な人間の目や耳よりも勝る場合があります(まだ勝っていないとしても)。私たちには巨大なモデルが持つ感覚能力やパターン認識の洗練さがありません。幸いなことに、私たちはモデルをツールとして使うことができます。コンテンツを詳細に調査し、それが人間によるものではないことを判断するためにモデルを訓練することができるのです。

しかし、ある程度まで小規模な数量のコンテンツであれば、機械学習による起源の確実に検出可能な兆候が存在しないかもしれません。哲学的に言えば、無制限のモデルの進歩を考えると、両種類のコンテンツの実際の違いはない点があるはずです。さらに、私たちが消費するメディア全てを人間が生成し本物であることを確認するためにモデルを使用することはほとんどありません。そのため、コンテンツの真正性イニシアチブなど、いくつかの組織がコンテンツ認証メタデータの普及を推進していますが、これにはモデルを利用可能にする人々の善意と努力が必要です。

ある程度まで小規模な数量のコンテンツには、機械学習の起源の確実に検出可能な兆候が存在しないかもしれません。

では、ディープフェイクやAI生成コンテンツを使って意図的な悪意で害を与えようとする人々についてどうでしょうか?彼らは自分たちのコンテンツを特定することを自発的に行うでしょうか?それは正当な疑問です。しかし、少なくとも現時点では、人々を大規模に騙す十分に洗練されたモデルは主に大企業(OpenAIなど)の管理下にあります。この状況は将来的に変わるでしょうが、今の瞬間においては、少なくとも一部の問題において最も洗練されたLLMを一般の人々に提供する人々がこれに対して行動を起こすなら、出自の問題に対して確かな進展が見られるでしょう。

これまでにそれほど楽観的な話ではありません。生成AIは非常に強力なモデルが小さくなり、悪意のある者が自分自身で実行し、そのモデルが他のモデルでも有機的な人間のコンテンツと区別できないほど簡単にコンテンツを作成できる状態に迅速に向かっています。

検出の理由

しかし、ある程度先走ってしまいました。まず、なぜ最初にコンテンツがモデルから来たかどうかを見極めることが非常に重要なのでしょうか?わからない場合には問題になるのでしょうか?

主な理由の一つは、コンテンツの提供者が悪意のある意図を持っている可能性があるということです。ディープフェイクや誤情報のような場合には、画像や音声、動画を作成することが最も一般的です。これについては、米国大統領のAIに関する行政命令に関心を持ったと言われています。大統領バイデンは、自分の姿や声が詐欺的に使用されて情報操作される可能性について聞いたからです。現時点では、私たちは画像や動画で自分自身の目で見たものを信頼しがちであり、それは人々の生活や安全に大きな影響を及ぼす可能性があります。

現時点では、私たちは画像や動画で自分自身の目で見たものを信頼しがちであり、それは人々の生活や安全に大きな影響を及ぼす可能性があります。

関連する問題として挙げられるのは、モデルが悪意のある理由ではなく、単に楽しくて人気がある特定の人物の作業を模倣するために使用される場合です。これは明らかに非倫理的ですが、ほとんどの場合は観客や模倣される人物に積極的に害を与える意図はないでしょう(もちろん、芸術家や作家の収益力や生計を奪うことで人々を傷つけますが、コンテンツの製作者が責任を負うべきです)。また、ディープフェイクが人々の行動について嘘をつくために使用されると、評判に損害をもたらすこともあります(ディープフェイクを使って自分そっくりの広告を利用しているジョー・ローガンに聞いてみてください)。

さらに、Casey Newtonが10月5日のPlatformerで議論した後に私が考え始めた第三の視点は、公的人物が問題を逆転させ、自身の悪い行動の真実の証拠が人工的に生成されたものであると主張することです。証拠を用いて不正行為を確実に暴くことができない場合には、どうすれば良いのでしょうか?「それはディープフェイクだから」という反論は証明不可能なものになります。まだ完全にそのような状況には至っていませんが、それが近い将来に現実の問題になる可能性があると考えられます。

証拠を用いて不正行為を確実に暴くことができない場合には、どうすれば良いのでしょうか?「それはディープフェイクだから」という反論は証明不可能なものになります。

それほど急ぐ必要はありませんが、私はメディアの消費が他の人との関わりとして表現されることも大切だと思っています。それは主に一方通行のアイデアの移動ですが、私は読書や芸術の消費を他の人の考えとの関与と考えており、モデルが繋がった単語との関与はまったく同じ感じではありません。したがって、個人的には、私が消費しているコンテンツが人間によって作成されたものかどうかを知りたいと思っています。

行政命令

これらの非常に現実的なリスクを考えると、私たちは重大な課題に直面しています。検出可能な出処(一般市民の安全や前述したすべての問題)とモデルの洗練度の間にはトレードオフがあるようです。データサイエンスの産業として、モデルの洗練度を追求し続けていますが、誰がそのバランスを取るのでしょうか。

大統領の行政命令は、このトピックに関して重要な進展を示しています(別の機会に議論するかもしれない他の重要な問題についても言及しています)。私はこの行政命令について考え、業界内外から他の人々の見解を読んで、先週と先々週を費やしました。一部の人々は、これが進歩を阻害すると主張しており(ジェネレーティブAIの主要なプレーヤーが大手企業になり、小規模な競合他社が犠牲になる可能性があるとも言われています)、私はこの行政命令について楽観的な見方を持っていると考えています。

競争力のある生成AIモデルを作成することは非常に高額でリソースが必要であり、それによって競合他社の数が最初の段階で制限されるのは自然なことです。架空の新興企業を広範な社会的安全性のために守ることは私には理解できません。また、リソースを持つ組織にとっては、行政命令が非常に重いものになることもないと思います。

注文そのものもそれほど具体的ではありません。いくつかの事柄の創造を求めていますが、それがどのように実現されるかについては広範な裁量を残しており、情報に詳しい人々が関与することを期待しています。🤞(データサイエンティストは、状況が狂っている場合はモニタリングし、声を上げるべきです。)特に、商務省に対して「AI生成コンテンツの検出および公式コンテンツの認証のための標準およびベストプラクティスの策定」を求めています。また、モデルに関わる安全性とセキュリティに関する重要な要素もあります。

私は政府がAIの規制において偉大な仕事をすることを非常に信頼していますか? 実際には、そうではありません。しかし、産業界が独自の手段に委ねられた場合、出所とコンテンツの検出に十分な注意を払うとは思えません。彼らはそれが優先事項であることをまだ示していないからです。

産業界が独自の手段に委ねられた場合、出所とコンテンツの検出に十分な注意を払うとは思えません。

同時に、特に進歩を遂げるにつれて、生成型AIによって作成されたコンテンツを物理的に検出することが現実的にすべてのあるいはほとんどの場面で可能であるとは確信できません。行政命令には、コンテンツが検出不能な領域にまたがる場合でもモデルの開発を防止するとは何も述べられていませんが、そのリスクは私を心配させます。それは本当にイノベーションを抑制する可能性があり、トレードオフについて非常に慎重に考える必要があります。ただし、その特定の問題に関しては、もう手遅れかもしれません。世界中に数多くのオープンソースの生成型AIモデルが存在し、その能力は進化を続けています。

結論

このトピックは難しく、取るべき適切な行動は必ずしも明確ではありません。モデルの出力が洗練されて複雑になるほど、その出力が人間生成ではないことを検出するチャンスが増えますが、技術的な競争がその検出をますます困難にしています。このトピックに関する政策の関与がガードレールを提供してくれる可能性はありますが、それが本当に役立つのか、または場合によっては愚かな失敗になる可能性があるのかはまだわかりません。

こうした場面の一つで、議論を簡潔にまとめる方法がないと感じています。区別がつかない生成型AIの潜在的および実際的なリスクは深刻であり、それに対応すべきです。ただし、私たちはクイックで簡単な解決策を作成できない科学的・数学的な領域にいますので、より高度な生成型AIが生み出す利益にも重きを置かなければなりません。

とはいえ、データサイエンティストは行政命令、あるいは少なくともファクトシートを読んで文書が何を言っているのか、何を言っていないのかを明確にする時間を取るべきです。定期的に読者としてご存知のように、私は私たちの生活の中で一般の人々にこれらの問題について正確でアクセスしやすい情報を広める責任を持っていると考えています。また、このトピックがニュースで取り上げられているので、これはそのための良い機会です。周りのデータサイエンスのリテラシーに積極的に貢献してください。

私の作品はwww.stephaniekirmer.comでご覧いただけます。

参考文献

Casey Newton – October 5 issue of Platformer

AIに関する行政命令の事実シート

AIに関する行政命令の全文

ジョー・ローガン主演のディープフェイク詐欺についての報道

コンテンツの真正性イニシアチブ

デジタルコンテンツの出所の標準を作成する。

contentauthenticity.org

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more