「InstagramがAIによって生成されたコンテンツにラベルを付けるようになりました」

Instagram labels content generated by AI.

人気のあるソーシャルメディアアプリInstagramは、プラットフォーム上のコンテンツを認識する方法を革新する画期的な機能を開発中です。アプリの研究者であるアレッサンドロ・パルッツィ氏が、AIが投稿の作成に関与した際にそのことを開示する予告の証拠を明らかにしました。この動きは、Instagramの親会社であるMetaがGoogleやMicrosoftなどの他のAI大手と協力して、責任あるAI開発を推進することを表しています。AIによる誤情報が増えている中、この新しいラベリングシステムは透明性を高め、ジェネラティブAIを使用して作成されたコンテンツをユーザーが特定できるようにすることを目指しています。

また読む:MITのPhotoGuardがAIを使ってAI画像操作に対抗

AIラベルの解読

アレッサンドロ・パルッツィ氏のスクリーンショットには、「このコンテンツはMetaのAIによって作成または編集されたと、作成者またはMetaが述べました。」という通知が表示されています。この開示は明示的にコンテンツをMetaのAI技術に帰属させています。ジェネラティブAIの簡単な説明が続き、ユーザーがAIの支援を受けた投稿を特定するためのガイドが示されます。この通知は、Metaが透明性と責任あるAI技術の使用にコミットしていることを示すものです。

Metaの責任あるAI開発への取り組み

MetaやGoogle、Microsoft、OpenAIなどの主要なプレーヤーは最近、サイバーセキュリティと差別研究への投資を白宮に誓いました。また、AIによって生成されたコンテンツにウォーターマーキングシステムを開発することも約束しています。このウォーターマーキングシステムは、AIによって作成または編集されたコンテンツをユーザーに通知し、責任と認識を促進することを目指しています。

また読む:4つのテック巨人 – OpenAI、Google、Microsoft、Anthropicが安全なAIを目指して結束

自動化の要素

Instagramのラベリングシステムの具体的な仕組みは明らかにされていませんが、通知に「Metaが述べました」という表現があることから、テック企業による積極的な適用が示唆されています。これは、MetaがAIによって生成されたコンテンツを特定する意思があることを示しており、ユーザーが同様の開示をする負担を軽減することになります。ただし、具体的な自動化の範囲は不明であり、Metaからのさらなる詳細が待たれています。

また読む:Breaking News: Stack OverflowとStack Exchange Networkで大規模な抗議活動が発生

AIによる誤情報の脅威

AIによって生成される誤情報の出現は、オンラインプラットフォームに重大な課題をもたらしています。ペンタゴンの爆発の写真など、ウイルス性のある画像の例は、潜在的な危険性を警告しています。シンプルなAIツールは、衛星画像や政治写真に適用されると危険な誤情報を広めることができます。このラベリングシステムは、このような課題に対抗するための重要な一歩です。

また読む:PoisonGPT: Hugging Face LLMがフェイクニュースを広げる

MetaのAIの進化と将来の機能

Metaは大規模な言語モデルLLaMA 2をオープンソース化していますが、Instagram向けの顧客向けジェネラティブAI機能はまだ広くリリースされていません。Instagramストーリーズのテキストプロンプトの変更や、画像の特定の部分の追加や置換を行う「AIブラシ」機能など、新機能のヒントが出てきています。また、Metaの製品に統合される可能性のあるAIチャットボット「パーソナ」機能についての噂もあります。

また読む:InstagramのAIチャットボットに会おう – あなたの新しい親友

私たちの意見

InstagramがAIによって生成されたコンテンツにラベルを付けることは、ソーシャルメディア上でのAI技術の責任ある使用における重要な節目です。透明性と説明責任を促進することで、この機能はユーザーが人間によって作成されたコンテンツとAIによって支援されたコンテンツを区別する力を与えます。Metaの責任あるAI開発への取り組みは、デジタルランドスケープでの警戒心の必要性を強調し、他のテック巨人に先例を示しています。AIの世界が進化する中で、このラベリングシステムは誤情報とオンラインコンテンツの信頼性を守るための重要なツールとして浮かび上がります。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

データサイエンス

「限られたトレーニングデータでも、機械学習モデルは信頼性のある結果を生み出すことができる」

研究者は、機械学習モデルが限られた訓練データでも信頼性のある結果を生成できることを示しました

機械学習

「2Dから3Dへ:アラインドジオメトリックプライオリティを用いたテキストから3D生成の一貫性向上」

2D画像を3Dオブジェクトに変換することは、テキストから3D生成のために困難なタスクです。これは、2D拡散モデルがビューに関...

データサイエンス

AIの目に見えない敵:デジタルの「ダークマター」の課題に立ち向かう

デジタルダークマターは、科学者がコンピュータビジョンAIから計算技術を借用することによって生まれたものです

データサイエンス

JourneyDBとは:多様かつ高品質な生成画像が400万枚収録された大規模データセットであり、マルチモーダルな視覚理解のためにキュレーションされています

ChatGPTやDALL-Eなどの大規模な言語モデルの進化と、生成型人工知能の人気の上昇により、人間のようにコンテンツを生成するこ...

AI研究

コーネル大学の研究者たちは、言語モデルのプロンプトについての洞察を明らかにしました:次のトークンの確率が隠れたテキストを明らかにする方法についての深い探求

コーネル大学の研究者による調査では、言語モデルの逆転問題に取り組んでいます。彼らは、次のトークンの確率にはそれに先行...

人工知能

「NeurIPS 2023のハイライトと貢献」

「ニューラル情報処理システム(Neural Information Processing Systems)カンファレンスであるNeurIPS 2023は、学問的な追及...