ジャーナリズムでのAIの受容 – ニュースカルーセル
AIの受容とジャーナリズム - ニュースカルーセル
最近のJournalismAIの調査によると、LSEのPolis think-tankプロジェクトによって行われた調査によると、調査対象となった世界のニュース組織の75%が、ニュース収集から制作、配信までのワークフローでAIを使用しています。主な目的は、ジャーナリストをより意義のある仕事に割り当てるための効率向上ですが、それはおそらく表面的な説明に過ぎません。Axel Springerなどの企業は、タスクが「AIおよび/または自動化プロセスによって実行される」ため、スタッフを削減しています。Axel SpringerのCEOであるマティアス・ダフナーは、ChatGPTなどのツールが「独立したジャーナリズムをこれまで以上に良くするか、または置き換える可能性がある」と賢明に指摘しています。生成AIの急速な進歩と、それを活用するために設計されたソフトウェアツールのまだ発展途上の市場を考えると、これまで見てきた論争は、AIに大きく影響を与える新しい風景への道のり上のわずかな障害に過ぎないことは明らかです。
このシリーズでは、AI時代のジャーナリズムの未来についての見解を明らかにします。私の見解は、メディア戦略の10年の経験と、ニューラルネットワークの研究を追跡し、クライアントのための機械学習プロジェクトを実施することで得られた知識に基づいています。私の予測は個人の見解であり、一般的な合意を代表するものではありません。読者には私の予測がどれだけ理にかなっているかを批判的に評価することをお勧めします。
カルーセルに乗ろう
ニュースの未来は、単なるロボットによる記事の執筆に関するものだけではありません。それは、ジャーナリズムの理解方法を根本的に変えるサイクルです。このサイクルでは、ニュース記事が書かれ、公開され、自動的に読まれ、その後他のニュースメディアのAIによって迅速に分析されます。分析の結果は、新しい記事の作成にフィードバックされます。このループは、ニュース組織が他の組織の作業からより迅速かつ効率的に利用するため、倫理的および経済的な課題を提起します。本質的には、ジャーナリズムの風景は、一世紀以上にわたって私たちによく仕えてきた編集の原則によって正当化される「ニュースカルーセル」となっており、誰もが少しずつ受け取り、少しずつ提供する自由があります。これにより、独自の報道の価値はどうなるのかという問題が生じます。
コンテンツの作成オリジナルのコンテンツ作成は、ニュースカルーセルの命脈です。理論的には、オリジナルのコンテンツは一度だけ書かれる必要があるだけです。オリジナルのコンテンツはますます自動化プロセスによって作成されるようになりますが、これは人間がしばらく支配する領域です。私たちに最も共感を呼ぶストーリーを考えてみましょう。鋭いインタビュー、思慮深い社説、感動的な人間ドラマなどです。これらのコンテンツは、倫理的な感覚と人間の感情の深い理解を必要とします。これは現時点では人間だけが持っているものです。
数年先を見据えて、一生に一度のインタビューに成功したジャーナリストであると想像してください。細心の注意を払い、対象者の考え方に深く切り込むための質問を練りながら準備します。インタビュー中、スクリプトに従うだけでなく、適応し、変化し、実際の会話に参加します。AIの支援を受けながら、インサイトに富み、美しく表現された物語へと記事を書き記します。
執筆とコンテンツの分離は時代遅れであり、それを受け入れました。APIを通じて簡単に利用できる最先端のLLM(large language models)は、執筆の技術を商品化しました。現在の真の通貨は、コンテンツ(事実、アイデア、視点など)と信頼性です。
公開完成した記事は公開の準備ができています。クリックするだけで、研究と献身の成果物が世界の読者にアクセス可能になります。これは、あなたのキャリアが待ち望んでいた転機かもしれません。あなたを他と差別化する記事です。しかし、後述するように、これはあなたの記事の旅の始まりに過ぎず、その品質と影響力を認識することは個別よりも集合的なものかもしれません。
自動読み込み「スクレイピング」という用語は、データが許可なく抜き取られることを示唆するネガティブな意味を持つことが多い。Googleなどの一部の企業は「インデックス作成」というより緩い用語を選ぶことがあります。これによって、データのカタログ化が強調され、自分自身の目的のための取得行為は軽んじられるようになります。オープンなものでも有料のものでも、コンテンツはスクレイプされることがあります。このような実践に関する法的な規制は不十分です。しかし、一般的な合意は明確です。データの使用が受け入れられる目的と一致している限り、自動読み取りに法的な障壁はありません。歴史的には、費用が大きな障壁でした。しかし、技術の進歩と市場の飽和により、これらの費用は大幅に削減されています。今日、世界中から毎月100万のテキスト記事を取得する費用は、単一のジャーナリストの給料以下です。
分析100万の記事を誰が利益を得るかと言えば?これがLLMとそれに派生する埋め込みモデルの出番です。これらの技術により、膨大なコンテンツをふるいにかけ、特定の読者層に合った情報の核心を正確に特定することが可能になります。かつてはウェブからインデックス化される最小単位としてストーリーを考えていましたが、今では違います。この新しい風景では、ストーリー内の個々の記述が情報の原子単位となります。各記述は、その特定の文脈内でのニュース価値の微小な価値を持ち、関連する記述とリンクされることができます。これらの記述のいくつかは、ほとんどの読者にすでに知られていることを繰り返すため、低い価値を持ちますが、他のものは新鮮で洞察に富んでおり、高い価値を持っています。たとえば、衝撃的なインタビューは、迫力のある質問と考えさせられる回答で満ちています。その発表からわずか3分で、LLMは世界中で行われたすべての記述を分析し、さまざまなターゲットオーディエンスにとっての関連性とニュース価値でそれらを分類します。この環境では、新しい情報は常に回転するニュースカルーセルに統合される貴重な資産となります。
あなたの記事がデビューした数分後に、新しい記事が登場します。この新しいストーリーは、元の作品から10%の小さな部分を取り、他の情報と融合します。その焦点は異なり、新しいターゲットオーディエンスを対象としています。1時間後には、あなたのインタビューがさらに20のストーリーに貢献し、そしてサイクルが繰り返されます。あなたのオリジナルな作品は、ますます広がるグローバルなストーリーのストランドに変わり、新しい形を取り、想像もしなかった方法でオーディエンスに影響を与えます。
進歩の二面性
あなたの新聞社は、あなたが調査に1週間を費やしたジャーナリズムの傑作を正当化するつもりですか?あなたのメディアが単に他の人が書いたものを分析する方が経済的ではないのかと思うかもしれません。予想される未来を暗いものとして描くことはつまり意味がありません。Googleの近日公開予定のGenesisプロジェクトなど、テクノロジーの「ソースガイドストーリーテリング」はすぐそこにあり、ニュースの風景を変えるでしょう。そのため、ニュースカルーセルは以前よりも速く回転し、AIが人間のテキストを理解し、加速力を持つようになります。我々はそれを止められないので、私たちの焦点は適応方法になるべきです。では、いくつかのアイデアを探ってみましょう。
エディトリアルの原則の調整伝統的なエディトリアルの原則を調整する時期かもしれません。たとえば、単に解析やコメントを追加することでストーリーが高まるという考えは、コンテンツが数分以内に再利用される世界では成立しません。代わりに、独自のコンテンツを保護するために、エディトリアルのガイドラインはバランスを取るべきです。コンテンツ作成と集約の境界線がかすれている世界で、盗作防止策はより強力で明確にする必要があります。これは自由を抑制することを意味するのではなく、責任を広げることです。エディトリアルのガイドラインは、読者やストーリーの対象だけでなく、創造者も守り、オリジナルの報道が価値あるものであり続けることを保証するために堡塁となるべきです。これにより、エディトリアルの原則と著作権の原則が将来も両立し強力であることが保証されると思います。
新しいビジネスモデルクオリティなジャーナリズムを維持し、インデックス化されていない有料コンテンツへの閉じ込めを避けるために、協力的な収益共有メカニズムを探求することを考慮するかもしれません。たとえば、コンテンツを分析し伝播するニュースラボが、オリジナルの制作者に対してクレジットと共に参加することができます。このような金融取引の国際的なフレームワークを作ることは、AI時代におけるオリジナルなジャーナリズムの価値を維持するための一つの方法かもしれません。ただし、これを実現するには、主要なニュース機関のリーダーシップが必要とされる複雑な取り組みとなるでしょう。
中央集権化を避けるAIの権力の集中は深刻な懸念です。私の二番目の心配は、GoogleやOpenAI、Anthropicなどのわずかな企業がこの分野を支配することです。私の最大の心配は、これらのAIサプライヤーが単に最高のモデルを作ることに焦点を当てるだけでなく、AIの影響を受けた業界に対しても彼らの大きな権力を使って制御を行うことです。残念ながら、そのような手段にすでに手を付けている企業が存在します。Googleです。彼らは医療、運転、検索、オフィス製品だけでなく、民主主義の中核となる信じられないほどの社会的権力を持つ業界にも狙いを定めています。これは単なるイノベーションではありません。これは制御の統合であり、警戒すべき兆候です。
では、私たちは何ができるのでしょうか?政府は介入すべきですが、それは言うほど簡単ではありません。メディア機関については、答えは明確です:一つの解決策に魅了されず、複数のAIプロバイダーと協力することを目指してください。単一の存在に依存せずに、アイデアと視点の多様性を保護する強力なエコシステムを維持します。それが民主的な議論の基盤です。
透明性の確保私たちは、ニュースルームとAIプロバイダーの双方から、一貫した透明性を実現する努力をしなければなりません。時間をかけて信頼性を維持するための唯一の原則です。これを確保するためには、主に2つの主要なツールがあります。第一に、署名です。これは倫理と説明責任の証です。個人の責任を持つニュースメディアとそうでないメディアを区別するのに役立ちます。第二に、私はAIのラベリング基準も短期的には透明性を促進するのに役立つと信じています。これらのラベルは、記事がどれだけAIによって生成または支援されたかを示します。現時点では、ラベリングの基準の欠如は主編集者の頭痛の種ですが、この透明性がニュースメディアの公衆の認識にとって重要であるとは言えます。しかし、個人的には、これらのラベルは数年後には意味を持たなくなると思っています。なぜなら、すべての記事には少なからずAIの要素が含まれるからです。(すでに、ジャーナリストは情報収集のためにGoogleを使用しており、したがって潜在的に偏った視点を持っているかもしれません。)そして、そのため、近い将来、誰もが「この記事は私自身によって完全に書かれました」とは書かないでしょう。最終的に、私は品質の保証に重要なのは著者の名前だけだと信じています。例えば、”このストーリーはTor KiellandがAIの支援を受けて執筆しました。私自身の責任を持ちます。”
結論
ジャーナリズムは重要な移行期に入っており、約束と課題の両方が存在しています。人間のテキストを理解し、分析と伝播を加速させるAIの力で動くニュースカルーセルは、ますます速く回転し続けるでしょう。私たちジャーナリスト、編集者、AIプロバイダーとして、この変化にどのように適応するかはジャーナリズムの形を決定するでしょう。この変化から逃れることはできませんが、その進路を誘導する機会があります。したがって、私のアドバイスは、AIを避けるのではなく慎重に受け入れることです。エディトリアルの原則を適応させ、新しいビジネスモデルを探求することで協力しましょう。AIの中央集権化の魅力に抗いましょう。透明性を優先しましょう。これらは簡単な課題ではありませんが、私はこれが可能な前進の方法を提供すると信じています。しかし、鍵となるのは、私たちメディアの人々が、この早変わりする風景で私たちの社会的責任を最良に果たす方法についての議論を続けることです。
著者について: Tor KiellandはOpen MindのCEO兼共同創設者であり、責任あるニュース記事執筆のためのAI-drivenソリューションに特化した企業です。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles