『チャットボットは実際に認識されるよりも頻繁に「幻覚」を見るかもしれない』
『チャットボットの幻覚は、実際の認識よりも頻繁に現れるかもしれない』
サンフランシスコのスタートアップOpenAIは、昨年末にオンラインチャットボットのChatGPTを公開しました。数百万人が質問に答えたり、詩を書いたり、ほぼどんなトピックでも話し合うという人間らしい方法に驚いたのですが、多くの人々はこの新しいタイプのチャットボットがよくものをでっち上げることに遅れました。
数週間後にGoogleが同様のチャットボットを導入したとき、それはジェームズ・ウェッブ望遠鏡について無意味なことを話しました。翌日、マイクロソフトの新しいBingチャットボットは、ギャップ、メキシコのナイトライフ、そしてシンガーのBillie Eilishに関してさまざまな偽の情報を提供しました。そして、3月には、ChatGPTがマンハッタンの連邦裁判所に提出された弁護士のために10ページの法的要約を執筆する際に、半ダースの偽の裁判事例を引用しました。
今、元Googleの従業員によって設立されたVectaraという新しいスタートアップが、チャットボットが真実から逸れる頻度をどれほど推定できるかを試みています。同社の研究では、それが防止されることが意図された状況でも、チャットボットは少なくとも3%から27%の間で情報をでっち上げると推定されます。
The New York Timesから全文を読む
- 「OpenAIのDevDay 2023がAIの発展とカスタマイズの新時代を公開」
- 広告主向けのAIパワードイメージ生成ツールを試験的に導入中のAmazon
- 「Googleの「この画像について」機能:AI生成の誤情報への解決策」
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles