「テックの専門家たちは、ChatGPTのA.I.『幻覚』が消えることを疑い始める」
Tech experts suspect ChatGPT's AI 'hallucination' disappearing.
ChatGPTや他の人工知能チャットボットと十分な時間を過ごせば、彼らが間違った情報を出すのにはあまり時間はかかりません。
幻覚、捏造、単なるでたらめな情報を作り出すといった形容がされ、これは今や企業、組織、高校生など、生成型AIシステムを使って文書を作成し、仕事を進めようとするすべての人にとっての問題となっています。一部では、心理療法から法的な要約の調査と執筆まで、重大な結果をもたらす可能性のあるタスクに使用されています。
「今日のどのモデルも、ある程度の幻覚を抱えていないとは思いません」と、チャットボットClaude 2の製造元であるAnthropicの共同創業者兼社長のダニエラ・アモデイは述べています。
「それらは本当に次の単語を予測するように設計されているだけです」とアモデイは言います。「したがって、モデルがそれを不正確に行う割合があります」
- 「A.I.があなたについて嘘をついた場合、あなたは何ができるのか?」
- 「AIツールにより、アジア系のMIT学生のプロフェッショナルなヘッドショットが白人に変わる」
- 「欧州宇宙機関は、AIが衛星ナビゲーション能力を向上させると述べています」
Fortuneの記事を全文で読む
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles