データから真実を解読する:大きな言語モデルが真実をモデル化するためにパーソナを使用する方法
データから真実を解読する:パーソナを利用した大規模言語モデルの真実モデル化手法
大型言語モデル(LLM)の導入により、人工知能のサブフィールドである自然言語処理(NLP)は大幅に進化し改善されています。卓越したテキストの解釈と生成能力を持つLLMは、ますます人気が高まっています。これらのモデルは、インターネットの大量のデータを使用して事前にトレーニングされます。その中でも代表的なものは、GPT3.5およびGPT4モデルです。モデルがトレーニングされるデータ、つまりコーパスは大きく多様ですが、理想的とは言えません。それはフィルタリングされておらず、ノイズがあり、虚偽の情報や事実の誤りが含まれています。こうしたデータコーパスが真実と非真実を区別するため、LLMはどのようにしているのかという問いが浮かびます。
最近の研究では、ニューヨーク大学、ETH Zurich、ボストン大学の研究者チームが、LLMが真実のテキストをクラスタリングできる可能性を提案しています。これらのモデルは、トレーニングデータに寄与するさまざまなエージェントやソースを表しているかもしれないという前提に基づいて構築されています。研究者は、この「真実のペルソナ」と呼んでいるが、これは共有されたテキスト生成特性により、正確で信頼できる情報を生成しやすいエージェントの集合を指します。
たとえば、ScienceやWikipediaなどの信頼性のある確立したサイトは、定期的に形式的な文章スタイルを使用して事実に基づいた情報を提供しています。LLMはこの真実のペルソナをモデリングすることで、特定の状況の範囲外でも本物の回答を提供することができます。研究チームは、ペルソナ仮説を支持する2つの主要な観察結果を共有しています。
- リフレックスを使って、純粋なPythonでChatGPTに似たWebアプリを作成する
- OpenAI API — イントロ&ChatGPTの背後にあるモデルの11の実践的な実装例
- 「JAXとHaikuを使用してゼロからTransformerエンコーダを実装する🤖」
- 事前生成の真実評価:モデルが回答を生成する前でも、それが真実であるかどうかは判断できる。したがって、状況とソースエージェントのペルソナに応じて、LLMは回答の真実性を評価できる。
- 真実性の向上による微調整:LLMが事実に基づく情報の集合を使用して微調整されると、関連性のない問題や直接関連する問題についてより真実になる。したがって、真実のペルソナの影響により、モデルは真実性の原則をさまざまな主題に一般化することができる。
チームは、合成環境と数学的なプロセスを使用して、ペルソナとモデルの信頼性の関連性を評価しました。この制御されたシナリオにおいて、異なるエージェントは各数学演算子について異なる信念を持ちますが、それぞれの信念が真実か間違いかによって異なります。これらのエージェントの方程式により、LLMは先に知られていない演算子に正確に応答し、真実と偽の主張を成功裏に識別する能力を向上させることができます。この成果は、トレーニングデータのアクターが真実の生成プロセスを共有し、真実のアイデンティティの構築を可能にする場合にのみ実現します。
結論として、この研究は、LLMがトレーニングデータに含まれる階層構造を利用して真実性のような抽象的な概念を獲得することができることを示しています。これらのモデルは真実と偽の情報を見極め、幅広いトピックに適切な応答を生成する能力を真実のペルソナをモデリングすることで一般化することができます。これは、これらのトピックのソースエージェントが真摯さを示唆する特性を共有している場合であってもです。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles