「ChatGPT APIのカスタムメモリ」
ChatGPT APIのカスタムメモリ
LangChainメモリータイプの優しい紹介
OpenAI APIを使用したことがある場合、おそらく気づいたことがあるでしょう。
わかりましたか?
そうです!ChatGPT APIを呼び出すたびに、モデルは以前に行ったリクエストの記憶を持っていません。言い換えれば、各APIの呼び出しは独立したインタラクションです。
そして、モデルとの続きのインタラクションが必要な場合、それは確かに迷惑です。チャットボットは、続きのインタラクションが必要な理想的な例です。
この記事では、OpenAI APIを使用してChatGPTにメモリーを与え、以前のインタラクションを記憶させる方法を探っていきます。
ウォームアップ!
モデルとのインタラクションをいくつか行って、このデフォルトのメモリーなしの現象を体験しましょう:
prompt = "私の名前はアンドレアです"response = chatgpt_call(prompt)print(response)# 出力:はじめまして、アンドレアさん!今日はどのようにお手伝いできますか?
しかし、続けて質問をすると:
prompt = "私の名前を覚えていますか?"response = chatgpt_call(prompt)print(response)# 出力:申し訳ありませんが、AI言語モデルとして、個々のユーザーに関する具体的な情報を覚える能力はありません。
そうです、最初のインタラクションで名前を伝えたにもかかわらず、モデルは私の名前を覚えていません。
注意:メソッドchatgpt_call()
は、OpenAI APIのラッパーです。詳細は「ChatGPT API Calls: A Gentle Introduction」でGPTモデルを簡単に呼び出す方法について説明していますので、興味があればご覧ください。
一部の人々は、このメモリーのない状況を避けるために、新しいAPI呼び出しを行うたびに以前の会話履歴をモデルに前もって与えることで対処します。ただし、この方法はコスト最適化されておらず、長い会話には限界があります。
以前のインタラクションをモデルが認識できるようにするために、人気のあるlangchain
フレームワークを使用します。このフレームワークを使用すると、ChatGPTの会話履歴を簡単に管理し、アプリケーションに適したメモリータイプを選択することができます。
LangChainフレームワーク
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles