「ChatGPT 3.5 Turboの微調整方法」
「美容とファッションのエキスパートによる、「ChatGPT 3.5 Turbo」の微調整法」
もしまだ聞いていなかったら、OpenAIは最近、GPT-3.5 Turboの微調整が可能になったと発表しました。さらに、GPT-4.0の微調整も今秋後半にリリースされる予定です。特に開発者にとって、これは非常に歓迎すべきニュースとなっています。
しかし、なぜこの発表が重要だったのでしょうか?簡単に言えば、GPT-3.5 Turboモデルの微調整にはいくつかの重要な利点があります。この記事の後半でこれらの利点について探っていきますが、要するに、微調整によって開発者はモデル自体に指示を埋め込むことで、プロジェクトをより効果的に管理し、プロンプトを短縮することができます(最大90%まで)。
GPT-3.5 Turboの微調整版では、特定のタスクにおいてベースのChat GPT-3.5の機能を超えることが可能です。さらに詳しくGPT-3.5 Turboモデルを微調整する方法を見ていきましょう。
- 「Decafと出会う:顔と手のインタラクションのための革新的な人工知能単眼変形キャプチャフレームワーク」
- 「MindGPTとは、fMRI信号から察知された視覚刺激を自然言語に解釈する非侵襲的な神経デコーダーです」
- 「PIXART-αに会ってください:画像生成の品質が最先端の画像生成器と競争するTransformerベースのT2I拡散モデル」
微調整のためのデータの準備
GPT-3.5 Turboのデータを微調整するための最初のステップは、JSONL形式に正しい構造で整形することです。JSONLファイルの各行には、メッセージキーとして3種類の異なるメッセージがあります:
- 入力メッセージ(ユーザーメッセージとも呼ばれます)
- メッセージの文脈(システムメッセージとも呼ばれます)
- モデルの応答(アシスタントメッセージとも呼ばれます)
以下に、これらの3種類のメッセージがすべて含まれる例を示します:
{ "messages": [ { "role": "system", "content": "あなたは経験豊富なJavaScript開発者で、ミスを修正するのに長けています" }, { "role": "user", "content": "次のコードの問題を見つけてください。" }, { "role": "assistant", "content": "提供されたコードには改善できる点がいくつかあります。" } ]}
データの準備が完了したら、JSONオブジェクトファイルを保存する必要があります。
微調整のためのファイルのアップロード
上記のようにデータセットを作成し保存したら、ファイルをアップロードして微調整を行う準備が整いました。
以下は、OpenAIが提供するPythonスクリプトを使用してこれを行う例です:
curl https://api.openai.com/v1/files \ -H "Authorization: Bearer $OPENAI_API_KEY" \ -F "purpose=fine-tune" \ -F "file=@path_to_your_file"
微調整のジョブの作成
さて、ついに微調整を実行する時が来ました。再度、OpenAIがこれを行う方法の例を提供しています:
curl https://api.openai.com/v1/fine_tuning/jobs \-H "Content-Type: application/json" \-H "Authorization: Bearer $OPENAI_API_KEY" \-d '{ "training_file": "TRAINING_FILE_ID", "model": "gpt-3.5-turbo-0613"}'
上記の例のように、ファイルをアップロードするためにリクエストを送信するには、「openai.file.create」を使用する必要があります。ファイルIDを保存して、将来のステップで使用することを忘れないでください。
微調整モデルの利用
ついに、微調整モデルを展開して対話する時が来ました。これはOpenAIプレイグラウンド内で行うことができます。
以下はOpenAIの例です:
<pre><code>curl https://api.openai.com/v1/chat/completions \-H "Content-Type: application/json" \-H "Authorization: Bearer $OPENAI_API_KEY" \-d '{ "model": "ft:gpt-3.5-turbo:org_id", "messages": [ { "role": "system", "content": "You are an experienced JavaScript developer adept at correcting mistakes" }, { "role": "user", "content": "Hello! Can you review this code I wrote?" } ]}'</code></pre><p> </p><p>これは新しいファインチューニングモデルと元のGPT-3.5 Turboモデルを比較する良い機会です。 </p><p> </p><h1 id="advantages-of-fine-tuning">ファインチューニングの利点</h1><p> </p><p>GPT-3.5 Turboのプロンプトをファインチューニングすることにより、モデルの品質とパフォーマンスを向上させるための3つの主な利点があります<a href="https://www.voagi.com/recomp-introduces-compression-and-selective-augmentation-to-boost-language-model-performance.html">。 モデルの品質を向上させるためのcompressLanguage>/a>とパフォーマンス。 </p><p> </p><h2 id="improved-steerability">よりステアリング性能が向上</h2><p> </p><p>これはファインチューニングが開発者に独自のモデルが特定の指示に従うようにすることを可能にするという別の方法です。例えば、モデルを<a href="https://www.voagi.com/ai-for-language-revitalization.html">異なる言語</a>(イタリア語やスペイン語など)で完成させたい場合、モデルをファインチューニングすることでそれが可能になります。出力についても同じです...</p><p> </p><h2 id="more-reliable-output-formatting">より信頼性の高い出力フォーマット</h2><p> </p><p>ファインチューニングにより、モデルは応答を一貫した方法でフォーマットする能力を向上させることができます。これは、コーディングなど、特定の形式が必要なアプリケーションにとって非常に重要です。具体的には、開発者はユーザープロンプトを<a href="https://www.voagi.com/5-essential-skills-for-swift-entry-into-industrial-engineering.html">JSONスニペットに変換される>/a>ようにモデルをファインチューニングすることができ、後でより大きなデータモジュールに組み込むことができます。 </p><p> </p><h2 id="customized-tone">カスタマイズされたトーン</h2><p> </p><p>AIモデルによって生成された出力が特定のトーンで完成することを企業が保証する必要がある場合、ファインチューニングは最も効率的な方法です。多くの企業は、コンテンツやマーケティング資料を自社のブランド声と一致させるか、顧客とより良いつながりを持つ手段として特定のトーンを持っていることを確認する必要があります。
****[ナーラ・デイビス](http://nahlawrites.com/)****はソフトウェア開発者兼テックライターです。テクニカルライティングを専門とする前は、サムスン、タイム・ワーナー、ネットフリックス、ソニーなどのクライアントを持つInc. 5,000の体験ブランディング組織でリードプログラマーを務めた経験もあります。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 「POCOと出会う:3D人体姿勢と形状推定のための画期的な人工知能フレームワーク」
- 「xVal」というものに出会いましょう:科学応用のために数字を言語モデルにエンコードするための継続的な方法で、任意の数字を表すために単一のトークンだけを使用します
- 「多言語AIは本当に安全なのか?低リソース言語における大規模言語モデルの脆弱性を明らかにする」
- このAIの論文は、テキスト変換グラフとして言語モデルパイプラインを抽象化するプログラミングモデルであるDSPyを紹介しています
- 「取得した文書の圧縮は言語モデルのパフォーマンスを向上させることができるのか?このAIの論文では、圧縮と選択的な拡張によって検索増強型LMを改良するためのRECOMPを紹介しています」
- なぜ人々は人工知能AIを恐れているのか?
- 「DiffPoseTalk(デフポーズトーク)をご紹介:新しい音声対応3Dアニメーション人工知能フレームワーク」