Juliaでの一致するチャットボットの構築

Juliaでのチャットボット構築

コンフォーマル予測、LLM、およびHuggingFace — パート1

大規模言語モデル(LLM)は現在非常に注目されています。テキスト分類、質問応答、テキスト生成など、さまざまなタスクに使用されています。このチュートリアルでは、ConformalPrediction.jlを使用して、テキスト分類のためのトランスフォーマーランゲージモデルをコンフォーマライズする方法を示します。

👀 一目でわかること

特に、以下のスケッチで示される意図分類のタスクに興味があります。まず、顧客のクエリをLLMに入力して埋め込みを生成します。次に、これらの埋め込みを可能な意図に一致させるために分類器をトレーニングします。もちろん、この教師あり学習の問題では、入力(クエリ)と真の意図を示すラベルのトレーニングデータが必要です。最後に、コンフォーマル予測を適用して分類器の予測的な不確実性を定量化します。

コンフォーマル予測(CP)は、予測的不確実性の定量化のための急速に進化している方法論です。CPについて詳しく知りたい場合は、まずこの投稿を始める私の3部作の紹介シリーズを参照してください。

コンフォーマライズされた意図分類器の高レベルな概要。画像は著者によるものです。

🤗 HuggingFace

私たちはBanking77データセット(Casanueva et al.、2020)を使用します。このデータセットには、銀行に関連する77の意図に関する13,083のクエリが含まれています。モデル側では、Banking77データセットでファインチューニングされたRoBERTa(Liu et al.、2019)の蒸留バージョンであるDistilRoBERTaモデルを使用します。

モデルはTransformers.jlパッケージを使用してHFから直接実行中のJuliaセッションにロードできます。

このパッケージを使用すると、HFモデルをJuliaで非常に簡単に扱うことができます。開発者に感謝します! 🙏

以下では、トークナイザーtkrとモデルmodをロードしています。トークナイザーはテキストを整数のシーケンスに変換し、それがモデルに入力されます。モデルは隠れ状態を出力し、それが分類器に入力され、各クラスのロジットを取得します。最後に、ロジットはソフトマックス関数を介して対応する予測確率を取得します。以下では、いくつかのクエリをモデルに実行してパフォーマンスを確認します。

# HFからモデルをロード 🤗:tkr =…

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「ゲイリー・ヒュースティス、パワーハウスフォレンジクスのオーナー兼ディレクター- インタビューシリーズ」

ゲイリー・ヒュースティス氏は、パワーハウスフォレンジックスのオーナー兼ディレクターであり、ライセンスを持つ私立探偵、...

人工知能

「ElaiのCEO&共同創業者、Vitalii Romanchenkoについてのインタビューシリーズ」

ヴィタリー・ロマンチェンコは、ElaiのCEO兼共同創設者であり、マイク、カメラ、俳優、スタジオの必要なく、個人が一流のビデ...

人工知能

「リオール・ハキム、Hour Oneの共同創設者兼CTO - インタビューシリーズ」

「Hour Oneの共同創設者兼最高技術責任者であるリオール・ハキムは、専門的なビデオコミュニケーションのためのバーチャルヒ...

人工知能

エンテラソリューションズの創設者兼CEO、スティーブン・デアンジェリス- インタビューシリーズ

スティーブン・デアンジェリスは、エンタラソリューションズの創設者兼CEOであり、自律的な意思決定科学(ADS®)技術を用いて...

機械学習

「Prolificの機械学習エンジニア兼AIコンサルタント、ノラ・ペトロヴァ – インタビューシリーズ」

『Nora Petrovaは、Prolificの機械学習エンジニア兼AIコンサルタントですProlificは2014年に設立され、既にGoogle、スタンフ...

人工知能

「ナレ・ヴァンダニャン、Ntropyの共同創設者兼CEO- インタビューシリーズ」

Ntropyの共同創設者兼CEOであるナレ・ヴァンダニアンは、開発者が100ミリ秒未満で超人的な精度で金融取引を解析することを可...