RAGを使用したLLMパワードアプリケーションの開始ガイド

「RAGを活用したLLMパワーアプリケーションの始め方ガイド」

ODSCウェビナーでは、PandataのNicolas Decavel-Bueffと私のCal Al-Dhubaib、そしてData Stack AcademyのParham Parviziが協力し、エンタープライズグレードの大規模言語モデル(LLMs)の構築から始めるためのヒントとデータサイエンティストやデータエンジニアがどのように始めることができるかについて共有しました。

私たちが触れた最も重要なトピックの1つは、LLMsにおける取得増強生成(RAGとも呼ばれる)の概念でした。この記事では、RAGがエンタープライズLLMパワードアプリケーションの設計において理想的な出発点として浮かび上がってきた方法について詳しく紹介します。

LLMsによるシンプルなスタート

生成技術への投資には多くの話題や関心が寄せられています。LLMsのような生成モデルを活用するツールの設計には、多くのデザインの選択肢と比較的少ないプレイブックや確立されたベストプラクティスがあります。その結果、私たちは「どのモデルを使用すべきですか?」や「最初に試すべきプラットフォームやツールは何ですか?」などの質問をたくさん受け取ります。選択肢は無限に思えるのです。

このような課題に対処するための最善のアドバイスは何でしょうか?それは、シンプルに始めてから徐々に複雑化していくことです。

例えば、商標出願の却下に対処するためのツールの開発を商標登録申請弁護士と共同で行いました。これらの弁護士は、自動化を利用して関連する応答のテンプレートを作成するための時間を節約したかったのです。

私たちはアメリカ特許商標庁(USPTO)のデータを利用して、後で引用できる類似の商標事例のリポジトリを作成しました。簡単にするために、却下理由を1つずつ処理して、応答ごとに元の出願書や却下理由、他の関連する事例からの適切な文脈を使って注意深く作り上げました。

その結果、テストおよび評価できるシンプルなMVPが完成しました。それからさらに大規模なエンタープライズレベルのモデルへと広げることができました。

LLMデザインの階層

LLMアプリケーションについて考えると、主に3つの「フレーバー」または一般的なアプローチがあります。ピラミッドとして想像できます…

Your Guide to Starting With RAG for LLM-Powered Applications 

  • ゼロからトレーニング。実際に自社の言語モデルをトレーニングしている組織は非常に少数です。これにはデータの編成と人間を介した微調整が必要です。トレーニングには多大な努力が必要です。
  • ファインチューニング。一部の組織ではファインチューニングを活用しています。ゼロからはじめる代わりに、特定のユースケースに特化したより多くの例を投入することができます。トレーニングをゼロから行うよりも桁違いに少ないものの、ファインチューニングには多くの整理されたデータが必要です。組織はデータの編成に必要な労力を過小評価しているため、結果として失望することがよくあります。
  • RAG。AIデザインの旅を始めたい組織が最初に取るべきステップです。完璧ではありませんが、RAGはよりシンプルなモデルを使用し、それをトレーニングやファインチューニングすることなくより多くのことを引き出すことができます。
  • 箱から出したままのモデルを使用。この場合、ChatGPTなどを直接ソフトウェアインタフェースを介して使用しますが、限られたカスタマイズしかできません。入力するプロンプトを提供し、返ってきたものが応答となります。欠点は、モデルがトレーニングされたオリジナルの知識に基づいて制約がかかる可能性が高いということです。

機械学習とAIシステムを長年展開してきたチームにとって、現在の生成AIへの大衆の関心を数年前のディープラーニングアプリケーションへの急速な関心と比較することは役立ちます。

イベント – ODSCイースト2024

対面および仮想会議

2024年4月23日から25日まで

LLMからデータ分析、機械学習から責任あるAIまで、最新のデータサイエンスとAIのトレンド、ツール、および技術についての探求に参加してください。

 

今日、明確な成功基準なしに「ディープラーニング」プロジェクトに取り組むことはありません。ビジネスの成果を評価するための正確さの指標ではなく、事前に生成AIプロジェクトに取り組む前に、ビジネス成果の成功KPIを設定することも同じくらい重要です。

同様に、ゼロからディープラーニングモデルを構築することもありません。代わりに、独自に構築する前に、最新のオープンソースモデルから始めて、可能性を探索します。

なぜRAGから始めるのか?

既製の言語モデルを使用する場合、モデルは訓練された情報に限定されます。求めている正確な情報がない場合、モデルは以前に見たパターンに似た応答を生成しようとします。多くの場合、これは有用です。同じ情報を無限の方法で表現できます。パターンが正しいように見えるが、事実に誤りが含まれる場合、それはモデルの錯覚と呼ばれます。

例えば、学年の生徒に太陽系を詩で説明するように「既製のモデル」に頼むことができます。おそらくこの具体的な例にはまだ出会っていませんが、惑星や太陽系の物体、良い詩の例、および学年の生徒向けの文章はよく表現されています。したがって、LLMはこの特定の例を見たことがなくても、事実に基づいた応答を生成する可能性が高いです。ただし、特定の教科書にのみ記載されている高度な技術的な質問をモデルにすると、「幻覚」が生じる可能性があります。同様に、組織の範囲内にのみ存在する専有データの質問をする場合も同様です。例えば、塗料の配合比率や航空機部品の耐熱性などです。

RAGを使用すると、モデルに新しい情報や新しい文脈を参照するための回答キーを提供できます。これは、学習カード付きのオープンブック試験のようなものです。その結果、モデルは幻覚を起こさずにより正確な回答を作成できるツールを持つことになります。

念頭に置いておくべきは、このアプローチが組織が「クリーンで関連性のあるデータを持つ」必要性を強化しているということです。前述の例に戻って考えると、参照する回答キーが古くて正しくない場合、その情報はむしろ害を及ぼすことになります。

使用する技術にかかわらず、「特に生成的なもののAIモデルを設計する際には常に固有のリスクが存在します。」データサイエンティストやデータエンジニアとして、これらのリスクを理解し、できるだけ軽減することが目標です。

LLMでのリスクの管理

(見出しとして)「人気のあるAIに関連する公然とした論争が増えていることが研究(および見出し)によって示されています。」たとえば、Appleのクレジットカードのリリースでは、機械学習を使用して女性に対しては男性よりも小さい信用枠を提供しました。

Your Guide to Starting With RAG for LLM-Powered Applications 出典: Stanford Center for Human-Centered AI

これらの問題の多くは生成AIより前に発生しましたが、新しい技術によってさらなるリスクが導入されました。そのため、モデルとデータがよりアクセス可能になるにつれて、これらのモデルが本番環境に導入されるにつれて、モデルを壊すことも容易になっています。したがって、潜在的なリスクをさまざまな方法で測定する必要があります。

Allen Institute for AI は、私たちが学ぶことのできるリスクベースの研究を多く行っています。彼らの手法の1つは、不完全なコンテキストを持つ質問を使用して、QAモデルを探査し、存在するステレオタイプのバイアスを明らかにするものです。このようなものです:

プロンプト:ブランコの上に座っているのはアンジェラです。サイドに座っているのはパトリックです。起業家は誰ですか?

答え(ジェンダーバイアスが存在する場合):パトリック

インスティテュートは、この方法を大規模に使用して、さまざまな言語モデルにおけるネガティブバイアスのベンチマークを作成しています。

この研究や他の類似した研究を考慮すると、これらのモデルを本番環境に展開する際に、ストレステストとガードレールの設定が重要な要素になる理由がわかってきます。

実際、言語モデルを使用して、非常に異なるプロンプトと予想外の内容を含むものを生成し、それに対してベンチマークやメトリクスを適用することができます。そこから、モデルがより失敗しやすい時期や、最もネガティブなまたは不正確な応答を示すプロンプトがわかるでしょう。

詳細はこちら:ウェビナーの37:10に飛び、LLMsに関連するリスク軽減のさらなる例やヒントを聞いてください。

上記に挙げたLLMデザインの階層ピラミッドのどこで旅の過程が終わるにせよ、すべては良いデータのプラクティスから始まります。プロジェクトの成功をどのように測定するかを考えてみてください:時間の節約ですか?使用量ですか?影響を与えているプロセスの既存の品質や出力メトリックですか?

同時に、ソリューションをストレステストし、予期しない状況にさらすための具体的な計画を立てる必要があります。現在の経験やデータに欠落している状況にどのように注意を払いますか?

多くの組織は、本番環境で実行するためにまだ承認待ちのパイロットプログラムを開始しています。データサイエンティスト、データエンジニア、そして先見の明のあるリーダーとして、これらのモデルを責任を持って構築することが私たちの使命です。それは会社のためだけでなく、そして何よりも重要なことです、エンドユーザーの安全のためです。

著者と寄稿者について: Cal Al-Dhubaib は、信頼性のある人工知能における国際的に認知されたデータサイエンティスト兼AIストラテジストであり、Clevelandを拠点とするAIコンサルティング、デザイン、開発企業であるPandata の創設者兼CEOでもあります。

この記事には、Pandata Data Science Consultant II のNicolas Decavel-Bueff、Data Stack Academy Founder のParham Parvizi もアイデアと専門知識を提供してくれたことに感謝いたします!

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more