「みんなのためのLLM:ランニングLangChainとMistralAI 7BモデルをGoogle Colabで」

「みんなのための美しさとファッション:Google ColabでランニングするLLM:LangChainとMistralAI 7Bモデル」

大規模な言語モデルを無料で実験する

LangChainの芸術的な表現、写真:Ruan Richard Rodrigues、Unsplash

誰もが大規模な言語モデルは大きいことを知っています。そして、それもつい最近までは高級ハードウェアの所有者か、少なくともクラウドにアクセスするためにお金を払った人々のみが利用することができました。しかし、今では時代が変わりました。この記事では、LangChain Pythonライブラリ、FAISSベクトルデータベース、およびMistral-7BモデルをGoogle Colabで完全無料で実行する方法を紹介します。そして、それを使って楽しい実験を行います。

コンポーネント

Pythonで大規模な言語モデルを使用する方法についての記事はTDSにはたくさんありますが、再現がそう簡単ではありません。例えば、LangChainライブラリを使用した多くの例では、OpenAIクラスを使用します。そして、その最初のパラメータ(当然ですが)はOPENAI_API_KEYです。また、RAG(Retrieval Augmented Generation)やベクトルデータベースの他の例ではWeaviateが使用されていますが、そのウェブサイトを開くと「Pricing」という言葉が一番最初に表示されます。ここでは、完全無料で使用できるオープンソースのライブラリを使用します:

  • LangChain:言語モデルを搭載したアプリケーションの開発に使用されるPythonフレームワークです。また、モデルに依存しないため、同じコードを異なるモデルで再利用することができます。
  • FAISS(Facebook AI Similarity Search):密ベクトルの効率的な類似性検索とストレージのために設計されたライブラリで、検索強化生成に使用します。
  • Mistral 7B:73億のパラメータを持つ大規模な言語モデル(Apache 2.0ライセンスの下でリリース)で、著者によれば、全てのベンチマークで13BのLlama2を上回っています。また、HuggingFaceでも利用できるため、使用方法は非常に簡単です。
  • 最後になりますが、Google Colabもこのテストの重要な部分です。CPU、16GBのNVIDIA Tesla T4、もしくは80GBのNVIDIA A100を搭載したPythonノートブックへの無料アクセスを提供しています(ただし、無料インスタンスで最後の1つを利用したことはありませんが)。

それでは、始めましょう。

インストール

まず第一に、Google Colabを開いて新しいノートブックを作成する必要があります。必要なライブラリは、最初のセルでpipを使用してインストールすることができます:

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more