「みんなのためのLLM:ランニングLangChainとMistralAI 7BモデルをGoogle Colabで」
「みんなのための美しさとファッション:Google ColabでランニングするLLM:LangChainとMistralAI 7Bモデル」
大規模な言語モデルを無料で実験する
誰もが大規模な言語モデルは大きいことを知っています。そして、それもつい最近までは高級ハードウェアの所有者か、少なくともクラウドにアクセスするためにお金を払った人々のみが利用することができました。しかし、今では時代が変わりました。この記事では、LangChain Pythonライブラリ、FAISSベクトルデータベース、およびMistral-7BモデルをGoogle Colabで完全無料で実行する方法を紹介します。そして、それを使って楽しい実験を行います。
コンポーネント
Pythonで大規模な言語モデルを使用する方法についての記事はTDSにはたくさんありますが、再現がそう簡単ではありません。例えば、LangChainライブラリを使用した多くの例では、OpenAIクラスを使用します。そして、その最初のパラメータ(当然ですが)はOPENAI_API_KEYです。また、RAG(Retrieval Augmented Generation)やベクトルデータベースの他の例ではWeaviateが使用されていますが、そのウェブサイトを開くと「Pricing」という言葉が一番最初に表示されます。ここでは、完全無料で使用できるオープンソースのライブラリを使用します:
- LangChain:言語モデルを搭載したアプリケーションの開発に使用されるPythonフレームワークです。また、モデルに依存しないため、同じコードを異なるモデルで再利用することができます。
- FAISS(Facebook AI Similarity Search):密ベクトルの効率的な類似性検索とストレージのために設計されたライブラリで、検索強化生成に使用します。
- Mistral 7B:73億のパラメータを持つ大規模な言語モデル(Apache 2.0ライセンスの下でリリース)で、著者によれば、全てのベンチマークで13BのLlama2を上回っています。また、HuggingFaceでも利用できるため、使用方法は非常に簡単です。
- 最後になりますが、Google Colabもこのテストの重要な部分です。CPU、16GBのNVIDIA Tesla T4、もしくは80GBのNVIDIA A100を搭載したPythonノートブックへの無料アクセスを提供しています(ただし、無料インスタンスで最後の1つを利用したことはありませんが)。
それでは、始めましょう。
インストール
まず第一に、Google Colabを開いて新しいノートブックを作成する必要があります。必要なライブラリは、最初のセルでpip
を使用してインストールすることができます:
- 自律AIエージェント:データサイエンスと技術の未来を切り拓く先駆者
- 1. データサイエンティストになるべきでない理由 2. データサイエンティストの仕事の種類が合わない 3. 高度な技術と数学的なスキルが必要 4. 長時間の作業とプレッシャーに耐える必要がある 5. プログラミングが苦手な人には適していない 6. 単調な作業が多い場合がある 7. ビジネスとの連携が重要な役割を果たす場合もある Note The translation provided assumes that the text is asking for 7 reasons why you
- 機械学習を革新する:たった7行のコードでAutoGluonを使ってKaggleのトップ4%を達成
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles