OpenAIがBaby Llamaを発表 – 低電力デバイス向けのLLM!

OpenAI announces Baby Llama - LLM for low-power devices!

人工知能の世界からの最新ニュース! OpenAIの有名な深層学習の専門家、Andrej Karpathy氏が、リソース制約のあるデバイス上で複雑なモデルを実行する方法を革新する可能性のあるエキサイティングな週末プロジェクトに取り組んでいます。彼の「Baby Llama」という作品は、Llama 2モデルの簡略化バージョンであり、純粋なCコードの力とその小さなマシンで高度にインタラクティブなレートを実現する可能性を示しています。この画期的な開発について詳しく見ていきましょう!

また読む:OpenAI、AIモデルの公開を通じてオープンソース競争に参加

インタラクティブレートを目指して – ベビーラマの誕生

深層学習の分野でのパイオニアであるAndrej Karpathy氏は、新しい可能性を探求する好奇心に駆られ、オープンソースのLlama 2のポテンシャルを解き放つための使命に取り組みました。週末にGPT-5を構築する能力を持っていたにもかかわらず、Karpathy氏はAIの限界を押し広げる情熱を示すためにLlama 2の実験に時間を費やしました。

また読む:MetaのLlama 2:商業利用のためのオープンソース化

GPT-2からLlama 2への変換:週末の実験

GithubのリポジトリであるLlama2.cで、Karpathy氏は彼の創造的なプロセスについての洞察を共有しました。彼はnanoGPTフレームワークを使用し、Cプログラミング言語で書かれたLlama 2アーキテクチャに巧みに変換しました。その結果、彼のリポジトリは短期間で2.2K以上のスターを集めることができました。

リソース制約モデルでのインタラクティブレート

Karpathy氏の実験の中で最も驚くべき成果の一つは、比較的小さいモデルで非常にインタラクティブなレートを実現できたことです。数百万のパラメータを含むモデルを使用しており、1500万のパラメータでトレーニングされたTinyStoriesデータセットを使用していますが、Karpathy氏のアプローチは驚くほど成功しました。

また読む:30BのパラメータでGPT-3を凌駕する新しいAIモデル

低電力デバイスでの驚異的な速度

Karpathy氏は自身のM1 MacBook Airで見事な結果を達成しました。Llama 2モデルは約1500万のパラメータを持ち、fp32(単精度浮動小数点)計算で約100トークン/秒という驚異的な推論速度を示しました。この驚くべき結果は、リソース制約のあるデバイスで洗練されたモデルを簡単に実行できる可能性を示しています。

また読む:GPT-3から将来の言語モデルへ

限界を押し広げる – より大きく、より良い

初期の成功に励まされたKarpathy氏は、限界を押し広げ続けました。彼はリポジトリを積極的に更新し、3倍の大きさの4400万パラメータモデルをテストすることにも取り組みました。驚くべきことに、彼はわずか約8時間で32のバッチサイズで4つのA100 GPU上で200kのイテレーションをトレーニングすることができました。

また読む:DeepMindのAIマスターゲーマー:2時間で26ゲームを学習

LLaMA.cppとPyTorchの接続からのインスピレーション

Karpathy氏は、彼のプロジェクトがGeorgi Gerganov氏の「llama.cpp」に強く影響を受けたことを認めています。それはCとC ++を使用してMacBookでLLaMAを使用することを目指したプロジェクトです。Karpathy氏のアプローチは、PyTorchを使用してLlama 2 LLMアーキテクチャをゼロからトレーニングすることから始まりました。それから彼は500行のCファイル「run.c」を使用して、外部ライブラリを必要とせずに最小限のメモリ使用量で推論を行いました。

パフォーマンス向上のための微調整

Cコードをさらに最適化するため、Karpathy氏はさまざまなテクニックを試しました。これには、-O3、-Ofast、-march=nativeなどの異なるコンパイルフラグを使用することが含まれます。これらのフラグは、ベクトル化、ループアンローリング、その他のハードウェア固有のチューニングを可能にし、特定のシステムでさらに高速な推論を実現しました。

まだ展開には向いていない – しかし未来の一端

Karpathy氏の週末の実験は画期的な成功となりましたが、Baby Llamaは本格的なデプロイメントを意図したものではないことを明確にしています。主な目的は、低電力デバイス上でLlama 2モデルを実行する可能性を示すことでした。この実験は、機械学習にはGPUが必要とされるという一般的な信念に挑戦しています。

小型デバイスにおけるAIの未来を形作る

Karpathy氏の実験の影響は、週末のプロジェクトの領域を超えています。GPUを必要とせずに、小型のローカルデバイスにモデルを統合する先例を設定しています。このブレークスルーにより、マイクロソフトはMetaとのパートナーシップを通じて、Llama 2を基にした一連の小さなLLMをリリースする可能性があり、AIのアクセシビリティの新時代を迎えることができるでしょう。

また読む: マイクロソフトがLLMの自動プロンプト最適化フレームワークを導入

私たちの意見

Andrej Karpathy氏は、Llama 2モデルの簡略化バージョンとしてBaby Llamaを発表しました。その開発は、低電力デバイス上で純粋なCコードを使用してAIモデルを実行するという莫大なポテンシャルを示しています。このモデルは驚異的な対話速度と高速な推論を持ち、素晴らしい未来を約束しています。この画期的な実験は、リソース制約のあるマシンでも複雑なAIアプリケーションが成功する未来の舞台を設定しています。AIの世界は間違いなくパラダイムシフトを経験しており、Baby Llamaはその始まりかもしれません!

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

データサイエンス

LangChain:メモリ容量でパフォーマンスを向上させる

私は以前にLangChainに関する記事をすでに公開しており、ライブラリーとその機能を紹介しました今回は、インテリジェントチャ...

人工知能

「AI時代における組織の価値を引き出す」

「AIはAIに脅かされるのではなく、より能力を高め、自主性を増し、強い関係を築くことによって、個人の自己決定力を向上させ...

人工知能

「もしスローガンが真実だったら(ChatGPTによると)」

「私たちはChatGPTに、世界最大の企業のスローガンを再現するように依頼しました今回は、彼らは真実を伝えなければなりません...

機械学習

このAIの論文は、ディフュージョンモデルを向上させるためのDiffEncを発表します

拡散モデルは、画像、音声、ビデオ、音楽などの多様な生成タスクで優れた性能を発揮するパワフルなモデルです。優れたビジュ...

AI研究

スタンフォード大学の新しい人工知能研究は、説明が意思決定時のAIシステムへの過度の依存を軽減する方法を示しています

近年の人工知能(AI)のブームは、AIの能力によって仕事がより速く、より少ない労力で行われることによって、人間の生活がど...

AIニュース

新しい方法で生成AIが休日の贈り物を見つけるのに役立つ方法

「ホリデーショッパーは、自分自身や他の人への贈り物を見つけるために生成AIを利用することができます」(Horidē shoppā wa, ...