OpenAIがBaby Llamaを発表 – 低電力デバイス向けのLLM!

OpenAI announces Baby Llama - LLM for low-power devices!

人工知能の世界からの最新ニュース! OpenAIの有名な深層学習の専門家、Andrej Karpathy氏が、リソース制約のあるデバイス上で複雑なモデルを実行する方法を革新する可能性のあるエキサイティングな週末プロジェクトに取り組んでいます。彼の「Baby Llama」という作品は、Llama 2モデルの簡略化バージョンであり、純粋なCコードの力とその小さなマシンで高度にインタラクティブなレートを実現する可能性を示しています。この画期的な開発について詳しく見ていきましょう!

また読む:OpenAI、AIモデルの公開を通じてオープンソース競争に参加

インタラクティブレートを目指して – ベビーラマの誕生

深層学習の分野でのパイオニアであるAndrej Karpathy氏は、新しい可能性を探求する好奇心に駆られ、オープンソースのLlama 2のポテンシャルを解き放つための使命に取り組みました。週末にGPT-5を構築する能力を持っていたにもかかわらず、Karpathy氏はAIの限界を押し広げる情熱を示すためにLlama 2の実験に時間を費やしました。

また読む:MetaのLlama 2:商業利用のためのオープンソース化

GPT-2からLlama 2への変換:週末の実験

GithubのリポジトリであるLlama2.cで、Karpathy氏は彼の創造的なプロセスについての洞察を共有しました。彼はnanoGPTフレームワークを使用し、Cプログラミング言語で書かれたLlama 2アーキテクチャに巧みに変換しました。その結果、彼のリポジトリは短期間で2.2K以上のスターを集めることができました。

リソース制約モデルでのインタラクティブレート

Karpathy氏の実験の中で最も驚くべき成果の一つは、比較的小さいモデルで非常にインタラクティブなレートを実現できたことです。数百万のパラメータを含むモデルを使用しており、1500万のパラメータでトレーニングされたTinyStoriesデータセットを使用していますが、Karpathy氏のアプローチは驚くほど成功しました。

また読む:30BのパラメータでGPT-3を凌駕する新しいAIモデル

低電力デバイスでの驚異的な速度

Karpathy氏は自身のM1 MacBook Airで見事な結果を達成しました。Llama 2モデルは約1500万のパラメータを持ち、fp32(単精度浮動小数点)計算で約100トークン/秒という驚異的な推論速度を示しました。この驚くべき結果は、リソース制約のあるデバイスで洗練されたモデルを簡単に実行できる可能性を示しています。

また読む:GPT-3から将来の言語モデルへ

限界を押し広げる – より大きく、より良い

初期の成功に励まされたKarpathy氏は、限界を押し広げ続けました。彼はリポジトリを積極的に更新し、3倍の大きさの4400万パラメータモデルをテストすることにも取り組みました。驚くべきことに、彼はわずか約8時間で32のバッチサイズで4つのA100 GPU上で200kのイテレーションをトレーニングすることができました。

また読む:DeepMindのAIマスターゲーマー:2時間で26ゲームを学習

LLaMA.cppとPyTorchの接続からのインスピレーション

Karpathy氏は、彼のプロジェクトがGeorgi Gerganov氏の「llama.cpp」に強く影響を受けたことを認めています。それはCとC ++を使用してMacBookでLLaMAを使用することを目指したプロジェクトです。Karpathy氏のアプローチは、PyTorchを使用してLlama 2 LLMアーキテクチャをゼロからトレーニングすることから始まりました。それから彼は500行のCファイル「run.c」を使用して、外部ライブラリを必要とせずに最小限のメモリ使用量で推論を行いました。

パフォーマンス向上のための微調整

Cコードをさらに最適化するため、Karpathy氏はさまざまなテクニックを試しました。これには、-O3、-Ofast、-march=nativeなどの異なるコンパイルフラグを使用することが含まれます。これらのフラグは、ベクトル化、ループアンローリング、その他のハードウェア固有のチューニングを可能にし、特定のシステムでさらに高速な推論を実現しました。

まだ展開には向いていない – しかし未来の一端

Karpathy氏の週末の実験は画期的な成功となりましたが、Baby Llamaは本格的なデプロイメントを意図したものではないことを明確にしています。主な目的は、低電力デバイス上でLlama 2モデルを実行する可能性を示すことでした。この実験は、機械学習にはGPUが必要とされるという一般的な信念に挑戦しています。

小型デバイスにおけるAIの未来を形作る

Karpathy氏の実験の影響は、週末のプロジェクトの領域を超えています。GPUを必要とせずに、小型のローカルデバイスにモデルを統合する先例を設定しています。このブレークスルーにより、マイクロソフトはMetaとのパートナーシップを通じて、Llama 2を基にした一連の小さなLLMをリリースする可能性があり、AIのアクセシビリティの新時代を迎えることができるでしょう。

また読む: マイクロソフトがLLMの自動プロンプト最適化フレームワークを導入

私たちの意見

Andrej Karpathy氏は、Llama 2モデルの簡略化バージョンとしてBaby Llamaを発表しました。その開発は、低電力デバイス上で純粋なCコードを使用してAIモデルを実行するという莫大なポテンシャルを示しています。このモデルは驚異的な対話速度と高速な推論を持ち、素晴らしい未来を約束しています。この画期的な実験は、リソース制約のあるマシンでも複雑なAIアプリケーションが成功する未来の舞台を設定しています。AIの世界は間違いなくパラダイムシフトを経験しており、Baby Llamaはその始まりかもしれません!

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

データサイエンス

生成AI:シームレスなデータ転送のための倫理的かつ創造的なイノベーション

この記事は、データエンリッチメントにおける生成AIの変革的な影響について掘り下げ、より正確な洞察と意思決定を促進します

機械学習

PoisonGPT ハギングフェイスのLLMがフェイクニュースを広める

大規模言語モデル(LLM)は、世界中で大きな人気を集めていますが、その採用にはトレース性とモデルの由来に関する懸念があり...

機械学習

「ゲームを一段と盛り上げる:スタートアップのスポーツビジョンAIが世界中にアスレチックを放送」

Pixellotは、ビジョンAIによって得点を稼いでおり、各国の視聴者にリアルタイムのスポーツ放送と分析を提供する組織にとって...

データサイエンス

「ベクターデータベースは、生成型AIソリューションの未来をどのように形作るのか?」

紹介 生成AIの急速に進化する風景において、ベクトルデータベースの重要な役割がますます明らかになってきました。本記事では...

データサイエンス

機械学習を直感的に理解する

確かに、ChatGPTのようなモデルの実際の理論は認めるには非常に難しいですが、機械学習(ML)の根底にある直感は、まあ、直感...

人工知能

AIの革新的なイノベーションが開発者を強化する

SAPは、Build CodeやHANA Cloudなどの複数の生成AI機能を導入し、開発者が迅速にデータから価値を生み出し、革新するのを支援...