Learn more about Search Results CodeLlama 7B
- You may be interested
- 現代AIにおける知識蒸留の力:パワフルで...
- コンピュータビジョンの戦場:チャンピオ...
- 「開発チームのためのAIツール 採用するべ...
- 小さなオーディオ拡散:クラウドコンピュ...
- 「Scikit-Learnクラスを使用したカスタム...
- 二党間の法案が提出され、AIのリスクや規...
- マイクロソフトは、奇妙な新しい粒子が量...
- UCバークレーの研究者たちは、「RLIF」と...
- オラクルクラウドインフラストラクチャは...
- 「ChatGPT Meme Creator Pluginを使ってミ...
- AIが生成したコンテンツは開発者のリスク...
- 教育のためのHugging Faceをご紹介します 🤗
- 「Microsoftの研究者がPIT(Permutation I...
- 「Maxflow Mincut定理の発見:包括的かつ...
- Amazon TranslateのActive Custom Transla...
ミストラルAI オープンソースのラマ2を超える新たな基準を設定する
「ミストラル7Bを先駆けとするオープンソースの大規模言語モデルの台頭を探求してくださいその性能、革新的な機能、分散化の性質の意義に深く入っていってください」
「OpenAIやLM Studioに頼らずにAutoGenを使用する方法」
イントロダクション OpenAIやLMスタジオに頼らずに、あなた自身のAIチームを作成する準備はできていますか?もはや銀行を荒らすことも、アプリをダウンロードすることもありません。llama-cpp-pythonの設定から、autogenフレームワークのヘルプを借りてローカルLLMのパワーを探求するまで。OpenAI APIに依存せず、Autogenのフルポテンシャルを引き出す準備をしましょう。 学習目標 詳細に入る前に、この記事の主な学習目標を概説しましょう: さまざまなAIライブラリとツールを評価・比較する方法を学ぶ。 llama-cpp-pythonがOpenAI APIの代替として提供できる方法を探索する。 2つの現実世界の使用例で獲得した知識を適用する: アルゴリズムメンターチームの構築と金融チャート生成の自動化。 AutoGenの改善されたユーザーエクスペリエンスを探索し、統合されたIPythonを通じて即時のコード実行結果を得る。 この記事はData Science Blogathonの一環として公開されました。 ツール紹介: llama-cpp-python、AutoGen、およびローカルLLM しかし、このテックツールキットの特別な点は何でしょうか? llama-cpp-pythonは、LLMAのような有名なモデルを含めて、ローカルでLLMを実行するためのゲートウェイです。コンピュータ上にAIのスーパースターがいるようなもので、さまざまなBLASバックエンドのサポートにより、速度は驚異的です! AutoGen AutoGenは、基盤モデルを使用するための高レベルな抽象化として機能する統一されたマルチエージェント会話フレームワークです。LLM、ツール、および人間の参加者を統合し、自動化されたチャットを通じて能力のある、カスタマイズ可能で会話形式のエージェントを結合します。エージェント同士が自律的にコミュニケーションして共同作業を行うことができ、複雑なタスクを効率的に進めることやワークフローを自動化することが可能です。 もしAutoGenの機能をより深く探求し、戦略的なAIチームビルディングをどのように支援するかを調べることに興味があるなら、当社の専用ブログ「Strategic AI Team Building…
イリノイ大学の研究者は、コードのための完全なオープンソース大規模言語モデル(LLM)のシリーズであるマジコーダを紹介しました
イリノイ大学アーバナ・シャンペーン校と清華大学の研究者チームは、オープンソースのコードスニペットからの低バイアスと高品質なコーディングチャレンジの生成の課題に取り組むために、Magicoderを導入しました。Magicoderは、Pythonテキストからコードを生成する、多言語のコーディング、データサイエンスプログラムの言語モデルを含むさまざまなコーディングベンチマークで、既存のLLMよりも優れたパフォーマンスを発揮します。 CodeGen、CodeT5、StarCoder、CODELLAMAなどのような主要なベースモデルは、LLMのコード生成と理解の基本的な能力を確立しています。事前学習されたLLMを改善するためには、自己指導とEvol-Instructのような手法を使った指示の調整が提案されており、HumanEval、MBPP、APPS、およびCodeContestsなどの既存のコードベンチマークは、自然言語の説明から単一機能プログラムを開発する際のLLMの評価に利用されます。 Magicoderは、コードのための完全なオープンソースのLLMシリーズであり、OSS-INSTRUCTを使用して75,000件の合成指示データでトレーニングされています。これは、GitHubのシードコードスニペットから多様性と現実世界の関連性を確保しながら、LLMにコーディングの問題と解決策を引き起こすように促します。評価には、HumanEvalとMBPPのようなベンチマークが使用され、pass1メトリックに焦点が当てられます。INSTRUCTORは、埋め込みの類似性に基づいてOSS-INSTRUCT生成データを分類するために使用されます。データのクリーニング技術、含められているのは浄化とプロンプトのフィルタリングなどがあり、堅牢性が向上しています。 Magicoderは、最大でも70億を超える控えめなパラメータサイズで、優れたパフォーマンスを示しています。OSS-INSTRUCTを使用して75,000件の合成指示データをトレーニングしたMagicoderは、Pythonテキストからコードを生成する、多言語のコーディング、データサイエンスプログラムの言語モデリングなど、先進的なコードモデルよりも優れたパフォーマンスを発揮します。拡張版のMagicoderSは、コード生成性能をさらに向上させ、さまざまなベンチマークで同じまたはより大きなサイズの他のモデルを上回ります。MagicoderS-CL-7Bは、コードモデルの中で最先端の結果を同時に達成し、堅牢で優れたコード生成能力を示します。 まとめると、この研究では、オープンソースのコードスニペットからコーディングチャレンジを生成するためにLLMを利用する効果的な手法であるOSS-INSTRUCTの有用性が強調されています。OSS-INSTRUCTを使用して訓練されたMagicoderは、大きなパラメータを持つ他のLLMよりもさまざまなコーディングベンチマークで優れたパフォーマンスを発揮します。また、Evol-Instructと組み合わせると、ChatGPTのような先進的なモデルと同様に、HumanEvalベンチマークで印象的なパフォーマンスを発揮するMagicoderSモデルを向上させます。この研究では、将来のLLMに関する研究や、OSS-INSTRUCTを拡大してより高品質なデータを生成するために、モデルの重み、トレーニングデータ、およびソースコードをオープンソース化することを推奨しています。
「前方予測デコーディング」:LLM推論を加速するための並列デコーディングアルゴリズム
大規模な言語モデル(LLM)であるGPT-4やLLaMAなどは現代のアプリケーションを再構築し続けているが、推論は遅く最適化が困難であるため、自己回帰デコーディングに基づいている。LLMのリクエストの遅延は、リクエストの回答の長さ、または同等の復号化ステップの数にほとんど依存しており、自己回帰デコーディングの各ステップでは時間ごとに1つのトークンしか生成されないため、現在のGPUの並列処理能力は一般的に十分に活用されていない。これは、チャットボットや個人アシスタントなどの実用的なLLMアプリケーションでは問題となり、瞬時の応答を必要とするため、低レイテンシで大規模なシーケンスを頻繁に生成することになる。 自己回帰デコーディングは、メドゥーサとOSDのような先読みデコーディング手法を使用することで高速化することができる。これらの手法は、「予測して確認する」という戦略を採用し、予備モデルが将来のいくつかの可能なトークンについて予測し、オリジナルのLLMがこれらの予測を並列で確認する。これにより、デコードのステップ数が少なくて済む場合にレイテンシを削減することができる。しかし、これらの手法には制約もある。まず、ドラフトモデルが主モデルの出力を適切に予測することができる割合、または同等のトークン受理率は、先読みデコーディング手法が達成できる最大の高速化の上限である。第二に、信頼性のある予備モデルを開発することは容易ではなく、通常はトラフィックの時間的な変動を考慮してトレーニングと細かい調整が必要となる。 LMSYS ORGによる新しい研究では、これらの困難に対処するために開発された新しい正確なデコーディング技術である「先読みデコーディング」を紹介している。1つのステップで多くの後続トークンをデコードすることは計算上制約がありますが、LLMは複数の直交n-gramを同時に生成できることが観察されています。これらのn-gramは将来のシーケンスの一部に適用することができます。従来のヤコビ反復法は並列デコーディングに適応され、自己回帰デコーディングを非線形方程式の解と見なすことが可能になります。生成されたn-gramは記録され、確認後、シーケンスに組み込まれます。先読みデコーディングは特に次のような点で注目に値するです。 事前モデルを使用しないため、展開が高速化されます。 各ステージごとにデコードのステップ数をlog(FLOPs)倍減少させる 研究者は、先読みデコーディングがレイテンシを1.5倍から2.3倍低減することを実証しています。特に、ほとんど計算負荷を増やすことなく処理を削減することが可能です。ただし、利点は限定的です。 彼らは自分たちの実装を作成し、huggingface/transformersとの互換性を持つように先読みデコーディングを作動させています。HuggingFaceはネイティブ生成関数を提供していますが、ユーザーはわずかなコードで効率を大幅に向上させることができます。 ヤコビ反復法は非線形システムを解決するための確立された技術です。LLM推論は事前トレーニングモデルを必要とせず、並列にトークンを作成するためにも使用することができます。ヤコビデコーディングでは、各ステップで1つ以上のトークンに対してLLMの前方計算が行われるため、自己回帰デコーディングの各ステップよりもFLOPが多く必要です。研究者は、実世界のアプリケーションにおいてヤコビデコーディングのウォールクロック性能を大幅に改善しようとする際に遭遇するいくつかの困難を観察しています。ヤコビデコーディングは、多くのトークンを複数のステップでデコードすることができますが、トークンの順序がしばしば間違ってしまいます。適切に予測された場合でも、トークンは次のサイクルで置き換えられることがよくあります。そのため、わずかな反復で複数のトークンを同時に正確にデコードすることはできません。これにより、並列デコーディングを使用する目的が無効化されます。一般に、グラフィックス処理ユニットの並列処理能力のおかげで、パフォーマンスの低下は起こりません。 先読みデコーディングは、ヤコビデコーディングの並列n-gram生成能力を生かすことで、これらの欠点を克服することができます。ある時点での各新しいトークンは、ヤコビデコーディングで前の反復のその位置の値を使用してデコードされます。このプロセスにより、多くのn-gramが形成され、各トークン位置の過去のトークンのタイムラインが作成されます。これを活用するため、先読みデコーディングではこれらのn-gramが軌跡に基づいて収集され、キャッシュされます。先読みデコーディングは、将来のトークンに対してヤコビ反復を使用した並列デコーディングを実行しながら、キャッシュから期待されるn-gramを同時に確認します。 各先読みデコードフェーズは、効率を向上させるために、先読みブランチと検証ブランチの2つの並行したブランチに分割されます。Jacobi反復軌跡からn-gramを生成するため、先読みブランチは定数サイズの二次元ウィンドウを保持します。同時に、有望なn-gramの候補は検証ブランチによって選択され、確認されます。 LLMデコードにおいて主要なボトルネックはメモリーバンド幅であるため、研究者は先読みブランチと検証ブランチを1回の通過に組み合わせ、関連するオーバーヘッドを隠蔽しながらGPUの並列処理能力を活用します。 研究チームは、LLaMA-2-ChatとCodeLLaMAの異なるサイズをMT-bench、HumanEval、GSM8Kでテストし、先読みデコードの有効性を確認しました。先読みデコード技術は、微調整や事前モデルの必要性なしに高速化を実現します。彼らはfp16精度の下で、単一のA100 GPUで7B、13B、33Bモデルを評価し、2つのA100 GPUで70Bモデルをパイプライン並列処理します。 MT-Bench LLaMA Discussion: 多くのモデル構成で、先読みデコードによるスピードアップは約1.5倍です。 HumanEval’s CodeLLaMA: CodeLLaMAでは、先読みデコードを使用するとHumanEvalのレイテンシが2倍以上減少します。これは、コードには数多くの容易に推測可能なN-gramが含まれているためです。 GSM8Kの教育用CodeLLaMA: 先読みデコードにより、CodeLLama-InstructorをGSM8Kの数学的な課題に適用することで、レイテンシが1.8倍減少します。…
新しいAmazon SageMakerコンテナでLLMの推論パフォーマンスを強化する
今日、Amazon SageMakerは、大規模モデル推論(LMI)Deep Learning Containers(DLCs)の新バージョン(0.25.0)をリリースし、NVIDIAのTensorRT-LLMライブラリのサポートを追加しましたこれらのアップグレードにより、SageMaker上で最先端のツールを簡単に使用して大規模言語モデル(LLMs)を最適化し、価格パフォーマンスの利点を得ることができます - Amazon SageMaker LMI TensorRT-LLM DLCは、レイテンシを33%削減します[...]
「メタのCode Llamaコード生成モデルは、Amazon SageMaker JumpStartを介して利用可能になりました」
今日は、Metaが開発したCode Llama foundationモデルが、Amazon SageMaker JumpStartを通じて顧客に提供され、クリックひとつで推論を実行するためにデプロイできることをお知らせすることを喜んでいますCode Llamaは、コードと自然言語のプロンプトの両方からコードとコードに関する自然言語を生成することができる最新の大規模言語モデル(LLM)ですCode[…]
このAIの論文では、プログラミング言語が指示調整を通じて互いを向上させる方法について説明しています
大型言語モデル(LLM)の導入は世界中で大きな話題となっています。これらのモデルは、人間のように独自で創造的なコンテンツを生成し、人間のように質問に答えることで知られています。また、これらのモデルは長い文章を要約したり、言語を翻訳したり、コードを補完することも可能です。最近、コード生成専用のLLMが急速に開発されています。これらのモデルの素晴らしいコード生成能力は、学術および産業界で大きな注目を集めています。CodeGeeX、StarCoder、CodeLlama、Codexなどは、最近導入された注目すべきコードLLMの一部です。 指示チューニングアルゴリズムの応用は、コードLLMの分野での興味深いブレークスルーです。最近の研究では、特定の指示に従う方法をLLMに教えることで、彼らのコード生成能力を向上させることが可能であるというアイデアが検討されています。最近の研究では、人間のプログラマが1つのプログラミング言語をマスターした後、2番目の言語を習得することがより簡単になる可能性があるという興味深いアイデアを探求しています。この研究の主な目標は、大型言語モデルが指示を微調整している間に、さまざまなプログラミング言語がお互いを補完できるかどうかを明らかにすることです。 この理論を探求し、調査するために、研究者のグループはPython、JavaScript、TypeScript、C、C++、Java、Go、HTMLの8つの人気プログラミング言語を使用した一連の大規模な実験を行いました。これらの言語は、HTMLのようなマークアップ言語からCやC++のようなシステムレベルの言語、PythonやJavaScriptのようなスクリプト言語まで、さまざまなプログラミングパラダイムとユースケースを含んでいます。これらのテストの主な目的は、1つのプログラミング言語での指示の微調整が他の言語と組み合わせた場合に、コードLLMのパフォーマンスを向上させるかどうかを確認することでした。これらのテストでは、使用されるコードLLMはStarCoderでした。 言語ごとの構文や要件に指示が準拠していることを確認するために、言語固有の指示を作成する方法は、初期のPythonベースのシード指示を詳細に進化させるか、HTMLの場合は広範な進化を行うことです。詳細な進化は、Pythonベースのシード指示から始めて、より複雑でターゲットの言語に合わせた言語固有の指示を生成する方法であり、言語固有のニュアンスを捉えます。一方、広範な進化は、Pythonベースの指示からではなく、HTML固有の指示を新たに作成する方法であり、Web開発のHTMLの独特な性質を認識しています。 実験の結果からは、いくつかの強力な結論が導かれました。コード作成の作業において、プログラミング言語は明らかに他の言語よりも優れたパフォーマンスを発揮することが示されました。例えば、HumanEval-Xベンチマークを使用してJavaコードでテストした場合、PythonデータでトレーニングされたCODEM-Python 15Bというコードモデルは、pass@1の正解率において驚異的な17.95%の絶対的な改善を示しました。この結果から、Pythonのような1つの言語の知識は、Javaなどの他の言語でのコード生成を大幅に改善することができるということが示唆されます。 さらに驚くべきことに、マークアップ言語であるHTMLのコーパスに使用された場合、CODEM-HTML 7Bはpass@1の絶対的な改善率15.24%を示しました。これは、HTMLのようなマークアップ言語とJavaのような従来のプログラミング言語など、根本的に異なる言語でも、お互いのコード生成能力を相互に向上させることができるということを意味します。
GGMLとllama.cppを使用してLlamaモデルを量子化する
この記事では、私たちはGGMLとllama.cppを使用してファインチューニングされたLlama 2モデルを量子化しますその後、GGMLモデルをローカルで実行し、NF4、GPTQ、およびGGMLのパフォーマンスを比較します
「Llama 2がコーディングを学ぶ」
イントロダクション Code Llamaは、コードタスクに特化した最新のオープンアクセスバージョンであり、Hugging Faceエコシステムでの統合をリリースすることに興奮しています! Code Llamaは、Llama 2と同じ許容されるコミュニティライセンスでリリースされ、商業利用が可能です。 今日、私たちは以下をリリースすることに興奮しています: モデルカードとライセンスを備えたHub上のモデル Transformersの統合 高速かつ効率的な本番用推論のためのテキスト生成推論との統合 推論エンドポイントとの統合 コードのベンチマーク Code LLMは、ソフトウェアエンジニアにとってのエキサイティングな開発です。IDEでのコード補完により生産性を向上させることができ、ドックストリングの記述などの繰り返しや面倒なタスクを処理することができ、ユニットテストを作成することもできます。 目次 イントロダクション 目次 Code Llamaとは? Code Llamaの使い方 デモ Transformers…
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.