Learn more about Search Results NGC - Page 44
- You may be interested
- 「AIを活用したツールにより、3Dプリント...
- 「AI開発でこれらのミスを com しないでく...
- 新しい – Amazon SageMaker Canvas...
- 「光子チップ ‘レゴのようにはめ込...
- Python例外テスト:クリーンで効果的な方法
- コーディウムのVarun MohanとJeff Wangに...
- 2023年に使用するための11つのAIビデオジ...
- 「SD-Small」と「SD-Tiny」の知識蒸留コー...
- MITの研究者たちは、スケーラブルな自己学...
- アマゾンのSageMakerジオスペーシャル機能...
- 次回のデータプロジェクトで興味深いデー...
- 「カリフォルニアが自動運転車に関するフ...
- 「Pythonで時系列ネットワークグラフの可...
- データサイエンティストの役割の典型
- 「あなたのLLM + Streamlitアプリケーショ...
大規模言語モデル(LLM)の微調整
この投稿では、事前学習されたLLMをファインチューニング(FT)する方法について説明しますまず、FTの重要な概念を紹介し、具体的な例を示して終わります
MetaGPT 現在利用可能な最高のAIエージェントの完全ガイド
「なぜMetaGPTがAutoGPTやBabyAgiなどの他のAIエージェントよりも複雑なコーディングタスクで優れているのかを発見してください詳細な記事でセットアッププロセスを案内し、具体的な例を提供します1行のプロンプトでGPTを搭載したマイクロアプリを構築してください」
「SafeCoder対クローズドソースのコードアシスタント」
数十年にわたり、ソフトウェア開発者は、コード品質の向上と生産性の向上を支援するための手法、プロセス、ツールを設計してきました。たとえば、アジャイル、テスト駆動開発、コードレビュー、CI/CDなどは、今やソフトウェア業界の定番です。 Googleは「How Google Tests Software」(Addison-Wesley、2012)で、システムテストの最終テスト段階でバグを修正するコストが、ユニットテスト段階で修正するコストの1000倍高いと報告しています。これにより、チェーンの最初のリンクである開発者には、初めから品質の高いコードを書くという大きなプレッシャーがかかります。 生成型AIに関する大騒ぎがある一方で、コード生成は開発者が迅速に優れたコードを提供するのに有望な方法のようです。実際、早期の研究では、GitHub CopilotやAmazon CodeWhispererなどの管理されたサービスが、開発者の生産性を向上させるのに役立つことが示されています。 ただし、これらのサービスはユーザー固有の技術文化やプロセスにカスタマイズできないクローズドソースのモデルに依存しています。Hugging Faceは数週間前にSafeCoderをリリースし、この問題を解決しました。SafeCoderは、エンタープライズ向けのコードアシスタントソリューションであり、最新のモデル、透明性、カスタマイズ性、ITの柔軟性、プライバシーを提供します。 この記事では、SafeCoderをクローズドソースのサービスと比較し、当社のソリューションから期待できる利点を強調します。 最先端のモデル SafeCoderは現在、StarCoderモデルをベースに構築されています。StarCoderは、BigCode共同プロジェクト内で設計およびトレーニングされたオープンソースモデルのファミリーです。 StarCoderは、80以上のプログラミング言語でコード生成のためにトレーニングされた155億のパラメータモデルです。Multi-Query Attention(MQA)などの革新的なアーキテクチャの概念を使用してスループットを向上させ、レイテンシを低減させる技術を採用しています。この技術は、FalconとLLaMa 2モデルでも使用されています。 StarCoderは8192トークンのコンテキストウィンドウを持っており、より多くのコードを考慮して新しいコードを生成するのに役立ちます。また、コードの末尾に新しいコードを追加するだけでなく、コードの途中にも挿入することができます。 さらに、HuggingChatと同様に、SafeCoderは時間の経過とともに新しい最先端のモデルを導入し、シームレスなアップグレードパスを提供します。 残念ながら、クローズドソースのコードアシスタントサービスは、基礎となるモデル、その機能、およびトレーニングデータに関する情報を共有していません。 透明性 SafeCoderは、チンチラのスケーリング法則に従って、1兆(1,000億)のコードトークンでトレーニングされたコンピューティング最適化モデルです。これらのトークンは、許可されたオープンソースリポジトリから抽出された2.7テラバイトのデータセットで構築されています。オプトアウトのリクエストへの対応に努め、リポジトリ所有者が自分のコードがデータセットの一部であるかどうかを確認するためのツールも開発しました。 透明性の精神に則り、研究論文ではモデルのアーキテクチャ、トレーニングプロセス、詳細なメトリクスについて開示しています。 残念ながら、クローズドソースのサービスは、「数十億行のコードでトレーニングされました」といった曖昧な情報にとどまっています。私たちの知る限りでは、利用可能なメトリクスはありません。 カスタマイズ性…
「Llama 2内のストップ生成の課題」
メタによるLlama 2の発売は、コミュニティ内で興奮を引き起こし、以前は...を通じてのみアクセス可能だった優れた大規模言語モデルの時代の幕開けを告げています
「GenAIソリューションがビジネス自動化を革新する方法:エグゼクティブ向けLLMアプリケーションの解説」
最近、バイオファーマ企業の製造エグゼクティブとの協力により、私たちは生成型AI、具体的には大規模な言語モデル(LLM)の世界に深く入り込み、それらがどのように利用できるかを探求しました...
Amazon CloudWatchで、ポッドベースのGPUメトリクスを有効にします
この記事では、コンテナベースのGPUメトリクスの設定方法と、EKSポッドからこれらのメトリクスを収集する例について詳しく説明します
「カタストロフィックな忘却を防ぎつつ、タスクに微調整されたモデルのファインチューニングにqLoRAを活用する:LLaMA2(-chat)との事例研究」
大規模言語モデル(LLM)のAnthropicのClaudeやMetaのLLaMA2などは、さまざまな自然言語タスクで印象的な能力を示していますしかし、その知識とタスク固有の...
「生成AIにおけるLLMエージェントのデコーディングの機会と課題」
大規模な言語モデル(LLM)によって駆動される生成型AIアプリケーションの進化が見られていますプロンプトから検索強化生成(RAG)へ、そしてエージェントへと進展していますエージェントについては、産業界や研究界で話題となっており、主にこの技術がエンタープライズアプリケーションを変革し、優れた顧客体験を提供する能力を持つことが注目されています共通のパターンがあります[…]
「Amazon SageMaker JumpStartを使用して、Generative AIとRAGを活用して安全なエンタープライズアプリケーションを構築する」
この投稿では、AWS Amplifyを使用してセキュアなエンタープライズアプリケーションを構築し、Amazon SageMaker JumpStart基盤モデル、Amazon SageMakerエンドポイント、およびAmazon OpenSearch Serviceを呼び出して、テキストからテキストまたはテキストから画像への変換、およびRetrieval Augmented Generation(RAG)の作成方法を説明しますこの投稿を参考にして、AWSサービスを使用してジェネレーティブAI領域のセキュアなエンタープライズアプリケーションを構築するために利用できます
大規模言語モデルのコード解読:Databricksが教えてくれたこと
「ファインチューニング、フラッシュアテンション、LoRa、AliBi、PEFTなどの技術を使用して、カスタムモデルを開発することにより、自分自身のエンドツーエンドのプロダクションレディなLLMワークフローの構築を学びましょう」
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.