Learn more about Search Results LLMWare
- You may be interested
- 「DiffPoseTalk(デフポーズトーク)をご...
- 最適化:ニュートン・ラフソン法の幾何学...
- 疾病の原因を特定するための遺伝子変異の...
- 中国の研究者が「FreeMan」という大規模な...
- 「AIイメージジェネレータとは何ですか?2...
- AIによって設計されたカードゲーム、I/O F...
- Amazon Kendraを使用して保険請求をインテ...
- 「米国は、アメリカの軍事作戦を妨害する...
- 「CNN(畳み込みニューラルネットワーク)...
- 見えない現実の暴露:アルバータ州におけ...
- 地球は平らではなく、あなたのボロノイ図...
- GoogleのAIスタジオ:ジェミニの創造的な...
- MTEB 大規模テキスト埋め込みベンチマーク
- なぜ私たちはHugging Face Inference Endp...
- AIを活用した「ディープフェイク」詐欺:...
LLMWareは、複雑なビジネスドキュメントを含む企業ワークフローに適した、生産用の微調整済みモデルであるRAG-Specialized 7BパラメータLLMを発表しました
先月、Ai BloksはエンタープライズグレードのLLMベースのワークフローアプリケーションを構築するための開発フレームワーク、llmwareのオープンソース発表を行いました。今日、Ai BloksはDRAGONシリーズ(Delivering RAG on …)として知られる7BパラメータLLMのリリースと共に、次世代のRAGフレームワークの提供に向けてさらなる大きな進展を遂げました。これらのLLMは、複雑なビジネスおよび法的文書に基づく事実に基づく質問応答の特定の目的で細かく調整され、ビジネスワークフロー向けに設計されています。 より多くの企業が自社独自の情報を使用してスケーラブルなRAGシステムを展開することを目指すにつれて、以下の複数のニーズが認識されています: LLMモデルを周囲のワークフロー機能(ドキュメントの解析、埋め込み、プロンプト管理、ソースの検証、監査追跡など)と統合する統一されたフレームワーク。 事実に基づく質問応答とビジネスワークフローに最適化された、高品質で小型の特化LLM。 オープンソースで費用対効果の高い、カスタマイズのための柔軟性とオプションを備えたプライベート展開。 これらのニーズに応えるため、LLMWareは、そのLLMWareのDRAGONモデルの7つをオープンソースで提供します。これらのモデルは、Hugging Faceリポジトリーにあり、すべてがエンタープライズ用のRAGワークフローにおいて強力なプロダクショングレードの準備が整ったリーディングの基本モデルをベースに細かく調整されています。 全てのDRAGONモデルは、llmware rag-instruct-benchmarkを用いて評価され、その完全なテスト結果と方法論はリポジトリ内のモデルと共に提供されています。それぞれのDRAGONモデルは、100のコアテスト質問の幅広いセットに対して中から高い精度を実現し、幻覚を防ぐための強い根拠を持ち、パッセージから質問に対する答えが得られない場合(「見つからない」分類など)を特定することができます。 DRAGONモデルファミリーは、他の2つのLLMWare RAGモデルコレクションであるBLINGとIndustry-BERTに加わります。 BLINGモデルは、開発者のノートパソコンで動作することが可能なGPU非必須のRAG専門の小型LLMモデル(1B〜3B)です。トレーニングの方法論が非常に似ているため、開発者はローカルのBLINGモデルから始め、本番でパフォーマンスを向上させるためにシームレスにDRAGONモデルに切り替えることができます。DRAGONモデルは、単一のエンタープライズグレードのGPUサーバー上でのプライベート展開を目的としており、企業は自社のセキュリティゾーンで安全かつプライベートにエンドツーエンドのRAGシステムを展開することができます。 このオープンソースのRAG専門モデルのスイートは、コアとなるLLMWare開発フレームワークとMilvusおよびMongo DBのオープンソースプライベートクラウドインスタンスとの統合を備えたエンドツーエンドのRAGソリューションを提供します。数行のコードで、開発者は数千のドキュメントの取り込みと解析、埋め込みベクトルのアタッチ、最新のLLMベースの生成推論の実行、証拠とソースの検証を自動化し、プライベートクラウドで実行することができます。場合によっては、単一の開発者のノートパソコンからさえ実行することができます。 AIブロックスのCEOであるダレン・オーベルストは、「私たちの信念は、LLM(低レイヤーマテリアル)が企業において新たな自動化ワークフローを可能にするということであり、私たちが提供するLLMWareのビジョンは、専門モデル、データパイプライン、すべての有効なコンポーネントを統合したオープンソースのフレームワークを通じて、企業が迅速にカスタマイズし、規模展開するためのLLMベースの自動化を実現することです。」と述べています。 詳細については、llmwareのgithubリポジトリを参照してください:www.github.com/llmware-ai/llmware.git。 モデルへの直接アクセスについては、llmwareのHuggingface組織ページをご覧ください:www.huggingface.co/llmware。
『LLMWareの紹介:生成AIアプリケーションの開発を効率化するためのオールインワン人工知能フレームワーク』
昨年以降、大規模な言語モデル(LLM)に対する大きな関心があるにもかかわらず、多くの企業はまだLLMを既存のエンタープライズワークフローに統合することについての課題に苦慮しています。LLMが登場して以降、モデル技術の大幅な飛躍がありながら、開発ツールは追いついていません。現時点では、統一された、オープンな開発フレームワークが不足しており、迅速かつ大規模なエンタープライズLLMアプリケーションを構築するための環境が整っていません。統一された開発フレームワークが存在しないため、ほとんどのエンタープライズ開発チームは、LLMに対応するために、さまざまなカスタムツール、オープンソース、異なるベンダーソリューション、および複数のライブラリを組み合わせて新しいカスタムデータパイプラインやプロセスを構築しようとしており、採用とバリュー実現までの時間がかかっています。 このニーズを認識し、金融サービスや法務業界におけるエンタープライズLLMアプリケーションのプロバイダーであるAi Bloksは、新しいオープンソースライブラリとしてその開発フレームワークをリリースしています。それをLLMWareとブランディングしています。Ai BloksのCEOであるDarren Oberstによれば、「昨年、クライアントやパートナーと話をする中で、ほとんどの事業がリトリーバル増強生成(RAG)のための共通パターンを見つけるのに苦労していることがわかりました。つまり、LLMと埋め込みモデル、ベクトルデータベース、テキスト検索、ドキュメントの解析とチャンキング、ファクトチェックと後処理などを組み合わせることです。このニーズに応えるために、私たちはこのフレームワークを中心にコミュニティを形成し、RAGのベストプラクティスと関連するエンタープライズLLMのパターンを民主化するためのオープンソースプロジェクトとしてLLMWareを立ち上げました。 LLMWareは、以下のようないくつかの重要な要件を満たすエンタープライズLLMアプリケーションの開発をサポートしています: エンドツーエンドの統一されたRAGフレームワーク – モデル、データパイプライン、ワークフローを一つのコードを数分で使ってカスタムLLMアプリケーションを構築するための直感的な手法を提供します。 ワイドなモデル、クラウド、プラットフォームサポートによる真のオープン性 – 核となるアプリケーションロジックの再利用を促し、「ロックイン」を回避するため、APIベースの主要なモデルとオープンソースをサポートします。 エンタープライズでの拡張性のある開発とプライベートクラウドデプロイメントを設計します。 経験レベルに関係なく、さまざまなLLMアプリケーションパターンのサンプルコードの数十を使ってすばやく始めることができます。 llmwareはgithub/llmware-aiで利用でき、標準的なPythonライブラリ(pip install llmware)としてパッケージ化されています。
「プロダクションに適したRAGアプリケーションの12のチューニング戦略ガイド」
「実稼働のための検索増強生成(RAG)アプリケーションのパフォーマンス向上に調整できる戦略とパラメータ」
「Amazon SageMakerを使用して、クラシカルなMLおよびLLMsを簡単にパッケージ化してデプロイする方法、パート2:SageMaker Studioでのインタラクティブなユーザーエクスペリエンス」
Amazon SageMakerは、開発者やデータサイエンティストが機械学習(ML)モデルを効率的かつ簡単に構築、トレーニング、展開することができる、完全に管理されたサービスですSageMakerを使用すると、APIコールを通じてモデルを直接本番環境に展開することが簡単になりますモデルはコンテナにパッケージ化され、堅牢でスケーラブルな展開が可能ですSageMakerは以下の機能を提供します[…]
「NVIDIA BioNeMoがAWS上での薬剤探索のための生成型AIを可能にする」
主要な製薬会社やテクバイオ企業の研究者や開発者は、Amazon Web Servicesを通じてNVIDIA Claraソフトウェアとサービスを簡単に展開できるようになりました。詳細はこちらをご覧ください。 本日のAWS re:Inventで発表されたこの取り組みにより、AWSクラウドリソースを使用しているヘルスケアおよびライフサイエンスの開発者は、NVIDIAの加速オファリングを柔軟に統合することができるようになります。これにはNVIDIA BioNeMo(創成AIプラットフォーム)も含まれており、AWS上のNVIDIA DGX Cloudに追加され、高性能コンピューティングのためのAWS ParallelClusterクラスタ管理ツールとAmazon SageMakerマシンラーニングサービスを介して現在利用可能です。 北薬やライフサイエンス企業の数千社がAWSを利用しています。彼らは今やBioNeMoにアクセスして、専有データを使用してデジタル生物学の基礎モデルを構築またはカスタマイズし、NVIDIA GPUアクセラレートクラウドサーバーを使用してモデルのトレーニングとデプロイをスケールアップすることが可能です。 Alchemab Therapeutics、Basecamp Research、Character Biosciences、Evozyne、Etcembly、LabGeniusなどのテクバイオイノベーターは、既にBioNeMoを使用して創成AIによる医薬品の探索と開発を行っています。このコラボレーションにより、彼らはバイオモレキュラーデータ上でトレーニングされた創成AIモデルを開発するためにクラウドコンピューティングリソースを迅速にスケールアップするためのより多くの方法を得ることができます。 この発表により、NVIDIAの既存のヘルスケアに特化したオファリングがAWS上で利用可能になります。それには、医療画像処理のためのNVIDIA MONAIおよびジェノミクスの加速のためのNVIDIA Parabricksも含まれています。 AWSでの新機能:NVIDIA BioNeMoが創成AIを推進する BioNeMoは、デジタル生物学のためのドメイン固有のフレームワークであり、事前学習済みの大規模言語モデル(LLM)、データローダー、最適化されたトレーニングレシピを含んでいます。これにより、ターゲットの同定、タンパク質構造の予測、薬剤候補のスクリーニングを加速することで、コンピュータ支援の薬剤探索を推進することができます。 薬剤探索チームは、BioNeMoを使用して専有データを活用し、クラウドベースの高性能コンピューティングクラスター上でモデルを構築または最適化することができます。…
大規模な言語モデルをマスターするための包括的な資源リスト
大規模言語モデル(LLM)は、さまざまなアプリケーションの重要な一部となりましたこの記事では、LLMの世界に飛び込みたいと思う人々のための豊富な情報源のリストを提供しています
このAIニュースレターは、あなたが必要とするすべてです#71
今週、ジョー・バイデン大統領は人工知能の規制を再び注目させるために、人工知能の監督を目的とする行政命令に署名しましたこの指令は様々な政府機関に要請し、…
リコグニションカスタムモデレーションの発表:データを使用して事前訓練されたリコグニションモデレーションモデルの精度を向上させます
企業は、ユーザーが生成した画像や動画をますます使用してエンゲージメントを図っています商品の画像を共有するように顧客を促す電子商取引プラットフォームから、ユーザーが生成した動画や画像を推進するソーシャルメディア企業まで、ユーザーコンテンツを活用することは、強力な戦略ですただし、このユーザーが生成したコンテンツがあなたのポリシーと一致し、[…]を育むことを確実にするのは、困難な場合もあります
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.