Learn more about Search Results ドキュメント - Page 10

「たった1行のコードで、Optimum-NVIDIAが驚くほど高速なLLM推論を解除します」

大規模言語モデル(LLM)は、自然言語処理を革新し、複雑な問題を解決するためにますます展開されています。これらのモデルの最適な性能を達成することは、固有の計算的要求のために非常に困難です。最適化されたLLMの性能は、応答性のある高速な体験を求めるエンドユーザーだけでなく、改善されたスループットがコスト削減に直結するスケーリング展開にとっても非常に価値があります。 それがOptimum-NVIDIAの役割です。Hugging Faceで利用できるOptimum-NVIDIAは、非常にシンプルなAPIを通じてNVIDIAプラットフォーム上のLLMの推論を劇的に高速化します。たった1行のコードを変更するだけで、NVIDIAプラットフォーム上で最大28倍の高速な推論速度と1,200トークン/秒を実現することができます。 Optimum-NVIDIAは、NVIDIA Ada LovelaceおよびHopperアーキテクチャでサポートされる新しいfloat8フォーマットを活用した最初のHugging Face推論ライブラリです。さらに、NVIDIA TensorRT-LLMソフトウェアソフトウェアの高度なコンパイル機能により、LLMの推論を劇的に高速化します。 実行方法 Optimum-NVIDIAを使用したパイプラインで、素早い推論速度でLLaMAを実行するには、わずか3行のコードで開始できます。Hugging Faceのtransformersライブラリを使用してLLaMAを実行するためのパイプラインを既に設定している場合、パフォーマンスのピークを解除するためにわずかなコードの変更のみが必要です! - from transformers.pipelines import pipeline+ from optimum.nvidia.pipelines import pipeline# transformersと同じです!pipe = pipeline('text-generation', 'meta-llama/Llama-2-7b-chat-hf',…

「初期ランキング段階への原則的なアプローチ」

「レコメンデーションシステムでは、レコメンドの構築にはいくつかの段階があるとよく知られていますまずは候補生成、またはリトリーバルとも呼ばれるステージがあり、それに続いて1つ以上の...」

Amazon Kendraを使用して保険請求をインテリジェントに処理するために、Amazon Comprehendで作成されたカスタムメタデータを使用します

構造化データとは、データベース内の列に格納された情報のように固定されたパターンに従うデータ、およびテキスト、画像、またはソーシャルメディアの投稿などの特定の形式やパターンを持たない非構造化データの両方が、さまざまな組織で生産され、消費され続けています例えば、国際データコーポレーション(IDC)によると、[…]

「Protopia AIによる企業LLMアクセラレーションの基盤データの保護」

この記事では、Protopia AIのStained Glass Transformを使用してデータを保護し、データ所有権とデータプライバシーの課題を克服する方法について説明していますProtopia AIは、AWSと提携して、生成AIの安全かつ効率的なエンタープライズ導入のためのデータ保護と所有権の重要な要素を提供していますこの記事では、ソリューションの概要と、Retrieval Augmented Generation(RAG)などの人気のあるエンタープライズユースケースや、Llama 2などの最先端のLLMsでAWSを使用する方法をデモンストレーションしています

『Re Invent 2023の私のお勧め』

ここに私のお気に入りのリストがありますが、特定の順序はありません (Koko ni watashi no okiniiri no risuto ga arimasu ga, tokutei no junjo wa arimasen.)

リトリーバル オーグメンテッド ジェネレーション(RAG)推論エンジンは、CPU上でLangChainを使用しています

「リトリーバル増強生成(RAG)は広範にカバーされており、特にチャットベースのLLMへの応用については詳しく語られていますが、本記事では異なる視点からそれを見て、その分析を行うことを目指しています...」

「デベロッパー用の15以上のAIツール(2023年12月)」

“`html GitHub Copilot GitHub Copilotは、市場をリードするAIによるコーディングアシスタントです。開発者が効率的に優れたコードを作成できるように設計され、CopilotはOpenAIのCodex言語モデルを基に動作します。このモデルは自然言語と公開コードの広範なデータベースの両方でトレーニングされており、洞察に満ちた提案を行うことができます。コードの行や関数を完全に補完するだけでなく、コメント作成やデバッグ、セキュリティチェックの支援など、開発者にとって大変貴重なツールとなっています。 Amazon CodeWhisperer AmazonのCodeWhispererは、Visual StudioやAWS Cloud9などのさまざまなIDEでリアルタイムのコーディング推奨事項を提供する、機械学習に基づくコード生成ツールです。大規模なオープンソースコードのデータセットでトレーニングされており、スニペットから完全な関数までを提案し、繰り返しのタスクを自動化し、コードの品質を向上させます。効率とセキュリティを求める開発者にとって大変便利です。 Notion AI Notionのワークスペース内で、AIアシスタントのNotionがさまざまな執筆関連のタスクをサポートします。創造性、改訂、要約などの作業を助け、メール、求人募集、ブログ投稿などの作成をスピードアップさせます。Notion AIは、ブログやリストからブレストセッションや創造的な執筆まで、幅広い執筆タスクの自動化に使用できるAIシステムです。NotionのAI生成コンテンツは、ドラッグアンドドロップのテキストエディタを使用して簡単に再構成や変換ができます。 Stepsize AI  Stepsize AIは、チームの生産性を最適化するための協力ツールです。プロジェクトの履歴管理やタスク管理の役割を果たし、Slack、Jira、GitHubなどのプラットフォームと統合して更新を効率化し、コミュニケーションのミスを防ぎます。主な機能には、活動の統一した概要、質問への即時回答、堅牢なデータプライバシーコントロールが含まれます。 Mintlify Mintlifyは、お気に入りのコードエディタで直接コードのドキュメントを自動生成する時間の節約ツールです。Mintlify Writerをクリックするだけで、関数のための良く構造化された、コンテキストに即した説明を作成します。開発者やチームにとって理想的であり、複雑な関数の正確なドキュメントを生成することで効率と正確性が高く評価されています。 Pieces for Developers…

「APIのパワーを活用する:認証を通じて製品の開発ロードマップを形成し、ユーザー体験を向上させる」

APIは製品の機能、速度、拡張性を推進します認証はオンボーディングとパーソナライゼーションにおいて重要です将来はAI認証とAPIイノベーションです

「誰も所有していないサービスを修復するために、アンブロックされたものを使う」

「サービスが誰にも所有されていないのは珍しいことではありませんほとんどの文書化もない状態で、Unblockedの魔法を使って、サービスを理解し修正するのはどれだけ簡単か、ご覧ください」

「AIに関するアレン研究所の研究者らが、大規模なデータセット上での2段階のトレーニングプロセスによって開発された、新しい科学文書の埋め込みモデルであるSPECTER2を開発しました」

科学的なドキュメント埋め込みの領域は、SPECTERやSciNCLのような既存のモデル内で適応性とパフォーマンスの課題に直面しています。これらのモデルは特定のドメインでは効果的ですが、引用予測タスクに焦点を絞った狭いトレーニングデータの制約などの制限には取り組んでいます。研究者たちはこれらの課題を確認し、これらの問題に対処し、科学的なドキュメント埋め込みの適応性と全体的なパフォーマンスを大幅に向上させる解決策を作成することを目指しました。 SPECTERやSciNCLといった現在の科学的なドキュメント埋め込みのモデルは、進歩を遂げていますが、トレーニングデータの多様性や引用予測に対する狭い焦点の制約に制約されている必要があります。そのため、AIのAllen Instituteに所属する研究チームが取り組み、画期的なSPECTER2モデルを紹介することで、課題形式に特化したアダプターを採用します。SPECTER2は、23の異なる研究分野を横断した9つのタスクにわたる広範なデータセットを活用します。この革新的な進展は、科学的なドキュメントのさまざまなタイプに適したタスク固有の埋め込みを生成するモデルの能力を大幅に向上させるものです。 SPECTER2は、SciBERTのチェックポイントとクエリ、ポジティブ、ネガティブの候補論文からなる三つ組を使用して引用予測の事前トレーニングから開始する緻密なトレーニングプログラムを実施します。その後の段階では、マルチタスクトレーニングのための課題形式固有のアダプターの統合が行われます。この戦略的な拡張により、モデルはさまざまな下流タスクに最適化されたさまざまな埋め込みを生成することが可能になります。このアプローチの洗練度は、以前のモデルに存在する制約を効果的に扱います。最近導入されたSciRepEvalベンチマークの評価によって、SPECTER2は汎用と科学的な埋め込みモデルよりも優れた性能を発揮していることが明らかになっています。特に、特定のタスク形式にカスタマイズされた単一のドキュメントに複数の埋め込みを提供するモデルの傑出した柔軟性と操作効率が強調されています。 結論として、SPECTER2は科学的なドキュメント埋め込みの大きな進歩を象徴しています。既存のモデルの欠点を修正するための研究チームの苦闘は、その先駆者たちを超える頑強な解決策を生み出しました。SPECTER2の学際的な境界を超える能力、タスク固有の埋め込みの生成、ベンチマーク評価での常に最先端の結果を一貫して達成する能力により、これは多様な科学的な応用において貴重なツールとなります。このブレークスルーにより、科学的なドキュメント埋め込みの領域は豊かになり、将来の進歩の道を拓くことができます。 この投稿は、Allen Institute for AIの研究者が大規模データセット上の2ステップトレーニングプロセスを経て新しい科学的なドキュメント埋め込みモデルSPECTER2を開発しました。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us