Learn more about Search Results 24 - Page 286

GraphStormによる高速グラフ機械学習:企業規模のグラフ問題を解決するための新しい方法

GraphStorm 0.1のオープンソースリリースを発表できることをうれしく思いますGraphStormは、複雑な企業規模のグラフに対して、グラフ機械学習(ML)ソリューションを構築、トレーニング、展開するためのローコードエンタープライズフレームワークであり、数ヶ月ではなく数日で構築することができますGraphStormを使用すると、数十億の関係や相互作用の構造を直接考慮したソリューションを構築できます

Amazon SageMakerでTritonを使用してMLモデルをホストする:ONNXモデル

ONNX(Open Neural Network Exchange)は、多くのプロバイダーによって広くサポートされている深層学習モデルを表現するためのオープンソースの標準ですONNXは、機械学習(ML)モデルを実行するために必要なメモリと計算を削減するための最適化および量子化モデルのツールを提供しますONNXの最大の利点の1つは、標準化された形式を提供することです[…]

Amazon SageMakerのHugging Face推定器とモデルパラレルライブラリを使用してGPT-Jを微調整する

GPT-Jは、Eleuther AIによってリリースされたオープンソースの60億パラメータのモデルですこのモデルはPileで訓練され、言語処理の様々なタスクを実行することができますテキスト分類、トークン分類、テキスト生成、質問応答、エンティティ抽出、要約、感情分析など、様々なユースケースをサポートすることができますGPT-Jは、...

Amazon SageMaker で大規模なモデル推論 DLC を使用して Falcon-40B をデプロイする

先週、テクノロジー・イノベーション・インスティチュート(TII)は、オープンソースの基礎的な大規模言語モデル(LLM)であるTII Falcon LLMを発表しましたFalconは、Amazon SageMakerで1兆トークンでトレーニングされ、ハグイングフェイスのランキングでトップクラスのパフォーマンス(執筆時点での第1位)を誇り、llama-65Bなどの他のLLMよりも比較的軽量でホストするのに費用がかからないとされています[…]

Amazon SageMakerを使用した生成型AIモデルにおいて、Forethoughtがコストを66%以上削減する方法

この記事は、Forethought Technologies, Inc.のエンジニアリングディレクターであるJad Chamounと、同社のシニアMLエンジニアであるSalina Wuと共同執筆されましたForethoughtは、顧客サービスのための先進的な生成AIスイートで、その中核には革新的なSupportGPT™技術があり、顧客サポートライフサイクルを変革し、軽減率を高めるために機械学習を利用しています

AWS Inferentia2は、AWS Inferentia1をベースにしており、スループットが4倍に向上し、レイテンシが10倍低減されています

機械学習モデル(MLモデル)のサイズ、特に生成AIにとって、大規模言語モデル(LLM)やファウンデーションモデル(FM)のサイズは年々急速に増加しており、これらのモデルにはより高速で強力なアクセラレータが必要ですAWS Inferentia2は、LLMや生成AIの推論のコストを下げつつ、より高いパフォーマンスを提供するように設計されましたこの[...]

BrainPadがAmazon Kendraを使用して内部の知識共有を促進する方法

この記事では、Amazon KendraとAWS Lambdaを使用した内部知識共有の構造化方法と、Amazon Kendraが多くの企業が直面する知識共有の障害を解決する方法について説明しています

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us