Learn more about Search Results 16 - Page 217

GraphStormによる高速グラフ機械学習:企業規模のグラフ問題を解決するための新しい方法

GraphStorm 0.1のオープンソースリリースを発表できることをうれしく思いますGraphStormは、複雑な企業規模のグラフに対して、グラフ機械学習(ML)ソリューションを構築、トレーニング、展開するためのローコードエンタープライズフレームワークであり、数ヶ月ではなく数日で構築することができますGraphStormを使用すると、数十億の関係や相互作用の構造を直接考慮したソリューションを構築できます

Amazon SageMakerでTritonを使用してMLモデルをホストする:ONNXモデル

ONNX(Open Neural Network Exchange)は、多くのプロバイダーによって広くサポートされている深層学習モデルを表現するためのオープンソースの標準ですONNXは、機械学習(ML)モデルを実行するために必要なメモリと計算を削減するための最適化および量子化モデルのツールを提供しますONNXの最大の利点の1つは、標準化された形式を提供することです[…]

Amazon SageMakerのHugging Face推定器とモデルパラレルライブラリを使用してGPT-Jを微調整する

GPT-Jは、Eleuther AIによってリリースされたオープンソースの60億パラメータのモデルですこのモデルはPileで訓練され、言語処理の様々なタスクを実行することができますテキスト分類、トークン分類、テキスト生成、質問応答、エンティティ抽出、要約、感情分析など、様々なユースケースをサポートすることができますGPT-Jは、...

Amazon SageMaker で大規模なモデル推論 DLC を使用して Falcon-40B をデプロイする

先週、テクノロジー・イノベーション・インスティチュート(TII)は、オープンソースの基礎的な大規模言語モデル(LLM)であるTII Falcon LLMを発表しましたFalconは、Amazon SageMakerで1兆トークンでトレーニングされ、ハグイングフェイスのランキングでトップクラスのパフォーマンス(執筆時点での第1位)を誇り、llama-65Bなどの他のLLMよりも比較的軽量でホストするのに費用がかからないとされています[…]

AWS Inferentia2は、AWS Inferentia1をベースにしており、スループットが4倍に向上し、レイテンシが10倍低減されています

機械学習モデル(MLモデル)のサイズ、特に生成AIにとって、大規模言語モデル(LLM)やファウンデーションモデル(FM)のサイズは年々急速に増加しており、これらのモデルにはより高速で強力なアクセラレータが必要ですAWS Inferentia2は、LLMや生成AIの推論のコストを下げつつ、より高いパフォーマンスを提供するように設計されましたこの[...]

Amazon TranslateのActive Custom Translationを使用して、マルチリンガル自動翻訳パイプラインを構築します

Deep Learning(D2L.ai)に飛び込むは、深層学習を誰にでもアクセス可能にするオープンソースのテキストブックですPyTorch、JAX、TensorFlow、MXNetで自己完結型のコードを含む対話型Jupyterノートブック、実世界の例、解説図、数学などが特徴ですこれまでに、D2Lは世界中の400以上の大学で採用されています、例えば[...]

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us