Learn more about Search Results Amazon Simple Storage Service - Page 2

「Amazon SageMakerを使用してクラシカルなMLとLLMsを簡単にパッケージ化し、デプロイする方法 – パート1:PySDKの改善」

Amazon SageMakerは、開発者やデータサイエンティストが迅速かつ簡単に、いかなるスケールでも機械学習(ML)モデルを構築、トレーニング、展開できるようにする完全管理型サービスですSageMakerは、モデルをAPI呼び出しを介して直接本番環境に展開することを簡単にしますモデルはコンテナにパッケージ化され、堅牢かつスケーラブルな展開が可能です尽管[...]

新しい – Code-OSS VS Codeオープンソースに基づくコードエディタが、Amazon SageMaker Studioで利用可能になりました

本日は、Amazon SageMaker Studioにおける新しい統合開発環境(IDE)オプションであるCode Editorのサポートを発表することを嬉しく思いますCode Editorは、Code-OSS、つまりVisual Studio Codeのオープンソース版に基づいており、機械学習(ML)開発者が知っていて愛している人気のあるIDEの馴染みのある環境とツールにアクセスする機能が完全に統合されています

Amazon SageMakerノートブックのジョブをスケジュールし、APIを使用してマルチステップノートブックのワークフローを管理します

Amazon SageMaker Studioは、データサイエンティストが対話的に構築、トレーニング、展開するための完全に管理されたソリューションを提供しますAmazon SageMakerのノートブックジョブを使用すると、データサイエンティストはSageMaker Studioで数回クリックするだけで、ノートブックを必要に応じて実行するか、スケジュールに従って実行することができますこの発表により、ノートブックをジョブとしてプログラムで実行することができます[...]

「NVIDIAは、最大級のAmazon Titan Foundationモデルのトレーニングを支援しています」

大型言語モデルに関するすべての情報は大きいです。巨大なモデルは、数千台のNVIDIA GPU上で大規模なデータセットをトレーニングします。 これにより、生成AIを追求する企業には多くの重大な課題が生じる可能性があります。 ビルディング、カスタマイズ、および実行するためのフレームワークであるNVIDIA NeMoは、これらの課題を克服するのに役立ちます。 Amazon Webサービスの経験豊かな科学者と開発者チームは、Amazon TitanのためにAmazon Titan foundation modelsを作成しています。Amazon Titanは、foundation modelsのための生成AIサービスです。このチームは過去数ヶ月間、NVIDIA NeMoを使用しています。 「NeMoと協力する主な理由の1つは、拡張性があり、高いGPU利用を可能にする最適化が組み込まれていることで、より大規模なクラスタにスケーリングできるため、顧客へのモデルのトレーニングと配信をより迅速に行えるようになるということです」と、AWSのシニアトレーニングエンジニアであるレナード・ローセン氏は述べています。 大きなこと、本当に大きなことを考える NeMoの並列処理技術により、効率的なLLMトレーニングが規模にわたって行えます。 AWSのElastic Fabric Adapterと組み合わせることで、チームはLLMを多数のGPUに分散してトレーニングを加速することができました。 EFAは、AWSの顧客に10,000以上のGPUを直接接続し、オペレーティングシステムとCPUをNVIDIA GPUDirectを使用してバイパスするUltraCluster Networkingインフラストラクチャを提供します。 この組み合わせにより、AWSの科学者たちは卓越したモデル品質を提供することができました。これは、データ並列処理アプローチのみに頼っている場合には規模で実現不可能です。…

「Amazon SageMaker Data Wranglerを使用して、生成型AIのデータ準備をシンプルにする」

生成型人工知能(生成型AI)モデルは、高品質のテキスト、画像、およびその他のコンテンツを生成する能力を見せていますしかし、これらのモデルは、最大の可能性を発揮するためには大量のクリーンで構造化されたトレーニングデータが必要ですほとんどの現実世界のデータはPDFなどの非構造化形式で存在しており、効果的に使用するためには前処理が必要ですIDCによると、[…]

新しいAmazon SageMakerコンテナでLLMの推論パフォーマンスを強化する

今日、Amazon SageMakerは、大規模モデル推論(LMI)Deep Learning Containers(DLCs)の新バージョン(0.25.0)をリリースし、NVIDIAのTensorRT-LLMライブラリのサポートを追加しましたこれらのアップグレードにより、SageMaker上で最先端のツールを簡単に使用して大規模言語モデル(LLMs)を最適化し、価格パフォーマンスの利点を得ることができます - Amazon SageMaker LMI TensorRT-LLM DLCは、レイテンシを33%削減します[...]

Amazon Transcribeは、100以上の言語に対応する新しいスピーチ基礎モデル搭載のASRシステムを発表しました

アマゾン・トランスクライブは、完全に管理された自動音声認識(ASR)サービスであり、アプリケーションに音声からテキストへの機能を追加することが簡単になります本日、私たちは次世代の数十億パラメータ音声基礎モデル駆動のシステムを発表し、自動音声認識を100以上の言語に拡張することをうれしく思いますこの記事では、いくつかの話題について説明します

「Amazon SageMaker Studioを使用してBMWグループのAI/MLの開発を加速」

この記事は、BMWグループのマルク・ノイマン、アモール・シュタインベルク、マリヌス・クロメンフックと共同で執筆されましたBMWグループは、ドイツ・ミュンヘンに本社を置き、世界中で149,000人の従業員を擁し、15カ国にわたる30を超える生産・組み立て施設で製造を行っています今日、BMWグループは世界のプレミアム自動車メーカーのリーディングカンパニーです

「コスト効率の高い高性能 AI 推論用の Amazon EC2 DL2q インスタンスが一般提供開始されました」

Qualcomm AIのA.K Royさんによるゲスト記事ですAmazon Elastic Compute Cloud(Amazon EC2)DL2qインスタンスは、Qualcomm AI 100 Standardアクセラレータによってパワーアップされ、クラウド上で効率的に深層学習(DL)タスクを展開するために使用することができますDLタスクのパフォーマンスや精度を開発し、検証するためにも利用できます

『Amazon Search M5がAWS Trainiumを使用してLLMトレーニングコストを30%節約しました』

数十年にわたり、Amazonは機械学習(ML)を先駆的かつ革新的に活用し、顧客に楽しい体験を提供してきました最初の日々から、Amazonは書籍の推薦、検索、不正検出など、さまざまなユースケースにMLを使用してきました同業他社と同様に、高速化されたハードウェアの進歩により、Amazonのチームはモデルの追求を可能にしました

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us