Learn more about Search Results CPU - Page 7

「変革を受け入れる:AWSとNVIDIAが創発的なAIとクラウドイノベーションを進める」

Amazon Web ServicesとNVIDIAは、最新の生成AI技術を世界中の企業にもたらします。 AIとクラウドコンピューティングを結び付けることで、NVIDIAの創設者兼CEOであるジェンセン・ファングとAWSのCEOであるアダム・セリプスキーが火曜日にラスベガスのヴェネチアンエキスポセンターで開催されたAWS re:Invent 2023のステージで合流しました。 セリプスキーは、「AWSとNVIDIAのパートナーシップの拡大を発表できることに「興奮している」と述べ、高度なグラフィックス、機械学習、生成AIインフラストラクチャを提供する新しい製品を提供する予定です。 2社は、AWSが最新のNVIDIA GH200 NVL32 Grace Hopper Superchipと新しいマルチノードNVLinkテクノロジーを採用する最初のクラウドプロバイダであること、AWSがNVIDIA DGX CloudをAWSに導入していること、また、AWSがNVIDIAの人気のあるソフトウェアライブラリを一部統合していることを発表しました。 ファングは、NVIDIAの主要なライブラリがAWSと統合されていることを強調し、データ処理、量子コンピューティング、デジタルバイオロジーなどの領域に対応するNVIDIA AI EnterpriseからcuQuantum、BioNeMoまでの範囲が補完されていることを説明しました。 このパートナーシップにより、AWSは数百万人の開発者とこれらのライブラリを使用している約40,000社の企業にアクセスが開放されるとファングは述べ、AWSがNVIDIAの新しいL4、L40S、そしてまもなくH200 GPUも含めたクラウドインスタンスの提供を拡大していることを喜んでいると付け加えました。 その後、セリプスキーは、AWSデビューとなるNVIDIA GH200 Grace Hopper…

「NVIDIA BioNeMoがAWS上での薬剤探索のための生成型AIを可能にする」

主要な製薬会社やテクバイオ企業の研究者や開発者は、Amazon Web Servicesを通じてNVIDIA Claraソフトウェアとサービスを簡単に展開できるようになりました。詳細はこちらをご覧ください。 本日のAWS re:Inventで発表されたこの取り組みにより、AWSクラウドリソースを使用しているヘルスケアおよびライフサイエンスの開発者は、NVIDIAの加速オファリングを柔軟に統合することができるようになります。これにはNVIDIA BioNeMo(創成AIプラットフォーム)も含まれており、AWS上のNVIDIA DGX Cloudに追加され、高性能コンピューティングのためのAWS ParallelClusterクラスタ管理ツールとAmazon SageMakerマシンラーニングサービスを介して現在利用可能です。 北薬やライフサイエンス企業の数千社がAWSを利用しています。彼らは今やBioNeMoにアクセスして、専有データを使用してデジタル生物学の基礎モデルを構築またはカスタマイズし、NVIDIA GPUアクセラレートクラウドサーバーを使用してモデルのトレーニングとデプロイをスケールアップすることが可能です。 Alchemab Therapeutics、Basecamp Research、Character Biosciences、Evozyne、Etcembly、LabGeniusなどのテクバイオイノベーターは、既にBioNeMoを使用して創成AIによる医薬品の探索と開発を行っています。このコラボレーションにより、彼らはバイオモレキュラーデータ上でトレーニングされた創成AIモデルを開発するためにクラウドコンピューティングリソースを迅速にスケールアップするためのより多くの方法を得ることができます。 この発表により、NVIDIAの既存のヘルスケアに特化したオファリングがAWS上で利用可能になります。それには、医療画像処理のためのNVIDIA MONAIおよびジェノミクスの加速のためのNVIDIA Parabricksも含まれています。 AWSでの新機能:NVIDIA BioNeMoが創成AIを推進する BioNeMoは、デジタル生物学のためのドメイン固有のフレームワークであり、事前学習済みの大規模言語モデル(LLM)、データローダー、最適化されたトレーニングレシピを含んでいます。これにより、ターゲットの同定、タンパク質構造の予測、薬剤候補のスクリーニングを加速することで、コンピュータ支援の薬剤探索を推進することができます。 薬剤探索チームは、BioNeMoを使用して専有データを活用し、クラウドベースの高性能コンピューティングクラスター上でモデルを構築または最適化することができます。…

このAIニュースレターはあなたが必要なすべてです#75

今週は、OpenAIのドラマが終わり、Sam AltmanとGreg BrockmanがOpenAIに復帰し、2人の新しい取締役が任命されました(既存の1人とともに…

ETH Zurichの研究者が、推論中に0.3%のニューロンしか使用しないが、同様のBERTモデルと同等の性能を発揮するUltraFastBERTを紹介しました

ETHチューリッヒの研究者によるUltraFastBERTの開発は、推論中に使用するニューロンの数を削減する問題に取り組み、他のモデルと同様のパフォーマンスレベルを維持しながら、高速なフィードフォワードネットワーク(FFF)の導入により、ベースラインの実装と比較して大幅な高速化を実現しました。 既存の手法は、ETHチューリッヒの研究者によって提供されたコード、ベンチマーク設定、およびモデルの重みによってサポートされています。また、複数のFFFツリーによる共同計算と、GPT-3などの大規模な言語モデルへの応用の可能性を提案しています。研究では、混合スパーステンソルとデバイス固有の最適化によるさらなる高速化も提案されています。 UltraFastBERTは、推論中の選択的なエンゲージメントによる効率的な言語モデリングを実現しています。従来のモデルのフィードフォワードネットワークを簡略化されたFFFに置き換え、一貫した活性化関数と全ノードの出力重みを使用しながらバイアスを排除しています。複数のFFFツリーで中間層の出力を共同計算することにより、多様なアーキテクチャが可能となります。提供される高レベルのCPUおよびPyTorchの実装により、大幅な高速化が実現され、研究では複数のFFFツリーによる高速化や大規模な言語モデルのフィードフォワードネットワークのFFFへの置換も探求しています。デバイス固有の最適化としては、Intel MKLとNVIDIA cuBLASが提案されています。 UltraFastBERTは、推論中にBERT-baseと比較可能なパフォーマンスを達成し、そのニューロンのわずか0.3%のみを使用しています。1日の単一GPUでトレーニングされ、GLUEの予測パフォーマンスは少なくとも96.0%を維持します。UltraFastBERT-1×11-longは、そのニューロンのわずか0.3%を使用してBERT-baseのパフォーマンスに対応します。より深い高速フィードフォワードネットワークではパフォーマンスが低下しますが、CoLAを除くすべてのUltraFastBERTモデルは少なくとも98.6%の予測パフォーマンスを維持します。クイックフィードフォワードレイヤーによる大幅な高速化が示され、CPUで48倍から78倍、GPUで3.15倍の高速化が実現されており、大規模なモデルの置換の可能性が示唆されています。 結論として、UltraFastBERTは、推論中にそのニューロンのわずかな部分しか使用せずに効率的な言語モデリングを実現するBERTの改良版です。提供されるCPUおよびPyTorchの実装により、それぞれ78倍と40倍の高速化が達成されています。研究は、条件付きニューラル実行のプリミティブの実装によるさらなる高速化の可能性を示唆しています。わずか0.3%のニューロンしか使用していないにも関わらず、UltraFastBERTの最良モデルはBERT-baseのパフォーマンスに匹敵し、効率的な言語モデリングの可能性を示しています。UltraFastBERTは、将来のより高速かつリソースフレンドリーなモデルの道を開く効率的な言語モデリングの潜在的な進歩を示しています。 今後の研究の提案内には、ハイブリッドベクトルレベルスパーステンソルとデバイス固有の最適化を使用した効率的なFFF推論の実装、条件付きニューラル実行の完全なポテンシャルの探索、大規模な言語モデルのフィードフォワードネットワークをFFFに置換することによる最適化の可能性についての議論が含まれています。将来の作業では、PyTorchやTensorFlowなどの一般的なフレームワークで再現性のある実装と、UltraFastBERTや類似の効率的な言語モデルのパフォーマンスと実用的な影響を評価するための幅広いベンチマークに焦点を当てることができます。

クラウド移行のマスタリング:成功させるためのベストプラクティス

「クラウド移行のプロセスはどれも同じではありません各システムには独自の要件があります始めるには、この記事をチェックして、試行された実践方法を確認してください」

『Python NumbaとCUDA Cを使用したバッチK-Means』

データ分析のワークロードを並列化することは、特に特定のユースケースに対して効率的な既製の実装がない場合、困難な作業になるかもしれませんこのチュートリアルでは、私が案内します...

「NVIDIAがAIおよびHPCワークロードに特化したH200 Tensor Core GPUを発表」

先週、NVIDIAはH200 Tensor Core GPUを発表しましたこのGPUは、人工知能と高性能コンピューティング(HPC)のワークロードを活性化するために設計された世界で最もパワフルなGPUとして新たな基準を設定することを目指していますH200はNVIDIA Hopperアーキテクチャに基づいており、GPUにはHBM3eが搭載されており、...

「Amazon SageMaker Studioを使用してBMWグループのAI/MLの開発を加速」

この記事は、BMWグループのマルク・ノイマン、アモール・シュタインベルク、マリヌス・クロメンフックと共同で執筆されましたBMWグループは、ドイツ・ミュンヘンに本社を置き、世界中で149,000人の従業員を擁し、15カ国にわたる30を超える生産・組み立て施設で製造を行っています今日、BMWグループは世界のプレミアム自動車メーカーのリーディングカンパニーです

ポッドキャストのアクセシビリティを向上させる:LLMテキストのハイライト化ガイド

イントロダクション ポッドキャストを愛して、最高の部分を覚えておきたいと思ったけれど、音声だけでテキストがない場合、どうすればいいでしょうか? そこで、LLMや音声からテキストへの翻訳などの便利なツールが登場します。 これらのツールは、話された言葉を書かれたノートに魔法のように変換し、簡単に重要なポイントをピックアップして便利な箇条書きを作成します。 そのため、お気に入りのポッドキャストの瞬間は、転写まであと一歩! 2022年11月の最初のデビュー以来、LLMは大流行しています。LLMはさまざまなタスクに使用でき、テキストの要約化は重要なアプリケーションです。 テキスト以外、オーディオやビデオなどの他のモードにも要約化できます。 LLMを使用してポッドキャストのアクセシビリティを向上させ、簡単に利用できる箇条書きのハイライトを生成したり、将来の参照のためにノートを取ることができます。 PaLM(Pathways Language LLM)は、2022年4月にGoogle AIによって確立された重要なLLMです。 今年の2023年3月、PaLM 2の第2バージョンがリリースされ、改良された最新バージョンとなりました。 優れたバイリンガル、コーディング、思考能力を持つことを目指しています。 PaLM 2 LLM APIの利点は、そのAPIが無料で利用できることです。 OpenAIのChatGPTとは異なり、他のLLMよりもパフォーマンスが向上し、推論能力も向上しています。 この記事では、PaLM 2 APIとMaker Suiteという2つのツールを使用して、シンプルなポッドキャストテキストハイライトを作成し、LLMモデルの設定を最適化する方法を学びます。…

「コスト効率の高い高性能 AI 推論用の Amazon EC2 DL2q インスタンスが一般提供開始されました」

Qualcomm AIのA.K Royさんによるゲスト記事ですAmazon Elastic Compute Cloud(Amazon EC2)DL2qインスタンスは、Qualcomm AI 100 Standardアクセラレータによってパワーアップされ、クラウド上で効率的に深層学習(DL)タスクを展開するために使用することができますDLタスクのパフォーマンスや精度を開発し、検証するためにも利用できます

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us