「GoogleがCloud TPU v5pとAIハイパーコンピューターを発表:AI処理能力の飛躍」

「Google、Cloud TPU v5pとAIハイパーコンピューターを発表:AI処理能力の驚異的な進化」

Googleは、AIハイパーコンピュータと呼ばれる画期的なスーパーコンピューターアーキテクチャと共に、テンサープロセッシングユニットのリリースで波紋を広げました。これらの革新的なリリースは、リソース管理ツールのダイナミックワークロードスケジューラーとともに、組織のAIタスクの処理における重要な前進を示しています。

直近の11月にリリースされたv5eに継ぎ、Googleの最もパワフルなTPUであるCloud TPU v5pは、従来の設計とは異なり、性能志向のデザインを採用しており、処理能力の大幅な向上を約束しています。ポッドごとに8,960個のチップを装備し、チップ間のインターコネクションスピードは4,800 Gbpsを誇ります。このバージョンは、前のTPU v4と比べて倍のFLOPSと高帯域幅メモリ(HBM)の3倍の印象的な増加を提供します。

パフォーマンスへの注力が大きな成果をもたらし、Cloud TPU v5pは、大規模なLLMモデルのトレーニング時にTPU v4と比べて驚異的な2.8倍の速度向上を実証しています。さらに、第2世代のSparseCoresを活用することで、v5pは前任者に比べて組み込み密なモデルのトレーニング速度が1.9倍速くなります。

一方、AIハイパーコンピューターは、スーパーコンピューターアーキテクチャの革新的な存在となっています。最適化されたパフォーマンスハードウェア、オープンソースソフトウェア、主要な機械学習フレームワーク、そして適応的な消費モデルを組み合わせています。AIハイパーコンピューターは、単一のコンポーネントの補強ではなく、協力的なシステム設計を活用して、トレーニング、微調整、そしてサービスのドメイン全体でAIの効率と生産性を向上させています。

この高度なアーキテクチャは、超大規模なデータセンターインフラストラクチャをベースに、厳密に最適化された計算、ストレージ、ネットワークデザインを特徴としています。さらに、JAX、TensorFlow、PyTorchなどの機械学習フレームワークをサポートするオープンソースソフトウェアを介して関連するハードウェアへのアクセスも提供しています。この統合は、Multislice TrainingやMultihost Inferencingなどのソフトウェアと、Google Kubernetes Engine(GKE)やGoogle Compute Engineとの深い統合にも及びます。

AIハイパーコンピューターを特筆するのは、AIタスクに特化した柔軟な消費モデルです。革新的なダイナミックワークロードスケジューラーやCommitted Use Discounts(CUD)、オンデマンド、スポットなどの伝統的な消費モデルを導入しています。このリソース管理およびタスクスケジューリングプラットフォームは、Cloud TPUとNvidia GPUをサポートし、ユーザーの支出を最適化するために必要なすべてのアクセラレーターのスケジュールを効率化します。

このモデルでは、Flex Startオプションを使用すると、モデルの微調整、実験、短いトレーニングセッション、オフライン推論、バッチタスクに最適です。実行の準備としてGPUおよびTPUの容量を要求するための費用効果の高い手段を提供します。また、カレンダーモードでは、特定の開始時刻を予約することができ、トレーニングや実験的なタスクにおいて正確な開始時刻と7日または14日にわたる期間を必要とする場合に対応します。これらは、最大8週先まで購入可能です。

GoogleのCloud TPU v5p、AIハイパーコンピューター、そしてダイナミックワークロードスケジューラーの発表は、AIの処理能力の飛躍的な進歩を象徴し、AIタスクのパフォーマンス向上、最適化アーキテクチャ、柔軟な消費モデルの新時代を切り開くことを約束しています。これらのイノベーションは、様々な産業における画期的な進展をもたらすことを約束しています。

記事:Google Unveils Cloud TPU v5p and AI Hypercomputer: A Leap in AI Processing Power(MarkTechPost)

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI研究

機械をより人間らしく学習させるトレーニング

研究者たちは、コンピュータビジョンモデルが視覚世界をより安定かつ予測可能な方法で表現するために役立つ特性を特定しました

AIニュース

驚くべき発見:AIが未解決の数学問題を解決する方法

「生産の大部分を捨てる必要があったにもかかわらず、価値のある宝石が捨てられた不用品の中に見つかりました」

データサイエンス

マイクロソフトの研究者たちは、ラベル付きトレーニングデータを使用せずにパレート最適な自己監督を用いたLLMキャリブレーションの新しいフレームワークを提案しています

最近の進展により、大規模言語モデル(LLM)の能力が著しく向上しており、生成事前トランスフォーマー(GPT)モデルは大きな...

AI研究

このAI研究は、DISC-MedLLMという包括的な解決策を提案し、大規模言語モデル(LLM)を活用して正確な医療応答を提供します

テレメディシンの台頭により、医療の提供方法が変わり、プロフェッショナルネットワークを広げ、価格を下げ、遠隔医療相談を...

AI研究

UCバークレーの研究者たちは、Gorillaという名前の、GPT-4を上回るAPIコールの記述において、Finetuned LLaMAベースのモデルを紹介しました

人工知能の分野における最近の大きな進歩は、大規模言語モデル(LLM)の導入です。これらのモデルは、自然言語処理(NLP)や...

機械学習

新しい技術の詳細なコース:AWS上の生成AIの基礎

「AWS上の生成AIの基礎」は、AWSやその他のプラットフォーム上で最新の基礎モデルを事前トレーニング、微調整、展開するため...