「AIおよびARはデータ需要を推進しており、オープンソースハードウェアはその課題に応えています」
AIおよびARはデータ需要を推進し、オープンソースハードウェアが対応している
データはデジタル経済の命であり、新たな技術が現れ進化するにつれて、データセンターでの高速データ転送速度、低遅延、高い計算能力への需要は指数関数的に増加しています。新技術はデータ伝送と処理の限界を押し広げており、オープンソース技術の採用によって、データセンターオペレーターは現在の運用を最大限に活用し、将来に備えることができます。以下は、高い計算能力の需要を推進する技術の例と、オープンソース技術、コミュニティ、および標準がこの需要に対応するために持続可能な方法でスケールアップを支援している方法です。
人工知能と機械学習
人工知能(AI)と機械学習(ML)技術は、自然言語処理、コンピュータビジョン、音声認識、推薦システム、自動運転など、さまざまな領域を革新しています。AIとMLは、コンピュータにデータから学習し、通常人間の知能が必要とされるタスクを実行することを可能にします。
ただし、AIとMLには大量のデータと計算能力が必要です。例えば、世界で最も高度な自然言語モデルの1つであるGPT-3は、1750億のパラメータを持ち、45テラバイトのテキストデータで訓練されました。このような大規模なデータセットとモデルを効率的に処理するためには、AIとMLアプリケーションには高性能な計算機(HPC)システムが必要であり、高速データ転送速度、低遅延、高い計算能力を提供する必要があります。
HPCの新しいトレンドの1つは、AIとMLのワークロードで一般的な並列処理と行列演算に最適化されたGPUやTPUなどの専用プロセッサを使用することです。たとえば、NVIDIAのGrace CPUは、NVIDIAのGPUテクノロジーを活用して、現在のx86 CPUよりも最大10倍高速なパフォーマンスを提供するように設計された新しいプロセッサです。Grace CPUはまた、CPUとGPU間の高速データ転送速度を実現するNVLinkなどの高速インターコネクトもサポートしています。
- 「LLMモニタリングと観測性 – 責任あるAIのための手法とアプローチの概要」
- 「スノーフレーク vs データブリックス:最高のクラウドデータプラットフォームを作るために競争する」
- PyCharm vs. Spyder 正しいPython IDEの選択
拡張現実と仮想現実
Apple Vision Proの登場は大きな反響を呼びました。拡張現実(AR)と仮想現実(VR)は、エンターテイメント、教育、医療、製造などさまざまな産業を変革している最も没入型でインタラクティブな技術の2つです。ARはデジタル情報を現実世界の上に重ね合わせ、VRはユーザーがヘッドセットを通じて完全にシミュレートされた環境を体験できるようにします。
ただし、これらの技術はデータの転送と処理にも重大な課題を提起します。Apple Vision Proの詳細はまだ明らかにされていませんが、他のVRヘッドセットは一定期間利用可能であるため、いくつかの仮定ができます。たとえば、Oculus Quest 2などのVRヘッドセットは、高品質のビデオやオーディオコンテンツをストリーミングするために、PCまたはクラウドサーバーへの高速接続、ヘッドセットとコントローラーからのトラッキングおよび入力データが必要です。ビデオビットレート(1秒あたりに転送されるデータの量)は、PCやサーバー側で信号をエンコードする速度と、Quest 2プロセッサがヘッドセット側で信号をデコードする速度に依存します。
Oculusによると、VRストリーミングの推奨ビットレートは、解像度やフレームレートによって異なり、150 Mbpsから500 Mbpsの間です。これは、VRストリーミングがウェブブラウジングや音楽ストリーミングなどの他のオンラインアクティビティよりもはるかに高いデータ転送速度を必要とすることを意味します。さらに、VRストリーミングには低遅延も必要であり、遅延時間は信号が1つの地点から別の地点へ移動するまでの時間です。高い遅延は、ゲームプレイがラグやジターを起こし、没入感を損ない、運動病を引き起こす可能性があります。
遅延は、ネットワークの速度、デバイス間の距離、エンコードおよびデコードアルゴリズムなど、いくつかの要素に依存します。Oculusによると、VRストリーミングの理想的な遅延時間は20ミリ秒以下です。ただし、特にWi-Fiや5Gなどの無線接続を介した場合、このレベルのパフォーマンスを実現することは容易ではありません。
データセンター最適化のためのオープンソース技術
新しい技術がデータセンターでの高速データ転送速度、低遅延、高い計算能力への需要を推進するにつれて、データセンターオペレーターは増加する電力消費、新たな冷却要件、スペースの利用、運用コスト、ハードウェアのイノベーションとリフレッシュの急速なペースなど、いくつかの課題に直面しています。これらの課題に対処するために、データセンターオペレーターは現在のインフラストラクチャを最適化し、効率とスケーラビリティを向上させることができる新たな標準と技術を採用する必要があります。
それがOpen19プロジェクトの目標です。Open19プロジェクトは、共通のフォームファクタに基づいたデータセンターハードウェアのオープンスタンダードであり、次世代の高効率な電力分配、再利用可能なコンポーネント、新たな高速インターコネクトの可能性を提供しています。SSIAの使命およびOpen19プロジェクトを通じて作成されたオープンスタンダードは、私たちのデジタルライフとコミュニティの基盤の効率性、スケーラビリティ、持続可能性に向けた大きな産業の動きと調和しています。Open Compute Projectは、コンピュートインフラストラクチャへの成長する需要を効率的にサポートするための別の取り組みです。このプロジェクトも、大規模なコロケーションセンターやハイパースケーラーが通常使用する21インチのサーバーラックサイズに焦点を当て、業界パートナー間でのコミュニティ主導の協力関係を促進してデータセンターソリューションを開発します。OCPの範囲は、サーバーの内部ITコンポーネントだけでなく、データセンター施設にも拡大しています。
結論
新しい技術は、データセンターにおいてより高速なデータ転送速度、低い遅延時間、高い計算能力の需要を推進しています。一方で、コミュニティ、政府、企業はリソース管理や水の使用、電力管理、他の炭素濃度の高い技術創造、利用、展開に関する持続可能性に関して懸念を抱いています。SSIAやLinux Foundationのようなコミュニティ主導のオープンソース技術を採用することで、データセンターの運営者は現在の運用を最大限に活用し、これらの新しいアプリケーションの要求に応えながら、より持続可能な未来に備えることができます。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- マシンラーニングに取り組むため、プライベートエクイティはデータサイエンスの才能を採用しています
- 「医療機械学習におけるバイアスのある臨床データをどのように見るべきか?考古学的な視点への呼びかけ」
- 「PandasAIを使用してデータを自動的に探索し、クリーンアップする方法」
- 現代のデータサイエンティストのための正規表現
- 「データサイエンスのワークフローをマスターする」
- Salesforceは、データ駆動型のAIとCRMを通じて生産性と顧客の信頼性を高める、新しいEinstein 1プラットフォームを発表しました
- ツリー構造パーゼン推定器(Hyperopt)を使ったハイパーパラメータのチューニングの向上