Hugging FaceとGraphcoreがIPU最適化されたTransformersのために提携
Hugging FaceとGraphcoreが協力して、IPU最適化されたTransformersを提供
2021年AIハードウェアサミットでの発表により、Hugging Faceはデバイス最適化モデルやソフトウェア統合を含む新しいハードウェアパートナープログラムの開始を発表しました。ここでは、Intelligence Processing Unit(IPU)を開発したGraphcoreがプログラムの創設メンバーであり、Hugging Faceとのパートナーシップにより開発者が最新のTransformerモデルを簡単に高速化できるよう具体的な説明をしています。
GraphcoreとHugging Faceは、機械知能のパワーを利用するイノベーターにとって、手を取り合って作業を容易にするという共通の目標を持つ2つの企業です。
Hugging Faceのハードウェアパートナープログラムにより、Graphcoreシステムを使用して最新のTransformerモデルを展開し、Intelligence Processing Unit(IPU)に最適化されたモデルを最小限のコーディング複雑さで本番規模で使用することができます。
Intelligence Processing Unitとは何ですか?
IPUは、GraphcoreのIPU-PODデータセンター計算システムを駆動するプロセッサです。この新しいタイプのプロセッサは、AIや機械学習の非常に特定の計算要件をサポートするように設計されています。細かい粒度の並列処理、低精度演算、スパース性の処理能力などがシリコンに組み込まれています。
GPUのようなSIMD/SIMTアーキテクチャを採用するのではなく、GraphcoreのIPUは大規模な並列処理を行うMIMDアーキテクチャを使用し、プロセッサコアの隣に超高帯域幅メモリをシリコンダイ上に配置しています。
この設計により、BERTやEfficientNetなどの最も人気のあるモデルや次世代のAIアプリケーションを実行する際に、高いパフォーマンスと新しいレベルの効率を実現します。
ソフトウェアは、IPUの機能を引き出す上で重要な役割を果たしています。GraphcoreのPoplar SDKは、Graphcoreの創設以来プロセッサと共同設計されています。現在は、PyTorchやTensorFlowなどの標準の機械学習フレームワーク、およびDockerやKubernetesなどのオーケストレーションや展開ツールと完全に統合されています。
広く使用されているこれらのサードパーティシステムとの互換性を持つようにPoplarを作成することで、開発者は他の計算プラットフォームからモデルを簡単に移植し、IPUの高度なAI機能を利用できるようになります。
本番向けのTransformerの最適化
Transformerは、AIの分野を完全に変革しました。CamemBERT(フランス語)からNLPの知見をコンピュータビジョンに適用するViTまで、Hugging Faceではさまざまなアプリケーションで広く使用されています。これらのマルチタレントモデルは、特徴抽出、テキスト生成、感情分析、翻訳など、さまざまな機能を実行できます。
すでに、Hugging Faceはフランス語のCamemBERTからNLPの知見をコンピュータビジョンに適用するViTまで、数百のTransformerを提供しています。Transformerライブラリは、毎月平均200万回ダウンロードされ、需要は増え続けています。
ユーザー数5万人以上を誇るHugging Faceは、オープンソースプロジェクトの最速採用を実現しました。
そして、ハードウェアパートナープログラムを通じて、Hugging Faceは究極のTransformerツールセットを最先端のAIハードウェアと結びつけています。
新しいオープンソースのライブラリとツールキットであるOptimumを使用することで、開発者はHugging Faceが認定したハードウェアに最適化されたモデルにアクセスできます。
これらは、GraphcoreとHugging Faceの共同開発によって開発されており、最初のIPUに最適化されたモデルはOptimumに今年後半に登場する予定です。最終的には、ビジョン、音声、翻訳、テキスト生成など、さまざまなアプリケーションをカバーします。
Hugging FaceのCEOであるClément Delangueは、「開発者は常にGraphcore IPUのような最新かつ最高のハードウェアにアクセスしたいと考えていますが、新しいコードやプロセスを学ぶ必要があるのかという疑問が常にあります。OptimumとHugging Faceハードウェアプログラムを使用すれば、それは問題ありません。プラグアンドプレイです」と述べています。
最先端モデルと最先端ハードウェアが出会う
Hugging Faceパートナーシップの発表前に、特別なGraphcore最適化実装を使用して、Hugging Face BERTをPyTorchで加速するIPUのパワーを実証していました。
この例の詳細は、Graphcoreのブログ「IPUによるBERT-Largeのトレーニングの説明」で確認できます。
Graphcoreシステムで実行されるBERTのドラマチックなベンチマーク結果は、同等のGPUベースのシステムと比較して、現在IPU以外で人気のあるNLPモデルを実行している人々にとって、非常に魅力的なものでしょう。
このような加速は、機械学習の研究者やエンジニアにとってゲームチェンジングなものであり、貴重なトレーニング時間を取り戻し、新しいモデルを開発する際に多くの反復を可能にします。
今や、Hugging Faceプラットフォームを介してグラフコアのユーザーも、このようなパフォーマンスの利点を解放できるようになります。Hugging Faceは、優れたシンプリシティとモデルの範囲を持つことで、さらに多くの人々がトランスフォーマーの力を利用し、AI革命を加速する手助けをしています。
Graphcore IPUシステムについて詳しくは、Hugging Faceハードウェアパートナーポータルを訪問してアクセス方法を学びましょう。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles