「量子的な精度をスケールで達成する物質シミュレーションに授与されるゴードン・ベル賞」

『量子的な精度でスケールを達成する物質シミュレーションに贈られるゴードン・ベル賞』

Gordon Bell Prizeは、並列コンピューティングの進歩を追跡し、科学、エンジニアリング、大規模データ分析の課題に高性能コンピューティングを応用する革新を称えるものです。 ¶ クレジット:Association of Computing Machinery

アメリカとインドの研究機関のチームが、2023年のACM Gordon Bell Prizeを受賞しました。彼らは、量子多体(QMB)法の提供する精度と密度汎関数理論(DFT)の効率を組み合わせた材料シミュレーションフレームワークで受賞しました。

チームは、新しい手法のために3つの相互接続されたモジュールを提案しました。

1つは、QMB法とDFTを結びつける逆DFT(invDFT)の方法論的な進歩でした。

2つ目のモジュールは、量子的な精度に相応しいinvDFTデータで訓練された機械学習密度汎関数で、彼らはそれをMLXCと呼びました。

3つ目は、MLXCを効率的なソルバ戦略やスーパーコンピューティングの革新と統合する、適応的な高次スペクトル有限要素ベースのDFT実装です。それには、線形代数、混合精度アルゴリズム、非同期計算通信の効果的なソルバ戦略とスーパーコンピューティングの革新が含まれています。

受賞式は、International Conference for High-Performance Computing, Networking, Storage and Analysis(SC23)で行われました。 From Association for Computing Machinery 全文を見る

抄録著作権 © 2023 SmithBucklin、ワシントンD.C., USA

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

QLoRAを使用して、Amazon SageMaker StudioノートブックでFalcon-40Bと他のLLMsをインタラクティブにチューニングしてください

大規模な言語モデル(LLM)の微調整により、オープンソースの基礎モデルを調整して、特定のドメインタスクでのパフォーマンス...

機械学習

費用効率の高いGPT NeoXおよびPythiaモデルの訓練における節約と正確性:AWS Trainiumの活用

大規模言語モデル(またはLLMs)は、日々の会話のトピックとなっていますその迅速な採用は、1億人のユーザーに到達するまでに...

AI研究

「産業界が音声AIを活用して消費者の期待に応えている方法」

急速な技術の進歩のおかげで、消費者は前例のないほどの便利さと効率性に慣れてきました。 スマートフォンを使えば、商品を検...

機械学習

Google AIがFlan-T5をオープンソース化 NLPタスクにおいてテキスト対テキストアプローチを使用するトランスフォーマーベースの言語モデル

大規模な言語モデル、例えばPaLM、Chinchilla、およびChatGPTは、自然言語処理(NLP)のタスクを実行する新たな可能性を開い...

データサイエンス

「Jupyter AIに会おう Jupyterノートブックで人工知能の力を解き放つ」

人工知能(AI)とコーディングの革新的な進歩において、Project Jupyterはそのツールキットに画期的な追加を導入します。それ...