「GPT-4の炭素フットプリント」

GPT-4の炭素フットプリント

最近のリーク情報により、初めてOpenAIのGPT-4のトレーニングによる炭素排出量を推定することが可能になりました

Taylor Vickによる写真、Unsplash

最近のニュースによると、世界の平均気温が上昇し続けていることが警告されています[1]。これにより、私たちが地球温暖化やその他の気候変動に貢献している炭素排出量を持つ活動の多くを思い出すことが重要です。これは一般的なデジタル技術やAIにも当てはまります。この記事は、OpenAIの大規模言語モデルGPT-4のトレーニングにおける炭素排出量を推定することで、そのことを再確認するものです。

このような推定を行うためには、以下の情報が必要です:

  1. GPT-4のトレーニングに使用された電力量
  2. 電力の炭素排出量、つまり1 KWhの電力を生成するのに必要な炭素排出量

さあ、始めましょう。

VoAGIメンバーとして、あなたの会費の一部があなたが読んでいる作家に寄付され、すべてのストーリーに完全アクセスできます…

kaspergroesludvigsen.medium.com

GPT-4の電力消費量

まず、GPT-4のエネルギー消費量を見積もりましょう。未検証の情報リークによると、GPT-4は約25,000のNvidia A100 GPUsを90〜100日間にわたってトレーニングしていたとされています[2]。

ここで、各々8つのGPUをホストできるNvidia HGXサーバーにGPUが搭載されていると仮定しましょう。つまり、25,000 / 8 = 3,125台のサーバーが必要でした。

この情報から電力消費量を計算するには、Nvidia HGXサーバーの熱設計電力(TDP)を知る必要があります。

残念ながら、Nvidiaはこの情報を公開していないため、代わりに類似のNvidia DGXサーバーのTDPを使用しましょう。それは6.5 kWです[3]。したがって、Nvidia DGXサーバーが1時間フルパワーで稼働した場合、6.5 KWh消費されることになります。

GPT-4のトレーニングには90〜100日かかったと推定されています。つまり、1つのサーバーあたり2,160〜2,600時間かかります。それを6.5 kWで乗じると、各サーバーがトレーニング中に14,040〜16,900 KWhの電力を消費した可能性があります。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「ゲイリー・ヒュースティス、パワーハウスフォレンジクスのオーナー兼ディレクター- インタビューシリーズ」

ゲイリー・ヒュースティス氏は、パワーハウスフォレンジックスのオーナー兼ディレクターであり、ライセンスを持つ私立探偵、...

機械学習

「Prolificの機械学習エンジニア兼AIコンサルタント、ノラ・ペトロヴァ – インタビューシリーズ」

『Nora Petrovaは、Prolificの機械学習エンジニア兼AIコンサルタントですProlificは2014年に設立され、既にGoogle、スタンフ...

データサイエンス

2023年にAmazonのデータサイエンティストになる方法は?

ほとんどのビジネスは現在、膨大な量のデータを生成し、編集し、管理しています。しかし、ほとんどのビジネスは、収集したデ...

人工知能

「シフトのCEOであるクリス・ナーゲル – インタビューシリーズ」

クリスはSiftの最高経営責任者です彼は、Ping Identityを含むベンチャー支援および公開SaaS企業のシニアリーダーシップポジシ...

データサイエンス

「Adam Ross Nelsonによる自信のあるデータサイエンスについて」

データサイエンスの中で新たな分野が現れ、研究内容が理解しにくい場合は、専門家や先駆者と話すのが最善です最近、私たちは...

人工知能

ギル・ジェロン、Orca SecurityのCEO&共同創設者-インタビューシリーズ

ギル・ゲロンは、オルカ・セキュリティのCEO兼共同設立者ですギルは20年以上にわたりサイバーセキュリティ製品をリードし、提...