「AIの成長する需要が世界的な水不足を引き起こす可能性がある」

AIの需要が水不足を引き起こす可能性がある

人工知能は技術革命の原動力でありながら、静かに私たちの水資源を枯渇させています。OpenAIのChatGPTなどの高度なシステムを含むAIのエネルギーへの渇望は、水の消費量の急増を引き起こしています。この記事では、AIの無尽蔵のエネルギーへの食欲が環境に与える影響と、MicrosoftやGoogleなどのテックジャイアントがこの懸念を軽減するために行っている取り組みについて掘り下げます。

また読む:NASAから資金を調達したNVIDIAの地球を救うAIモデル

AIのエネルギー需要

ChatGPTなどの計算集約型モデルを含む人工知能は、広大なデータセンターにホストされることが多く、多量の処理能力を必要とします。これらのデータセンターはエネルギーを大量に消費するだけでなく、水に依存しています。

MicrosoftとGoogleの環境への取り組み

MicrosoftやGoogleなどの主要なテックジャイアントは、AIの環境への影響に対処するための一環として、責任ある資源消費を確保するための取り組みを行っています。しかし、テックセクターが拡大するにつれて、その負の環境的影響についての懸念が専門家からますます高まっています。

水の消費量の増加

AI革命はAIの水需要をさらに増加させました。Microsoftの最新の環境報告によると、2021年から2022年にかけて同社の世界的な水の消費量は34%増加し、約17億ガロンに達し、2,500個以上のオリンピックサイズのプールに相当します。AI研究に深く関与している別のテックジャイアントであるGoogleは、2022年に56億ガロンの水消費量で20%増加しました。この大幅な増加は、同社のAIの取り組みの拡大に起因しています。

また読む:AIモデルの環境負荷:二酸化炭素排出と水消費

ChatGPTの水使用量とOpenAIの地元への影響

最近の報告によると、ChatGPTなどのAIシステムは、ユーザーが5〜50のプロンプトや質問を投げるたびに約500ミリリットルの水を消費することがあります。世界中でチャットボットの使用が急増していることを考慮すると、これは重要な水の足跡に相当し、専門家や環境保護論者の間で警鐘を鳴らしています。

カリフォルニアのエンジニアによって開発されたChatGPTは、アイオワのデータセンターに依存しており、そこではラクーン川とデモイン川の水が使用されています。これはAIの地元の水供給に与える広範な影響を示しています。OpenAIはデータセンターの場所を秘密にしていますが、影響を受ける地域の住民はその結果を感じています。デモイン水道公社は、市民向けの単価が2007年以来ほぼ80%増加し、市民一人あたり1,000ガロンにつき5.19ドルに達したと報告しています。

AI vs. クリプトカレンシーのマイニング

AIの水の消費量と仮想通貨のマイニングの電力使用量を比較することができます。AIとは異なるが、仮想通貨のマイニングは資源消費に関して同様の課題を抱えています。たとえば、ビットコインのマイニングのエネルギー消費量はアルゼンチンの全電力使用量に匹敵します。

テックジャイアントの変革への取り組み

Microsoftの取り組み:

Microsoftは、リースされたサイトでの透明性と効率性を促進する方法を積極的に模索しています。彼らは2030年までに100%のカーボンフリーのエネルギーに移行し、同じ年までにカーボンネガティブで水ポジティブ、ゼロ廃棄物の企業になることを目指しています。

Googleの持続可能性の目標:

Googleも野心的な目標を設定しており、2030年までに自社の運営および価値連鎖全体でのネットゼロの排出を実現することを目指しています。これには、2022年に生産された報告された1020万トンのCO2を削減することが含まれます。Googleはまた、効率的な実践のおかげでAIのエネルギー需要が予想よりもゆっくり増加していると強調しています。

また読む:NVIDIAのAIが気候変動から地球を救う

私たちの意見

テック企業がAIの環境への影響を軽減するための取り組みを進めている一方で、脅威は残っています。人工知能の能力が拡大するにつれて、テック企業は効率の向上を徹底的に追求し、再生可能エネルギー源を採用し、代替の冷却技術を探求し、資源の使用に関する透明性を高める必要があります。AIのエネルギーへの渇望は、責任ある管理によって持続可能に満たされることで、私たちの惑星との調和した共存を確保できます。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

SalesforceはXGen-7Bを導入:1.5Tトークンのために8Kシーケンス長でトレーニングされた新しい7B LLMを紹介します

最近の人工知能の技術的なブレークスルーにより、Large Language Models(LLMs)はますます一般的になっています。過去数年間...

AI研究

AIを使って若返る方法:新しい抗加齢薬が発見される

AIアルゴリズムが突破口を開き、老化や年齢関連疾患と戦う可能性のある潜在的な薬剤を特定するのに重要な役割を果たしました...

機械学習

「MATLABとAmazon SageMakerによる機械学習」

この投稿はMathWorksのBrad Duncan、Rachel Johnson、Richard Alcockとの共同執筆ですMATLABはデータ処理、並列コンピューテ...

機械学習

MosaicMLは、彼らのMPT-30BをApache 2.0の下でリリースしました

MosaicML-7Bの大成功の後、MosaicMLは再び以前に設定した基準を上回りました。新しい画期的なリリースでは、MosaicML-30Bを発...

AI研究

「UCバークレーの研究者たちは、スターリング-7Bを発表しました:AIフィードバックからの強化学習でトレーニングされたオープンな大規模言語モデル(LLM)です(RLAIF)」

大規模言語モデル(LLM)は、自然言語処理タスクのための人工知能モデルです。これらのモデルは膨大なデータセットでトレーニ...