AIの環境負荷軽減:アプリを持続可能にするための7つの戦略

『7つの戦略で持続可能なアプリに!AIの環境への負荷を軽減』

 

AIアプリケーションは、前例のない速さで進歩を推進することができる、比類なき計算能力を持っています。しかし、これらのツールは運用にエネルギーを大量に消費するデータセンターに重く依存しており、その結果、エネルギーに対する感度の欠如が環境への負荷に大きく寄与しています。驚くべきことに、これらのAIアプリケーションは既にグローバルな温室効果ガス排出量の2.5〜3.7%を占めており、航空業界の排出量を上回っています。

そして残念なことに、この炭素排出量は急速に増加しています。

現在の緊迫した課題は、機械学習アプリケーションの炭素排出量を測定することです。ピーター・ドラッカーの「測れないものは管理できない」という言葉に強調されるように、AIの環境への影響を正確に数量化することには重大な不明確さが存在しています。

炭素排出量を測定するだけでなく、AI産業のリーダーは積極的に最適化に取り組む必要があります。この二重のアプローチは、AIアプリケーションに関する環境上の懸念を取り組み、より持続可能な進路を確保するために不可欠です。

 

AIアプリケーションの炭素排出量に貢献する要因は何ですか

 

機械学習の利用の増加に伴い、エネルギーを大量に消費するデータセンターの数も増え、その結果、著しい炭素排出量が生じます。データセンターによるグローバルな電力使用量は、2021年に0.9〜1.3%に達しました。

2021年の研究によれば、この使用量は2030年までに1.86%に増加すると推定されています。この数字は、データセンターによるエネルギー需要の増加傾向を表しています。

特筆すべきことは、エネルギー消費量が高ければ高いほど、炭素排出量も高くなるということです。データセンターは処理中に熱を発し、過熱により不具合や停止することさえあります。そのため、冷却が必要で、追加のエネルギーが必要となります。データセンターによる消費電力の約40%は空調用です。

 

AIアプリケーションの炭素密度を計算する方法

 

AIの利用の増加に伴い、このツールの炭素密度を考慮する必要があります。現在、この分野の研究は、いくつかのモデルの分析に限定されており、その多様性を十分に考慮していません。

以下は、AIシステムの炭素密度を計算するための進化した方法論と効果的なツールの一部です。

 

AIの炭素密度を推定するための方法論

 

ソフトウェアの炭素密度(SCI)基準は、AIシステムの炭素密度を推定するための効果的な手法です。従来の方法論が属性型の炭素会計手法を用いるのに対して、この手法では結果論的な計算手法を採用しています。

結果論的手法は、追加のユニットを生成するという決定などの介入や決定から発生する排出量の増加を計算しようとするものです。一方、属性型は平均的な密度データや静的な排出物の棚卸しを行うことを指します。

Jesse Dogeらによる「クラウドインスタンスにおけるAIの炭素密度の測定」に関する論文では、この手法を用いてより具体的な調査が行われています。AIモデルのトレーニングの大部分はクラウドコンピューティングインスタンス上で行われるため、AIモデルの炭素排出量を計算するための妥当なフレームワークとなり得ます。この論文では、その推定に対してSCIの式を改良しています。

これは次のように洗練されています:

ここで:

E: 主にグラフィカル処理ユニット-GPU、つまり特殊なMLハードウェアが消費するエネルギーです。

I: データセンターを動かすグリッドによる場所に基づく限界の炭素排出量です。

M: 使用、作成、およびハードウェアの廃棄中に放出される埋め込まれたまたは具現化された炭素です。

R:この場合は1つの機械学習トレーニングタスクです。

C = O + M、O = E * I

論文では、単一のクラウドインスタンスの電力使用量を推定するためにこの式を使用しています。深層学習に基づくMLシステムでは、主な電力消費はGPUによるものであり、この式に含まれています。彼らは、NVIDIA TITAN X GPU(12GB)を使用したBERT-baseモデルを単一のコモディティサーバーでトレーニングしました。インテルXeon E5-2630 v3 CPU(2.4GHz)および256GB RAM(16x16GB DIMMs)経由でこの式の適用を実験しました。次の図はこの実験の結果を示しています:

GPUはエネルギー消費の74%を占めています。それは論文の著者によって依然として過小評価と主張されていますが、GPUの組み込みは正しい方向への一歩です。これは従来の見積もり手法の焦点ではないことを意味し、推定において炭素排出量の主要な貢献者が見過ごされていることを示しています。明らかに、SCIはより包括的で信頼性のある炭素強度の計算を提供します。

クラウドコンピューティングのリアルタイムの炭素足跡を測定する方法

AIアプリケーションの炭素効率を向上させる方法

ここでは、AIシステムの炭素強度を最適化するための7つの方法があります。

1. より良い、より効率的なコードを書く

最適化されたコードは、メモリとプロセッサの使用を減らすことにより、エネルギー消費を30%削減できます。炭素効率の良いコードを書くことは、アルゴリズムを高速に実行するための最適化、不要な計算の削減、およびより少ない電力でタスクを実行するための省エネハードウェアの選択を含みます。

開発者はプロファイリングツールを使用して、コードのパフォーマンスのボトルネックや最適化のための領域を特定することができます。このプロセスにより、よりエネルギー効率の高いソフトウェアが実現される場合があります。また、使用可能なリソースに適応し、エネルギー効率の優先順位のある実行パスを優先するようにコードが設計されているエネルギーアウェアなプログラミング技術の実装も検討してください。

2. より効率的なモデルを選択する

正しいアルゴリズムとデータ構造を選択することは重要です。開発者は、計算の複雑さを最小化し、それに伴うエネルギー消費を最小化するアルゴリズムを選択する必要があります。より複雑なモデルがトレーニングにかかる時間を2〜3倍長くするだけで3〜5%の改善しかもたらさない場合、よりシンプルで高速なモデルを選択してください。

モデルの蒸留は、大きなモデルをより効率的にするために、必要な知識を保持しながらより小さなバージョンに縮小するための別の技術です。これは、小さなモデルを大きなモデルに似せて訓練するか、ニューラルネットワークから不必要な接続を削除することで実現できます。

 

3. モデルのパラメータを調整する

 

エネルギー消費とモデルのパフォーマンス(たとえば精度)をバランスするデュアル目的最適化を使用して、モデルのハイパーパラメータを調整します。この二つの目的を両立させるデュアル目的アプローチにより、モデルはより効率的になります。

パラメータの効率的な微調整を実現するパラメータ効率的微調整(PEFT)などの技術を活用すると、トラディショナルな微調整と同等のパフォーマンスを実現する一方で、トレーニング可能なパラメータの数を減らすことができます。このアプローチでは、事前にトレーニングされた大容量言語モデル(LLM)の大半を凍結したままとし、モデルの一部のパラメータを微調整することで、計算リソースとエネルギー消費を大幅に削減します。

 

4. データの圧縮と低エネルギーのストレージの使用

 

データの送信量を減らすためにデータの圧縮技術を導入します。圧縮されたデータは、転送により少ないエネルギーを必要とし、ディスク上のスペースも少なくなります。モデルの提供フェーズでは、キャッシュを使用することでオンラインストレージレイヤーへの呼び出しを減らすことができます。

さらに、適切なストレージテクノロジーを選択することで、大きな利益を得ることができます。たとえば、データの頻繁なアクセスが必要ない場合、AWS Glacierは効率的なデータアーカイブソリューションであり、S3を使用するよりも持続可能なアプローチとなります。

 

5. クリーンなエネルギーでモデルをトレーニングする

 

モデルトレーニングにクラウドサービスを使用している場合、計算を行うリージョンを選択することができます。再生可能エネルギー源を使用しているリージョンを選択することで、排出量を最大で30倍削減することができます。 AWSのブログ記事では、ビジネスと持続可能性の目標のバランスについて説明しています。

また、モデルを実行する適切な時間帯を選ぶこともオプションです。特定の時間帯にはよりクリーンなエネルギーが供給されるため、Electricity Mapなどの有料サービスを通じてリアルタイムデータや将来の異なるリージョンの電気の炭素度予測データを入手することができます。

 

6. モデルトレーニングに特化したデータセンターやハードウェアを使用する

 

効率的なデータセンターやハードウェアを選択することで、炭素度を大幅に改善することができます。ML特化のデータセンターやハードウェアは、一般的なものに比べて1.4〜2倍から2〜5倍エネルギー効率が向上します。

 

7. AWS LambdaやAzure Functionsのようなサーバーレスデプロイメントを使用する

 

サーバーレスデプロイメントでは、常時サーバーが稼働している必要がないため、24時間365日のエネルギー消費がありません。 AWS LambdaやAzure Functionsのようなサーバーレスデプロイメントは、最小限の炭素度でも十分に機能します。

 

最終メモ

 

AIセクターは急速に成長し、ビジネスや日常生活のあらゆる側面に浸透しています。ただし、この拡大は制限された地球温暖化目標を達成するための目標から逸脱する可能性のある増大する炭素フットプリントという結果をもたらします。

この炭素フットプリントは現在の懸念にとどまらず、その影響は次世代に及び、その創造に責任を負わない人々にも影響を与えるかもしれません。そのため、AIに関連する炭素排出量を緩和するための断固たる措置を講じ、その可能性を生かすための持続可能な方法を探求することが重要です。環境と将来の世代の福祉を犠牲にしてAIの利点を得ることがないようにすることが重要です。

[アンクル・グプタ](https://www.linkedin.com/in/ankurgupta101)は、持続可能性、交通、通信、およびインフラストラクチャの分野をカバーする10年の経験を持つエンジニアリーダーです。現在はUberのエンジニアリングマネージャーとしてのポジションを務めています。この役割において、彼は最先端の電気自動車とコネクテッドカーの統合を通じて、ゼロエミッションの未来に向けた進化を推進する上で重要な役割を果たしています。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

「Amazon SageMaker のルーティング戦略を使用して、リアルタイムの推論レイテンシを最小限に抑えましょう」

Amazon SageMakerは、リアルタイム推論のための機械学習(ML)モデルの展開を簡単に行えるだけでなく、AWS InferentiaなどのC...

データサイエンス

ChatGPT コードインタプリター 数分でデータサイエンスを実行する

この新しいChatGPTプラグインは、データを分析し、Pythonコードを書き、機械学習モデルを構築することができます

AIニュース

「AnthropicがClaude 2を発表:コーディングを革新する次世代AIチャットプログラム」

人工知能スタートアップのAnthropicは、テックジャイアントのGoogleによるバックアップを受けて、人気のあるチャットプログラ...

AI研究

スタンフォード大学の研究者が「局所的に条件付けられた拡散(Locally Conditioned Diffusion):拡散モデルを使用した構成的なテキストから画像への生成手法」を紹介しました

3Dシーンモデリングは従来、特定の知識を持つ人々に限られた時間のかかる手続きでした。パブリックドメインには多くの3D素材...

データサイエンス

「Pythonにおけるサンプリング技術と比較の実践」

私は妻と一緒にクリスマスツリーを組み立てていました私たちは地下室に行って、木を持ち上げて階上に運び、下から上に向かっ...

コンピュータサイエンス

「不確実な世界での自律的なイノベーション」

ジョナサン・ハウ氏と彼のチームは、航空宇宙制御研究所で、自律型車両が衝突せずに動的な環境を航行できるようにするプラン...