TOPIndustries > AIの導入に伴う電力コストを抑制するには(前)

Industries

AIの導入に伴う電力コストを抑制するには(前)

2021/02/09

Andy Patrizio Network World

 風力発電も、化石燃料に比べればコストは低い。米中西部にデータセンターが多いのはそのためだ。また、大都市より地方のほうが電力が安い。データセンターの多くが大都市にあるのは、必要性から来ている。バージニア州北部は、連邦政府との近さもあって、データセンターの一大集積地となっている。一方で、アイオワ州(Microsoft、Google、Facebook)、オクラホマ州(Google)、ニューメキシコ州(Facebook)といった例もある。

 また、膨大な演算処理を伴うアプリケーションは、オフピーク時間で電力料金が安い夜間になるべく稼働するとよいと、Conway氏は助言する。

2:電力利用をAIで最適化する

 データセンターのコンピューターの管理にAIを活用するのも効果的だ。電力消費や冷却の最適化、ワークロードの効率的な分散、予知保全によるハードウエア障害の察知などに活用できる。こうした監視を担うAIは、機械学習とは違って、システムにさほど大きな負荷はかからない。また、電源やCPUのピークをセンサーで監視し、システムの負荷が通常より高い場合に通知することもできるとSwartz氏は説明する。

 ナノテクノロジーとデジタルテクノロジーの研究開発機関であるベルギーimecのJo De Boeck最高戦略責任者(CSO)は言う。「AIを適切に利用するだけでも省エネになる。AIで稼働を効率化できるアプリケーションは非常に多い」

3:電力消費が少ないチップを使う

 機械学習は、トレーニングと推論の2つのプロセスからなる。トレーニングのプロセスでは、例えば画像や使用パターンなど、何らかの対象を識別できるよう、システムに大量のデータを学習させて、モデルを作る。プロセッサに大きな負荷がかかるのはこの段階だ。一方、推論のプロセスでは、特定の対象物がモデルに合致するか否かという判定のみを行う。トレーニングに比べれば、処理の負荷ははるかに低い。

 トレーニングにはGPUを使うのが最適だ。しかし、GPUの消費電力は300Wに及ぶ場合もある。推論にもGPUを使えるが、もっと省電力のパーツで用が足りるのなら、必ずしも使う必要はない。米Intelが以前開発していた推論用チップ「Nervana」は、初期のテストでは、推論実行時の消費電力が10~50Wだった(同社はその後Nervanaの開発を中止し、代わりにHabanaのチップを推進する道を選んだ)。

 電力消費の解決策として、用途別のハードウエアの開発が進んでいるとDe Boeck氏は言う。「CPUのみの利用や、同じく汎用度が高いGPUの利用ではなく、特定の用途にいっそう特化したハードウエアが登場している。特別な演算装置をハードウエアの構成要素に加えることで、機械学習アルゴリズムの学習を効率化する」

翻訳:内山卓則=ニューズフロント

↑ページ先頭へ