「GAFA」と呼ばれる米国の大手IT企業が、人工知能(AI)の心臓部まで支配しようとしている。Google社、Apple社、Facebook社、Amazon.com社が、それぞれAI処理専用の半導体、いわゆるAIチップの開発に乗り出した。まずはクラウド側で使うサーバー機向けが中心だが、いずれは自動運転車やロボットといったエッジ側の製品にも進出しそうだ。既存の半導体メーカーや自動車部品メーカー、大手電機メーカーなど同様な狙いを抱く企業は数多い。製造業の将来にも大きく影響するAIチップを巡る大競争が始まった。(文:今井拓司)

 2018年11月、米Amazon.com社傘下でクラウド事業を手掛ける米Amazon Web Services社は人工知能(AI)の処理を高速で実行できる独自半導体「AWS Inferentia」を発表した。学習済みのAIを使った推論処理用のチップで、2019年後半に同社のクラウドサービスで利用可能になるという。AIの高速化に通常使われるGPUと比べて、運用コストを桁違いに引き下げる狙いだ(関連記事AWS社の講演の動画 )。

 同様のチップを開発する企業はAWS社に限らない。Amazon.com 社に米Google社、米Apple社、米Facebook社を加えたITのトップ企業群「GAFA」の全てが、独自のAIチップを手掛けている。Google社やApple社は、開発したチップを既に自社のサービスやスマートフォンに適用済みだ。Facebook社も、AIなどに向けた半導体を開発する人材を募集している。

 他にも中国のIT大手や既存の半導体メーカー、日本国内の大企業やスタートアップまで、AIチップの開発を進める企業は世界中に山ほどある。独自のチップを通じた自社製品の機能強化や、チップ自体の業界標準化が狙いだ。AWSのようなクラウドサービスで使うだけでなく、スマートフォンから自動運転車、ロボットといった組み込み用途への展開も射程に入れる。AIの活用がものづくりの世界にも広がりつつある今、製造業に携わる全ての企業にとって見逃せない動きだ(関連記事)。

独自のAIチップ「Inferentia」を発表
米Amazon Web Services社のCEO、Andy Jassy氏は、2018年11月に開いた自社イベントで独自のAIチップの開発を発表した。(出典:同社の動画(https://www.youtube.com/watch?v=ZOIkOnW640A)から)

専用ハードが競争力の源泉に

 Amazon.com社やGoogle社といったITサービス企業までAIチップを開発する理由は、ハードウエアの良し悪しがAIを使った事業の競争力に直結することだ。現在のAIを牽引するディープラーニング(深層学習)の技術は、いまだ黎明期にある。その高速化手法は発展途上であり、AIチップの設計次第で性能や消費電力を大きく改善し得る。他社を圧倒するチップが完成すれば、AIチップの業界標準さえ奪取できるかもしれない。

 専用チップによる高速化が有効なのは、既存のソフトウエアの実行と比べて、ディープラーニングの処理が独特なためである。ディープラーニング技術に基づくAIの実体は、パラメータの数が数百万〜数億にも達する非常に複雑な関数といえる(関連記事)。その計算量は膨大だが、部分ごとに並行して実行できるため、並列処理が可能な専用ハードウエアで大幅な高速化を図れる。

数百万~数億のパラメータを利用
2016年時点で米Google社の各種サービスが利用していたニューラルネットワークの概要を示した。MLP、LSTM、CNNはそれぞれニューラルネットワークの構造を表す。(出典:同社の論文(https://arxiv.org/abs/1704.04760)のデータを基に作成)

 演算にそれほど高い精度が求められないことも、ディープラーニングの大きな特徴だ。多くのソフトウエアが32〜64ビットといった高い精度で表現した数字を使うのに対し、ディープラーニングでは8〜16ビット程度で計算すれば十分とされる。ビット数が少ないほど演算回路が小さくなるので、同じチップ面積により多くの回路を集積して性能を高めたり、チップ面積自体を小さくして消費電力やコストを下げたりすることが可能だ。

 これまでディープラーニングの処理にGPUが向くとされてきたのは、並列処理が得意だからである。現在AI向けのGPUで圧倒的なシェアを持つ米NVIDIA社は、16ビットの浮動小数点演算回路を組み込むといった対応も進めてきた。最新GPU「Tesla V100」で同社はさらに踏み込んだ。低ビットの行列演算を高速に実行する、AI処理専用といえる回路も実装したのである。

 それでも同社のGPUはコンピュータグラフィックス(CG)や科学技術計算といった用途も想定しておりAI専用ではない。他社はそこに付け入る隙があると見る。専用チップを開発する企業は、AI向けに特化することでGPUと比べて消費電力当たりの性能やチップの製造コストを段違いに改善できると主張している注1)

注1)対するNVIDIA社は、AIには物理演算など精度の高い演算を実行する能力も併用する場合があると考えて、今のところAI専用チップを開発する計画はないとする(関連記事)。

ムーアの法則からDSAへ

 AIチップの開発が重要になるもう一つの大きな理由が、ムーアの法則の終焉である。同じチップ面積に集積できる回路規模が1〜2年で倍増する現象を指すこの経験則が、いよいよ立ち行かなくなってきた。大手ファウンドリーの米GLOBALFOUNDRIES社が今後の微細化を凍結するなど、チップ面積が決まれば回路規模も定まる時代が迫っている(関連記事)。これまで半導体の性能向上を牽引してきたエンジンがついに停止するのだ。

 微細化が止まった後でも半導体の処理性能を高めるにはどうすればいいのか。その手段として注目を集めるのが「DSA(Domain Specific Architecture)」という考え方である。簡単にいえば、特定分野向けの専用回路を利用して汎用のプロセッサを超える性能を実現する方法だ。

 2018年5月、Google社の開発者向けイベント「Google I/O 2018」で「コンピューティングの未来(The future of computing)」と題したセッションに同社の親会社Alphabet社の会長、John Hennessy氏が登壇。RISC(Reduced Instruction Set Computer)の生みの親で著名なコンピュータ科学者でもある同氏が強調した今後の方向性がDSAである。同氏がDSAの一種として挙げたのがディープラーニング向けの専用プロセッサであり、同氏も開発に携わったGoogle社のAIチップ「TPU(Tensor Processing Unit)」はまさにその代表例といえる。

コンピューティングの未来はDSA
2018年5月の「Google I/O」で「Future of Computing」と題して講演したJohn Hennessy氏。(出典:同社の動画(https://www.youtube.com/watch?v=Azt8Nc-mtKM)から)

 DSAが主流になると見るのは同氏だけではない。FGPA最大手、米Xilinx社のCEOのVictor Peng 氏は2018年8月開催の高性能プロセッサのシンポジウム「Hot Chips 30」の基調講演で、FPGAのような柔軟性のあるハードウエアとDSAの組み合わせが今後進むべき道と主張した。2018年10月に、同社は実際にこの発想に基づく新製品を発表。FPGAとCPUや各種の専用処理回路を組み合わせるもので、専用回路の1つとして「AI Engine」を用意する(関連記事)。

FPGAとAIエンジンを組み合わせる
米Xilinx社はCPUコア混載FPGAの新製品「Versal」シリーズの一環で、推論処理を高速化する「AI Engine」を組み込んだ製品を2019年に発売すると発表した。(出典:Xilinx社)

サーバー向けで火蓋

 各社が開発を進めるAIチップは大きく2つに分けられる。インターネットのクラウド側などで使うサーバー用と、エッジ側にある様々な組み込み機器向けである。前者はディープラーニング技術を使ったAIの学習や、学習済みAIによる推論を多数のユーザーに提供するといった、極めて高い演算能力が必要な処理を対象にする。後者では、リアルタイムの推論処理をより少ない消費電力で実行することが求められる。

 いずれの場合もAIチップが担当する処理は、AIの実体といえる巨大な関数に関わる処理であり、システム全体の制御などには通常のCPUが別途必要になる。このためAIチップは、サーバー機向けではCPUからの指示でAI処理を請け負うアクセラレータ、組み込み機器向けではCPUなどとともにAI処理専用回路を組み込んだSoC(System on a Chip)の形態をとる。

 両者のうち、市場がまず立ち上がったのがサーバー向けだ。前出のNVIDIA社が業界に先駆けて開拓してきた。ディープラーニングブームの火付け役になった、2012年の国際的な画像処理コンテスト「ILSVRC(ImageNet Large Scale Visual Recognition Challenge)」の優勝チームが、既に同社のGPUで学習の高速化を図っていた。その後も同社は深層学習フレームワークと呼ばれる開発環境への対応などで他社に大きく先行し、GPUへのAI専用回路の組み込みによって、さらに水をあけようとしている。

 NVIDIA社を追う二番手といえるのがGoogle社である。同社のデータセンターでは2015年にAI専用チップTPUが稼働を始めており、2018年には早くも第3世代品の開発を公表した(関連記事)。同社はTPUを使ったAIの学習を、有償のクラウドサービスとして広く一般にも提供している(同社の関連ページ)。クラウド経由で提供されるAI処理の高速化サービスには、Microsoft社の「Project Brainwave」もある(同社の関連ページ 関連記事)。米Intel社のFPGAを利用した推論の高速化が可能だ(関連記事)。

 2019年にはさらに多様なAIチップが利用可能になる見込みである。マイクロプロセッサーの巨人・米Intel社は、買収したベンチャー企業の技術に基づくAI専用チップ「NNP-L1000(開発コードネーム:Spring Crest)」を同年に投入する(関連記事同社の発表資料)。富士通も2019年の出荷を目指し独自チップ「DLU(Deep Learning Unit)」を開発している。8ビット整数演算による学習処理で32ビット浮動小数点演算と遜色ない結果が得られる独自技術などを利用する予定だ(関連記事)。

買収したベンチャーのAIチップを投入
Intel社は2016年に買収した米Nervana Sytems社の技術を使ったAIチップを2019年に発売する計画だ。(2016年11月の「Intel AI Day」で撮影)

 このほか、Alibaba社やBaidu社、Huawei Technologies社などの中国企業、米Wave Computing社 英Graphcore社 といった新興企業からもサーバー向けAIチップが順次出荷される。 米groq社米Cerebras Systems社 など、ステルス(潜行)モードで開発を進めるスタートアップも多い。2018年12月には、日本のAIベンチャーPreferred Networks(PFN)が独自のAIチップの開発を公表。まずは2020年に立ち上がる同社専用のスーパーコンピューターに用いて自社の競争力強化に利用する計画だ(関連記事) 。