「GAFA」と呼ばれる米国の大手IT企業が、人工知能(AI)の心臓部まで支配しようとしている。Google社、Apple社、Facebook社、Amazon.com社が、それぞれAI処理専用の半導体、いわゆるAIチップの開発に乗り出した。まずはクラウド側で使うサーバー機向けが中心だが、いずれは自動運転車やロボットといったエッジ側の製品にも進出しそうだ。既存の半導体メーカーや自動車部品メーカー、大手電機メーカーなど同様な狙いを抱く企業は数多い。製造業の将来にも大きく影響するAIチップを巡る大競争が始まった。(文:今井拓司)

 2018年11月、米Amazon.com社傘下でクラウド事業を手掛ける米Amazon Web Services社は人工知能(AI)の処理を高速で実行できる独自半導体「AWS Inferentia」を発表した。学習済みのAIを使った推論処理用のチップで、2019年後半に同社のクラウドサービスで利用可能になるという。AIの高速化に通常使われるGPUと比べて、運用コストを桁違いに引き下げる狙いだ(関連記事AWS社の講演の動画 )。

 同様のチップを開発する企業はAWS社に限らない。Amazon.com 社に米Google社、米Apple社、米Facebook社を加えたITのトップ企業群「GAFA」の全てが、独自のAIチップを手掛けている。Google社やApple社は、開発したチップを既に自社のサービスやスマートフォンに適用済みだ。Facebook社も、AIなどに向けた半導体を開発する人材を募集している。

 他にも中国のIT大手や既存の半導体メーカー、日本国内の大企業やスタートアップまで、AIチップの開発を進める企業は世界中に山ほどある。独自のチップを通じた自社製品の機能強化や、チップ自体の業界標準化が狙いだ。AWSのようなクラウドサービスで使うだけでなく、スマートフォンから自動運転車、ロボットといった組み込み用途への展開も射程に入れる。AIの活用がものづくりの世界にも広がりつつある今、製造業に携わる全ての企業にとって見逃せない動きだ(関連記事)。

独自のAIチップ「Inferentia」を発表
独自のAIチップ「Inferentia」を発表
米Amazon Web Services社のCEO、Andy Jassy氏は、2018年11月に開いた自社イベントで独自のAIチップの開発を発表した。(出典:同社の動画(https://www.youtube.com/watch?v=ZOIkOnW640A)から)

専用ハードが競争力の源泉に

 Amazon.com社やGoogle社といったITサービス企業までAIチップを開発する理由は、ハードウエアの良し悪しがAIを使った事業の競争力に直結することだ。現在のAIを牽引するディープラーニング(深層学習)の技術は、いまだ黎明期にある。その高速化手法は発展途上であり、AIチップの設計次第で性能や消費電力を大きく改善し得る。他社を圧倒するチップが完成すれば、AIチップの業界標準さえ奪取できるかもしれない。

 専用チップによる高速化が有効なのは、既存のソフトウエアの実行と比べて、ディープラーニングの処理が独特なためである。ディープラーニング技術に基づくAIの実体は、パラメータの数が数百万〜数億にも達する非常に複雑な関数といえる(関連記事)。その計算量は膨大だが、部分ごとに並行して実行できるため、並列処理が可能な専用ハードウエアで大幅な高速化を図れる。

数百万~数億のパラメータを利用
数百万~数億のパラメータを利用
2016年時点で米Google社の各種サービスが利用していたニューラルネットワークの概要を示した。MLP、LSTM、CNNはそれぞれニューラルネットワークの構造を表す。(出典:同社の論文(https://arxiv.org/abs/1704.04760)のデータを基に作成)

 演算にそれほど高い精度が求められないことも、ディープラーニングの大きな特徴だ。多くのソフトウエアが32〜64ビットといった高い精度で表現した数字を使うのに対し、ディープラーニングでは8〜16ビット程度で計算すれば十分とされる。ビット数が少ないほど演算回路が小さくなるので、同じチップ面積により多くの回路を集積して性能を高めたり、チップ面積自体を小さくして消費電力やコストを下げたりすることが可能だ。

 これまでディープラーニングの処理にGPUが向くとされてきたのは、並列処理が得意だからである。現在AI向けのGPUで圧倒的なシェアを持つ米NVIDIA社は、16ビットの浮動小数点演算回路を組み込むといった対応も進めてきた。最新GPU「Tesla V100」で同社はさらに踏み込んだ。低ビットの行列演算を高速に実行する、AI処理専用といえる回路も実装したのである。

 それでも同社のGPUはコンピュータグラフィックス(CG)や科学技術計算といった用途も想定しておりAI専用ではない。他社はそこに付け入る隙があると見る。専用チップを開発する企業は、AI向けに特化することでGPUと比べて消費電力当たりの性能やチップの製造コストを段違いに改善できると主張している注1)

注1)対するNVIDIA社は、AIには物理演算など精度の高い演算を実行する能力も併用する場合があると考えて、今のところAI専用チップを開発する計画はないとする(関連記事)。

ムーアの法則からDSAへ

 AIチップの開発が重要になるもう一つの大きな理由が、ムーアの法則の終焉である。同じチップ面積に集積できる回路規模が1〜2年で倍増する現象を指すこの経験則が、いよいよ立ち行かなくなってきた。大手ファウンドリーの米GLOBALFOUNDRIES社が今後の微細化を凍結するなど、チップ面積が決まれば回路規模も定まる時代が迫っている(関連記事)。これまで半導体の性能向上を牽引してきたエンジンがついに停止するのだ。

 微細化が止まった後でも半導体の処理性能を高めるにはどうすればいいのか。その手段として注目を集めるのが「DSA(Domain Specific Architecture)」という考え方である。簡単にいえば、特定分野向けの専用回路を利用して汎用のプロセッサを超える性能を実現する方法だ。

 2018年5月、Google社の開発者向けイベント「Google I/O 2018」で「コンピューティングの未来(The future of computing)」と題したセッションに同社の親会社Alphabet社の会長、John Hennessy氏が登壇。RISC(Reduced Instruction Set Computer)の生みの親で著名なコンピュータ科学者でもある同氏が強調した今後の方向性がDSAである。同氏がDSAの一種として挙げたのがディープラーニング向けの専用プロセッサであり、同氏も開発に携わったGoogle社のAIチップ「TPU(Tensor Processing Unit)」はまさにその代表例といえる。

コンピューティングの未来はDSA
コンピューティングの未来はDSA
2018年5月の「Google I/O」で「Future of Computing」と題して講演したJohn Hennessy氏。(出典:同社の動画(https://www.youtube.com/watch?v=Azt8Nc-mtKM)から)

 DSAが主流になると見るのは同氏だけではない。FGPA最大手、米Xilinx社のCEOのVictor Peng 氏は2018年8月開催の高性能プロセッサのシンポジウム「Hot Chips 30」の基調講演で、FPGAのような柔軟性のあるハードウエアとDSAの組み合わせが今後進むべき道と主張した。2018年10月に、同社は実際にこの発想に基づく新製品を発表。FPGAとCPUや各種の専用処理回路を組み合わせるもので、専用回路の1つとして「AI Engine」を用意する(関連記事)。

FPGAとAIエンジンを組み合わせる
FPGAとAIエンジンを組み合わせる
米Xilinx社はCPUコア混載FPGAの新製品「Versal」シリーズの一環で、推論処理を高速化する「AI Engine」を組み込んだ製品を2019年に発売すると発表した。(出典:Xilinx社)

サーバー向けで火蓋

 各社が開発を進めるAIチップは大きく2つに分けられる。インターネットのクラウド側などで使うサーバー用と、エッジ側にある様々な組み込み機器向けである。前者はディープラーニング技術を使ったAIの学習や、学習済みAIによる推論を多数のユーザーに提供するといった、極めて高い演算能力が必要な処理を対象にする。後者では、リアルタイムの推論処理をより少ない消費電力で実行することが求められる。

 いずれの場合もAIチップが担当する処理は、AIの実体といえる巨大な関数に関わる処理であり、システム全体の制御などには通常のCPUが別途必要になる。このためAIチップは、サーバー機向けではCPUからの指示でAI処理を請け負うアクセラレータ、組み込み機器向けではCPUなどとともにAI処理専用回路を組み込んだSoC(System on a Chip)の形態をとる。

 両者のうち、市場がまず立ち上がったのがサーバー向けだ。前出のNVIDIA社が業界に先駆けて開拓してきた。ディープラーニングブームの火付け役になった、2012年の国際的な画像処理コンテスト「ILSVRC(ImageNet Large Scale Visual Recognition Challenge)」の優勝チームが、既に同社のGPUで学習の高速化を図っていた。その後も同社は深層学習フレームワークと呼ばれる開発環境への対応などで他社に大きく先行し、GPUへのAI専用回路の組み込みによって、さらに水をあけようとしている。

 NVIDIA社を追う二番手といえるのがGoogle社である。同社のデータセンターでは2015年にAI専用チップTPUが稼働を始めており、2018年には早くも第3世代品の開発を公表した(関連記事)。同社はTPUを使ったAIの学習を、有償のクラウドサービスとして広く一般にも提供している(同社の関連ページ)。クラウド経由で提供されるAI処理の高速化サービスには、Microsoft社の「Project Brainwave」もある(同社の関連ページ 関連記事)。米Intel社のFPGAを利用した推論の高速化が可能だ(関連記事)。

 2019年にはさらに多様なAIチップが利用可能になる見込みである。マイクロプロセッサーの巨人・米Intel社は、買収したベンチャー企業の技術に基づくAI専用チップ「NNP-L1000(開発コードネーム:Spring Crest)」を同年に投入する(関連記事同社の発表資料)。富士通も2019年の出荷を目指し独自チップ「DLU(Deep Learning Unit)」を開発している。8ビット整数演算による学習処理で32ビット浮動小数点演算と遜色ない結果が得られる独自技術などを利用する予定だ(関連記事)。

買収したベンチャーのAIチップを投入
買収したベンチャーのAIチップを投入
Intel社は2016年に買収した米Nervana Sytems社の技術を使ったAIチップを2019年に発売する計画だ。(2016年11月の「Intel AI Day」で撮影)

 このほか、Alibaba社やBaidu社、Huawei Technologies社などの中国企業、米Wave Computing社 英Graphcore社 といった新興企業からもサーバー向けAIチップが順次出荷される。 米groq社米Cerebras Systems社 など、ステルス(潜行)モードで開発を進めるスタートアップも多い。2018年12月には、日本のAIベンチャーPreferred Networks(PFN)が独自のAIチップの開発を公表。まずは2020年に立ち上がる同社専用のスーパーコンピューターに用いて自社の競争力強化に利用する計画だ(関連記事) 。

エッジ向け市場が拡大へ

 今後、市場拡大が本格化しそうなのがエッジ側の機器に向けた組み込みAIチップだ。既にスマートフォンでは、AI処理の専用回路を内蔵するSoCを使う例が増えつつある。先陣を切ったのは米Apple社。2017年秋に発売した「iPhone X」など向けのアプリケーションプロセッサー「A11 Bionic」に、AI専用回路「Neural Engine」を搭載した(関連記事)。2018年には第2世代のNeural Engineを備える「A12 Bionic」を最新のiPhoneに組み込んだ。このほかHuawei社なども自社のスマートフォンに同様な回路を採用している。

AppleのNeural Engineは2世代目に
AppleのNeural Engineは2世代目に
米Apple社の最新iPhone向けSoC「A12 Bionic」は、第2世代の「Neural Engine」を採用した。(出典:同社の動画(https://www.apple.com/jp/apple-events/september-2018/)から)

 今後広がるのが、2020年代初頭にかけて製品が登場する自動運転車向けのAIチップだ。2018年12月にGoogle社の関連会社、米Waymo社が自動運転車を使ったタクシーの有料サービスを米国で開始するなど、人が運転しないクルマの実用化は始まりつつある。自動ブレーキ向けの画像処理チップで名を馳せIntel社が買収したイスラエルMobileye社や、多くの自動車メーカーと提携するNVIDIA社、車載用画像処理チップで手を組んだデンソーと東芝をはじめ、多くのメーカーがしのぎを削っている(関連記事)。このほか、監視カメラへの内蔵や、製造装置の故障診断といった用途でもAIチップの採用が広がっていくだろう。

CPU、GPU、AI専用回路などを集積
CPU、GPU、AI専用回路などを集積
米NVIDIA社の自動運転車向けプロセッサー「Xavier」は、CPUコアに加えて、AI処理を想定した8ビット整数の行列演算回路を組み込んだGPU、さらにはAI処理の専用回路DLA(Deep Learning Accelerator)などを集積している。(出典:「GTC Japan 2018」での同社CEO Jensen Huang氏の発表資料(https://www.nvidia.com/content/apac/gtc/ja/pdf/2018/1001.pdf)から)

 その先に見えてくるのが、自律的に動作する多様な機械の市場である。家庭向けの家事ロボット、工場内の協働ロボットや無人搬送車、屋外では無人の宅配自動車や自動で作業ができる建設機械などだ。例えばPFNが2020年代の実用化を目指す家事ロボットは、現状のデモでは無線でつないだGPU搭載のサーバー機でAIの処理を実行している(関連記事)。この処理を電池で動作するロボット内で完結するためには、現在のチップと比べて、消費電力あたりの性能をさらに高める必要がありそうだ。先述のPFNのAIチップは、新エネルギー・産業技術総合開発機構(NEDO)の委託を受け「超低消費電力深層学習プロセッサおよびソフトウェア層の研究開発」との名目で理化学研究所と共同開発してきた成果であり、その知見をエッジ側にも生かす可能性はある(関連資料)。

家庭用ロボットにもAIチップ
家庭用ロボットにもAIチップ
Preferred Networksが2018年10月に公開した家庭用のお片づけロボットのデモでは、AIの処理は無線LANで接続したGPU搭載サーバー機で実行していた。(2018年10月の「CEATEC JAPAN 2018」で撮影)

多様な提案が入り乱れる

 組み込み機器の裾野の広さを考えると、AIチップに求められる処理能力は千差万別になるだろう。例えば映像に映った人数をカウントするだけの監視カメラと、複数のカメラやLiDARなどをフル装備した自動運転車が同じチップを使うとは考えにくい。既存のマイコンのように、用途に応じて多彩なラインナップが登場しそうだ。

 こうした将来を見越して、様々な組み込み向けAIチップが提案されている。組み込み向けCPUコアで圧倒的な存在感を示す英Arm社は「Project Trillium 」で独自の推論処理向けコアを開発しているほか、NVIDIA社がオープンソース化した専用回路NVDLAを利用することも表明(発表資料)。米Cadence Design Systems社(関連記事)や米CEVA社(関連記事)といったDSPコアを手掛ける企業も、次々に推論処理に特化したIPコアを発表している。

 日本国内でも、デンソーの子会社NSITEXEが米ThinCI社と共同で「DFP(Data Flow Processor)」と呼ぶ独自プロセッサを開発(関連記事)。ルネサスエレクトロニクスは、動的に回路の再構成が可能なDRP(Dynamically Reconfigurable Processor)技術をAIのアクセラレータに用いた製品を2019年後半に投入する計画だ(発表資料)。このほか、NEDOが公募した「高効率・高速処理を可能とするAIチップ・次世代コンピューティングの技術開発/【研究開発項目〔1〕】革新的AIエッジコンピューティング技術の開発」事業の委託先には、三菱電機やNECといった大手電機企業からアクセルやアラヤといった新興企業までが名を連ねた(発表資料)。

大手電機からスタートアップまで
大手電機からスタートアップまで
NEDOが公募した「高効率・高速処理を可能とするAIチップ・次世代コンピューティングの技術開発/【研究開発項目〔1〕】革新的AIエッジコンピューティング技術の開発」の委託先には多くの国内企業が名を連ねた。(出典:NEDOの発表資料(http://www.nedo.go.jp/content/100882166.pdf))

混戦状態から抜け出せるか

 AIチップを開発する企業は、実際の市場で戦いながら、まずは個別の用途ごとに標準の座を目指すことになりそうだ。優勝劣敗が鮮明になるまでには、今後何年もかかる見込みである。ディープラーニング技術自体が発展途上であり、産業応用もまだまだ手探りの段階であるからだ。標準的なベンチマークの確立(関連記事)や、オープンソースソフトウエアが中心の開発環境を有償でサポートする動き(例えば米MathWorks社のMATLAB、関連記事)、異なる開発環境で開発したAIの互換性確保(関連記事)などもまだまだ改善の余地が大きい。 

  他者に先行する企業の条件を1つ挙げるとすれば、先進的なユーザーと密接な関係を築くことだろう。AIチップに先々求められる機能をいち早く知るためには、業界をリードする使い手との共同開発が一番だ。

 この点で先行する企業は、AIチップの世代が変わるごとに、大幅な性能向上を果たしてきた。NVIDIA社のXavierは前世代の「Parker」と比べてAI処理の性能を25倍、Apple社の第2世代Neural Engineは第一世代の8倍に高めた。いずれも、AIを応用する開発者が従来よりも格段に高い性能を要求したためと見られる。AIチップの分野で日本企業が存在感を示すためにも、AIの新たな用途を切り開く企業との連携が不可欠になるだろう。