パターンを見つけて判断や行動

 かくしてディープラーニングは、データの中に何らかのパターンが潜んでいればそれを鮮やかにあぶり出し、利用することを可能にした。例えば、画像の中から人の顔や動物の特徴を見つけて的確に認識したり、日本語の文章に潜んだ単語列のパターンを英語の単語列パターンに変換したり、勝ちにつながる碁石の配置パターンを学習してから囲碁の対局に臨んだりできるようになった。

 冒頭で紹介したGoogle社のデータセンターの事例は、AIが取りうる操作ごとに、センター全体の消費電力がどう変わるかを学習して、活用している。無数のセンサーで捉えたデータセンターの現状と、それに加える制御の組み合わせに対して、消費電力がどの程度変わるかという、データセンター全体の動作パターンを学習したわけだ。

 恐らく人間のオペレーターも、こうした関係を直感的に学んで冷却設備の制御をしてきたのだろうが、電力の削減結果を見る限りは、AIの方がより優れた直感を持っているといえそうだ。とはいえ、万が一でもAIがおかしな動作を取らないように、Google社はいつでも人間が制御に介入できるほか、動作を2段階でチェックするなど8種類の安全機構をAIに組み込んでいるという。

 前述のPFNが開発した片付けロボで一番難しかった部分は画像認識だったようだ。片付けの対象には、紙のようなつかみにくいもの、タオルのような不定形なもの、ペンやおもちゃなど様々な種類のものがあり、それぞれをちゃんと認識できなければ、そのあとの操作もうまくいかない。逆に言えば、認識さえできれば、それぞれに応じてあらかじめ決めておいた動作を実行すればいいわけだ。PFNは、ロボットが3次元空間の中で様々な方向から見ても物の種類を判別できるように、新たに開発したニューラルネットワークを膨大な画像データで学習させたという。

シミュレーションの置き換えも

 このほかにも、ディープラーニングの研究開発の最前線では製造業での活用が期待できる新技術が次々に生まれている。最近登場してきた面白い応用が、シミュレーターの代わりにディープラーニングを使う方法だ。シミュレーターは、設計段階で実物の挙動を物理法則に基づいてシミュレーションすることで、実際に作る前に製品の動作を確かめるために使う。ただし計算量が半端なく多いため、処理に時間がかかってしまう。そこで、シミュレーターに入力する初期条件とシミュレーターの出力の間の関係を、大量のデータを使ってニューラルネットに学習させて、もっと簡単にシミュレーション結果を得ようという考えだ。実際に富士通研究所は、電子回路の周辺に発生する電磁波のシミュレーターをディープラーニングで置き換える技術を2018年9月に発表した。学習方法を工夫することで、シミュレーターの結果との誤差を±2.9%に収めたという(富士通研究所の発表資料)(図5)。

図5 シミュレーションを高速に実行
富士通研究所は、電子回路の周辺に発生する電磁波のシミュレータを、ディープラーニングで作成したニューラルネットワークで代替する技術を開発した。学習方法を工夫することで、従来のディープラーニングでは誤差が±16%もあったのに対し(左)、誤差を±2.9%まで下げることができた(右)。(図版提供:富士通研究所)

 シミュレーターの代わりにディープラーニングを使えば、シミュレーターと同様な結果を、ずっと短い時間で得られるようになる。これによってシミュレーション結果を設計に反映するサイクルを素早く回せるようになるため、従来よりも短時間で設計の完成度を高められる。

 この手段を積極的に活用しているのが、米国の大手自動車メーカーFord Motor社だ。同社にディープラーニング用スパコンを納入する米NVIDIA社によれば、Ford 社は米国の自動車レース「NASCAR」用のレースカーの車体設計にディープラーニングによるシミュレーションの代替技術を利用している(NVIDIA社による米Forbes誌の記事)。従来の空気力学シミュレーションでは時間がかかりすぎて同じシーズンのレースの間に設計を見直すことが難しかったのが、ディープラーニングを使うことでレースが終わるたびに設計が改善可能になったという。その結果、同社は2018年のシーズンで、ダントツの成績を上げている。

世界の構築から人の模倣まで

  最近登場したディープラーニングの新技術には、「生成モデル」と呼ばれるものもある。画像認識が、例えば猫の写真を見て「猫」という言葉を返す処理だとすると、生成モデルは「猫」という単語を入力すると猫に見える画像を無数に出力できる。前出のベンチャー企業PFNは、この技術を応用して白黒のマンガに着色できる手法を開発。実際にマンガの有料配信に利用されている(PFNの発表資料)(図6)。

図6 生成モデルで画像を作り出す
画像から特定の物体を認識できる「識別モデル」とは逆に、「生成モデル」は言葉で指定したものの画像を生成することができる。例えば「猫」と指定すれば、猫のように見える画像をいくつも作り出せる。代表的な生成モデルには、画像を生成するニューラルネットと、画像が本物か偽物かを区別するニューラルネットを競わせることで性能を高める「敵対的生成ネットワーク(GAN:Generative Adversarial Network)」がある。

 この技術も製造業の現場で大いに使えそうだ。生成モデルの活用に積極的なのが、自動運転車向けのディープラーニング技術を開発するベンチャー企業のアセントロボティクスである。同社は自動車を運転するAIを学習させる仮想環境を、生成モデルを使って作っている。現在、多くの自動車メーカーは自動運転車の試作機を実際の道路で走らせることで、AIの学習を進めている。ところがこの方法では、例えば人身事故など不測の事態を学習させることは事実上できない。そこでアセントロボティクスは、事故の状況などを自在に作り出せる仮想環境を用意することで、この問題に取り組んでいる(同社の発表資料)。

 アセントロボティクスは、よりリアルに見える仮想世界を作るために生成モデルを活用している。同社が用いる生成モデルの代表例は、「敵対的生成ネットワーク(GAN:Generative Adversarial Network)」と呼ばれる方式である。簡単に言えば、写真と見紛う画像を生み出す生成用ニューラルネットワークと、本物の写真か偽物(生成用ネットワークが出力した画像)かを判定する識別用ニューラルネットワークの2つを、互いに競うように学習させる。この結果、前者はより写真に近い画像を生成できるようになり、後者はより高度な判定能力を達成できるというわけだ(図7)。

図7 生成モデルで生み出した運転環境
アセントロボティクスは自動運転車用AIを学習させるための仮想環境を、生成モデルを使って作り出している。(画像提供:アセントロボティクス)

 この手法の面白いところは、画像だけではなく様々な領域で本物そっくりのデータを生み出せることだ。アセントロボティクスが試しているのは、人間の動作をAIにまねさせるのに、この技術を使う方法である。生成用ネットワークが人に近いハンドルさばきやブレーキ/アクセル操作のデータを生成するのに対し、識別用ネットワークは実際に人が自動車のシミュレーターを運転して出てきたデータと生成ネットワークの出力を区別するように学習させる(図8)。

図8 2つのニューラルネットを競わせて学習
敵対的生成ネットワーク(GAN:Generative Adversarial Network)は、データを生成するニューラルネットワークと、本物のデータと生成されたデータを区別するニューラルネットワークを、競わせるように学習させる。大量のデータで繰り返し学習させるうちに、生成ネットワークはより本物らしいデータを作り出せるようになる。

 アセントロボティクスはこうして得た生成ネットワークを、運転用のAIに使おうとしている(関連記事)。ここで大切なポイントは、この方法は人間の動作を丸ごとコピーするわけではないということだ。動作そのものというより、人間の動作の特徴を学習する。この結果、AIは状況に応じて「人ならばこう動くはず」といったふうに、臨機応変な運転を実行できるようになる(図9)。

図9 人の動作をAIに教える
アセントロボティクスはGANを利用して、人の運転動作をAIに教えている。(画像提供:アセントロボティクス)

ロボットやプラントの制御にも

 もっともこの方法では、人に近い運転ができるようになるだけで、人の能力を超えるAIを作ることは難しい。そこで同社をはじめ多くの企業は、追加で別の方法を適用してAIの運転技能をさらに磨こうとしている。それが、強化学習と呼ばれる手法だ。

 強化学習とは、非常に単純化して言ってしまうと試行錯誤を無数に繰り返す中から、最適な動作を見つけ出す技術だ。英DeepMind社が、世界をアッと言わせた「AlphaGo」などに使って一躍有名になった。強化学習自体は古くからあった技術だが、それをディープラーニングと組み合わせて「深層強化学習」と呼ばれる手法に仕立てたところ、研究開発に一挙に火がついた。今では自動運転車はもちろん、各種のロボットやプラントの制御などに強化学習を適用しようとする研究が数多く進んでいる。

 ただし、実際の自動車やロボットに動作を試行錯誤させていたら、すぐに壊れてしまうばかりか、危なくてしかたがない。そこで、まずは人が動作を教えたり、シミュレーション環境で試行錯誤したりして、ある程度動作がうまくなってから、実環境でさらに学習させるというのが多くの企業のやり方だ。

 日本企業でも深層強化学習の応用に乗り出す企業がいくつもある。例えばロボット大手の安川電機はベンチャー企業のクロスコンパスと共同で、バラバラに積まれた部品をカメラで見てピックアップできるロボットの実現に深層強化学習を利用しようとしている。実は、こうした動作は高価な3Dカメラや部品専用のグリッパを使えばできなくはないが、コストが跳ね上がってしまう。安川電機はディープラーニングと強化学習を使うことで、安いカメラと一般的なグリッパで複数の部品に柔軟に対応できる、汎用性の高いロボットを安価に作ろうとしている。安川電機は2018年3月に子会社のエイアイキューブを設立し、製品化に向けた研究開発を一段と加速している(図10)。

図10 ロボットが試行錯誤から動作を学ぶ
安川電機とクロスコンパスは、安価なカメラを搭載したロボットが、バラ積みされた複数種類の部品をピックアップできるようにすることを目指す(左)。パナソニックは箱詰めされた商品を引き出す動作をロボットに学習させている(右)。

 パナソニック-産総研 先進型AI連携研究ラボが取り組むのは、物流の倉庫などで人手を煩わす作業をロボットで置き換える研究である。その一例として、箱にぎゅうぎゅうに詰まった商品を、ロボットが吸着して引き上げられるようにした。人手によるプログラミングではなかなか実現が難しい作業だ。深層強化学習を使ってロボットに試行錯誤させたところ、100回ほどの動作で作業の成功率を7~8割に高めることができた。

 深層強化学習を化学プラントなどの制御に使おうとしている企業もある。千代田化工建設とベンチャー企業のグリッド、横河電機、横河ソリューションサービス、NTTコミュニケーションズの3社が、それぞれ開発に取り組んでいる。プラントは建設当初は最適に動作するように設計されているが、経年変化やプロセスの追加などで次第に特性が変わるため、熟練のオペレーターが経験に基づいて運用する部分が増える。そこをAIで置き換えようというわけだ。両グループとも、2018年度から2019年度にかけて本格的な事業を立ち上げる計画である。

 現在、各社がディープラーニングを使って実現を目指している用途は、人間ができる作業のほんの一部にすぎない。様々な分野にAIやロボットを取り入れるうえでの技術的なハードルは決して低くはないが、ディープラーニングはそれを乗り越える潜在能力を秘める。研究開発の最前線では、連日最新の論文が何本も飛び交い、白熱した議論が続いている。ディープラーニングの大波が届き始めた製造業の世界でも、これまで考えられなかった応用が次々に実現しそうだ。