BMIによって人間は進化する

BMIの研究が進めば、遠隔にあるロボットも考えただけで操作できそうだ。遠隔からロボットを操作する方法としては、人間の体にさまざまなセンサーを付けて動作をデジタル化するモーションキャプチャや、筋肉などの生体信号を計測するなどして、人間が行った動作をそのままロボットでトレースして再現する方法などがある。しかし、西尾氏によれば、「実際に体をロボットとシンクロさせるよりも、BMIでロボットを動かす方が自分がその体に乗り移った気がして一体感が強まる」という。

また、人間の体をトレースする方法では、人間ができることしかロボットに行わせることができない。2本以上の腕を使って作業をさせることなど難しいだろう。「BMIによる制御ならば、自分の体から生えている腕だけでなく、壁から生えている腕を自分の腕と思わせて操ることもできる」(西尾氏)。

(図2)遠隔でロボットを操作する2つの方法の比較

このように、BMIを活用することで、人間が人間以外の形態のものを操作できる可能がある。例えば、人間型のロボットではなくタコのような形状のロボットを操作し、8本の足を手のように使ったマルチタスクの作業もこなせるかもしれない。

脳の解明には時間がかかるが人間の適応は早い

BMIにはまだ課題も多い。一番の課題は、脳の働きの解明がなかなか進まないことだ。その理由の1つは、現時点では、脳の計測が間接的にしかできないことである。生きている人間の脳に、直接電極を埋め込んで脳が発信する電気信号を計測するわけにはいかない。たとえそのような計測が可能になったとしても、脳の信号の解析はアルゴリズムの解析のようなものなので、電気信号の強弱だけで見極めることは難しい。「パソコンに例えるならば、ハードウエアにセンサーを付けて、ソフトウエアを解析しているようなもの。CPUの温度が上がる箇所を調べ、ある部分が熱くなっているから、ここで計算が行われているのだろうと推測しても意味がない」(西尾氏)。

脳の解明には、まだ時間がかかりそうだ。しかし、近年のロボット技術の進化を考えれば、2足歩行が可能になったり、バク宙をしたりなど、ハードウエアに関しては進化が早い。したがって、脳からの信号を実際の動きに変える技術の実現も、案外早いかもしれない。

人間の方も、自分の体が違う形に思えることに、それほど抵抗はないのかもしれない。例えば、自転車に乗って移動することは、足で歩いて移動するという動作を、ペダルを漕いで車輪を回すという全く異なる動作に置き換えている。しかも、人間は一度自転車に乗れるようになると、以降は特に意識することなく乗りこなせるようになる。また、箸を使って食事をする際には、箸が指の延長になっているように感じている。これらも、体の変形と考えることができないだろうか。

人間はBMIでロボットに意志を伝えるだけで、複雑な動作はロボット自身が担う。そのような世界が実現できれば、人間自身が進化を遂げ、ロボットに支配されるようなシンギュラリティは起きないのではと思える。