災害時に早く確実に避難情報を伝達するための使い方も考えられている。バートン、産業技術総合研究所、慶應義塾大学が開発した「空間立体描画」は、集光レーザー光で空気をプラズマ化して発光させ、空間にドットからなる3次元映像を実像として描画する。指向性がなく、どの方向からも映像が視認できるという特徴を持つため、車載化して災害時に被災地に駆け付け、どこに避難したらよいか、どこに食料があるかといった避難災害情報を音と一緒に空中に文字で表示させるシステムの実用化が考えられている。このほか、夜間に横断歩道を渡る際に空中に明るい人物像を表示することで、遠くから向かってくる車に人の存在を知らせて交通事故を未然に防ぐといった利用法も考えられる(図3)。

(図3)夜間の横断歩道では遠くからでも人の横断が確認できる(産業技術総合研究所のホームページから引用)

身体で感じるVR技術が生み出す新たなUI

視覚や聴覚を利用したVR(バーチャルリアリティ)の技術は、今やスマートフォンでも簡単に体験できるようになった。残るは触覚、嗅覚、味覚だが、触覚のVRもすでに実用化に向けた開発が進んでいる。ミライセンスが開発した「3D触力覚技術」は、指先に小型の触力覚デバイスを装着するだけで、まったく何もない空間で物体に触っているような触感・感触が体感できる技術。独自設計のモーターが触力覚デバイスを振動させて作る“特殊波形”の刺激が指先から伝わることで、何かに触れていたり、引っ張られていたりするよう感じさせる仕組みである(写真2)。

(写真2)VRゲーム向けのコントローラに組み込まれた触力覚デバイス。
(写真提供ミライセンス)

触力覚技術は、電気的に生成した刺激により、脳に触感の錯覚を引き起こさせる技術(図4)。引っ張られたり押されたりする感覚(力覚)、硬さや柔らかさの感覚(圧覚)、ものに触れた時のざらざら/つるつるとした質感(触覚)という「三原触」からなり、これらを組み合わせることで、「人間が感じているほぼすべての触覚を表現できる」(ミライセンス ファウンダー 取締役 CTO 中村則雄氏)。人の身体では、特に指先にこれらの刺激を感じる感覚受容器が集中しており、指先への刺激だけで、腕全体が引っ張られたり、手のひらを押されたりといった感覚を与えられる。

(図4)触力覚デバイスは力覚・圧覚・触覚を組み合わせて脳を錯覚させている。
(資料提供ミライセンス)

応用分野は多岐にわたる。エンタテイメントの分野ではゲームコントローラー型デバイスなどすでに実用化されているものがある。体が引っ張られる感覚を生かしたスポーツのシミュレーションゲームなども考えられるだろう。

ウエアラブルの分野では、GPS(全地球測位システム)と連動させて、辿り着きたい場所まで引っ張っていってくれる道案内などを実現できそう。文字や音声が必要ないので、視覚や聴覚に障害を持つ人、外国人旅行者などに向けたユニバーサルガイドが可能になる。また、最近の車は操作系がタッチパネル化される傾向にあるが、運転中にパネルに視線を移すと危険なので、指先をパネル上のボタンに誘導し、操作した結果が感触でわかるようなUIを実現できれば運転に集中させやすい。医療の分野でも、遠隔操作でアームを動かして手術を行うダ・ヴィンチシステムで、切除や縫合の際の触感を伝えられるようになる。

情報入力・出力の分野に分けて新たな技術を紹介してきたが、これらを組み合わせれば、間違いなく、新しいICT活用の世界を実現できる。Amazon Echoのようなスマートスピーカーに話しかけると、空中ディスプレイ技術で部屋の中に浮かび上がったキャラクターが相手をしてくれる。そのキャラクターには3D触力覚技術で触れることができ、ジェスチャー入力を使って指の動きで指示を与えることもできる。Pepperのようなコミュニケーションロボットが欲しいけど、家に置いておくスペースがないような場合に、必要な時だけ現れてくれるロボットとして活躍しそうだ。