クラウドファンディングで資金を募っている段階だが、プロジェクターで腕にAndroidのUIを投映し、どの部分に指が触れたのか、どのようなジェスチャーが行われたのかをセンサーで検出してスマートフォンを操作するスマートブレスレッド「Cicret Bracelet」(開発は仏Cicret)も注目されている(写真4)。スマートフォンとはBluetoothで接続されているので、Androidで動作するアプリを開発することで様々な用途での活用が可能だろう。

(写真4)腕にAndroidのUIを表示させるブレスレッド型のデバイス「Cicret Bracelet」
PICOプロジェクターで画像を表示し、8個のセンサーでジェスチャーを検出する。(Cicret Braceletのコンセプト映像より抜粋)

音声、ジェスチャー、脳波もUIに

一般的な生活シーンを考えた場合、次世代のUIとして有力なのは音声だろう。以前から視覚障害者向けの音声入力UIはあるが、基本的には命令を一言ずつ伝えるものだ。それが、最近のAIや音声認識技術の進化により、iPhoneのSiriのように会話形式でスマートフォンを操作することができるようになった。

最近注目されている音声入力デバイスは、スマートスピーカーである(写真5)。最初に商品化されたのは「Amazon Echo」。常時電源を入れたまま部屋に置いておき、必要に応じて話しかけると音楽をかけてくれたり天気予報やインターネットの検索結果などを教えてくれる。SiriやOK Googleのように、音声でスマートフォンを操作するのと同じである。

家電のコントロールなどにも対応しており、Uberを利用してタクシーを呼ぶこともできる。5月には米グーグルも、同じように部屋の中に置くスマートスピーカー「Google Home」を発表。いずれも日本での発売については未定だが、これら声でコントロールするデバイスは、障害者だけでなくスマートフォンやタブレットを使いこなせない高齢者にとっても受け入れられやすい。

(写真5)スマートスピーカーが家庭に入り込む
代表例はAmazon EchoとGoogle Home。どちらも、卓上に置いて使うICTデバイス。

聴覚に障害を持つ利用者には、ジェスチャーによるUIが実用的だ。スマートスピーカーのように部屋のどこからでも見えるようにセンサーを設置しておけば、家電のコントロールも可能になる。赤外線でジェスチャーをスキャンするセンサーユニットとしては、ゲーム用に開発された「Kinect」やパソコンの入力用に開発された「Leap Motion」などがある。日本のベンチャー企業であるログバーが開発した指輪型のジェスチャー入力デバイス「Ring」や前述した富士通の指輪型ウエアラブルデバイスであれば、より手軽に操作できる(写真6)。ジャスチャーの動作を指輪自身がセンシングするため、どこを向いていても入力できる。

(写真6)空間に向けて指を動かして家電をコントロールする「Ring」(ログバーのホームページから引用)

究極は脳波によるブレインマシンインタフェース

さらにその先に考えられているのが、脳波でデバイスをコントロールする「ブレインマシンインタフェース」(BMI)である。既に、家電のスイッチを入れるなど、脳波を読み取った簡単なコントロールは、いろいろな実験で成功した例がある。今後BMIが実用化されれば、頭の中で文章をイメージするだけで情報入力が可能になる。これによって、ALS(筋萎縮性側索硬化症)のように体が全く動かせず発声もできないような障害があっても、情報をやり取りできるようになる。

10月にスイスでの開催が予定されている、ロボットやAI技術を活用して障害者同士が競い合う初の国際大会「Cybathlon」(サイバスロン)では、BMIによって競技者が頭の中でアバターをコントロールしてレースを行う競技も予定されている(図3)。クルマのレースと馬のレースがあり、競技の様子はスタジアム内の大型スクリーンに映し出して中継される。

(図3)障害者のためのスポーツ大会「サイバスロン」の競技として計画されている、図はBMIによるレースのイメージ(サイバスロンの資料より抜粋)

今回は、VR/ARからの仮想インタフェースのほか、音声、ジェスチャー、脳波による情報入力環境を取り上げた。一方で、スマートコンタクトレンズに見られるように、情報表示にかかわる出力環境も進化している。後編では、VRやプロジェクションマッピングなどの技術によって、3次元空間に情報を出力するUIがICT活用をどのように変えていくのかを紹介する。

>>後編はこちら