ロボット自身が感情を学ぶ機構も実現

ロボットに感情を表現させるアルゴリズムはいろいろとある。例としてソフトバンクの人型ロボットであるPepperのメカニズムを見てみよう。Pepperの場合は顔の表情を変えることはできないので、体全体の動きや胸のディスプレイに表示されるグラフィックの色や動きで感情を表現している。

Pepperの感情生成エンジンを開発しているcocoro SBによれば、Pepperは体中のセンサーから得た情報を活用することで、自分が置かれている状況を判断し、それに合わせた擬似的な脳内分泌を定義する。その分泌の度合いをクラウドコンピューティングでつながったAIに送って処理させ、その結果から感情を生成したり気質を表現したりする。

疑似的な脳内分泌はCRHやドーパミン、ノルアドレナリン、ACTH、コルチゾール、⾎糖値、セロトニンなど8種類。アドレナリンは外部からの危険やストレスに対処する時に働くホルモンで、怒りや不安、恐怖などの感情を引き起こす。ドーパミンは喜びや快楽を司るホルモンで、セロトニンは精神を安定させ幸福感を生み出すホルモンである。このように、人間の感情をコントロールする脳内分泌を、Pepperはさまざまなセンサーからの情報によって疑似的に生成させる。例えば笑っている⼈が近くにいるとセロトニンが出て、遊んでもらうとドーパミンが出るようになっている。また身体に触られたらセンサーで感知して、それがいいことなのか悪いことなのか判断する。「なでられたらポジティブ、殴られたらネガティブ」といった具合だ(図1)。

(図1)Pepperが喜怒哀楽を表現する仕組み
(図1)Pepperが喜怒哀楽を表現する仕組み
(ソフトバンクのホームページより引用)

このように、人間が五感から受け取る外部刺激に対してホルモンを分泌するように、Pepperも人の表情や言葉、周囲の状況などから擬似的な脳内分泌を定義し、クラウドでつながったAI上の「感情生成エンジン」で、「楽しい」「うれしい」「いら立ち」「愛おしい」などの喜怒哀楽を表現している。

ロボットが感情表現力を持つことによる不都合も

一方で、今後、人間の社会にもっとロボットが溶け込んでいくうえで、彼らには感情が必要なのかという議論がある。根底にあるのは、ロボットが実際に感情、もっと言えば意識を持っているかのように見せてしまうと、倫理的な問題に発展しかねないという考え方だ。

例えば、感情を持ち自分のパートナーとして働いてくれるロボットを危険な場所に送り込む時、人間がどのように感じるのかなどを計測する実験がある。海軍人工知能応用研究センターが調査しているもので、実験には前述のOctaviaが利用されている。

兵士たちは実際の戦地で、地雷を撤去するロボットなどに名前を付けてパートナーとして接している。これらのロボットは感情を表現することはないが、兵士たちは長期間接することでペットのように思えてくるそうだ。そして、そのロボットが爆発物によって破壊された時には喪失感が大きいという。もしロボットが感情を持っていたとしたら、さらに心の傷が大きくなるかもしれない。戦場のような特殊な環境でなくても、パートナーを失った時のトラウマを考えればロボットには感情がない方がいいのかもしれない。

これに対し、日本人のアンドロイド開発者として、世界的にも知名度が高い大阪大学の石黒浩教授はあるメディアのインタビューの中で、ロボットにも感情が必要だと答えている。例えば、人間は相手が話している言葉がわからなくても、相手の顔の表情を見ることで、怒っているのか喜んでいるのか悲しんでいるのかなどを知ることができる。石黒教授によれば、「感情とは、他者と意思疎通をはかるうえで最も単純で重要なコミュニケーションの道具」であり、言葉に表情による感情表現を組み合わせることでロボットのコミュニケーション能力がより高まるという(写真4)。

(写真4)石黒教授が所属する知能ロボット研究室で開発されたアンドロイド「エリカ」
(写真4)石黒教授が所属する知能ロボット研究室で開発されたアンドロイド「エリカ」
自然な会話を再現するために様々なシステムが組み合わされている。(知能ロボット研究室のホームページより引用)

ロボットに感情を理解する力や表現する力を持たせることと、意識や心を持たせることでは、技術面でも倫理面でも、議論の次元がまったく異なる。危険を伴う場所に送るロボット、重労働を課すロボットなどには感情表現の能力を持たせなければ済む。逆に、人々の日常生活を支援するような場面で働くロボットに関しては、利用者自身の好みで感情理解・表現の能力をオン/オフできれば問題は生じなさそうだ。

それをすべての協働ロボットに実装するかどうかは別として、ロボットが感情を理解したり表現したりする仕組み自体は現実に向かって行きそうだ。