案内ロボットで初めて「音声認識が便利」だと思った

AI/Digital Signage /

「都営地下鉄施設内における案内・警備ロボット実証実験」の一環で、上野御徒町駅の観光案内所、ツーリストインフォメーションセンターに案内ロボット 『ARISA』が2018年12月17日から21日までの期間限定で設置された。

ARISAは、ゲーム会社のアルゼゲーミングテクノロジーが開発したロボットで、もともとはカジノのディーラーとして企画されたものの、指先にそこまでの精度を出すのが現段階では難しいとのことで、受付や案内業務に転用したそうだ。上半身だけの人型ロボットが収められている筐体には、手前にタッチパネルモニターとマイク、背後にモニターも設置されており、タッチパネル操作や音声による問いかけに応じて人型ロボットが身振りを交えながら、画面を使って案内する。すでに1年ほど同社の受付として稼働していたのを、今回の実証実験の公募に応じて設置したそうだ。今回の実証実験では、日米中韓の4か国語で乗り換え案内や、駅構内案内、周辺施設名からの出口案内などを行った。

ゲーム会社が作るUIには優れたものが多いが、このロボットでも感じることができた。まず、タッチパネル操作や音声へのレスポンスも早く、Googleを使っている音声認識も正確でストレスはなかった。

ストレスのない音声入力を実現するうえで重要だと感じたのは、スタンド型マイクだ。人型ロボットと対面すると、ちょうど口元に位置するマイクが存在することで、このロボットは語りかけるものだと見た瞬間に理解できる。また、音声が通じなかったときにも、このスタンド型マイクが収音しやすいように話せばいいとわかる。音声認識できるロボットやサイネージも増えてきたが、そのほとんどが音声で操作できることに気がつくまでに少し時間がかかることがあったり、どこに向かって話せばいいのかわからず、普段以上に大声でハキハキと話す羽目となってストレスが溜まったりすることが多い。ところが、このロボットでは、そのような面倒はまったくなかった。そのため、乗り換え案内で行き先の駅名を入力するとき、マイクと優秀な音声認識があれば、使いにくいソフトウェアキーボードよりもずっと音声入力のほうが手早くできるものだと、音声入力のメリットを大いに理解することができた。今後は、タッチパネルと音声入力を組み合わせたインターフェイスが増えていくと実感できた。

同時期にJR東日本でも「案内 AI みんなで育てようプロジェクト」経堂実証実験(2018年11月〜2019年3月)を行っており、こちらは池袋駅に設置された、ロボ+タブレット。タッチと音声の2つの入力方法を用意し、人型ロボットが画面と連動して案内するのはARISAと同じなのだが、マイクがタブレット内蔵のものを使っているため、どこに向けて話せばいいかわからないうえ、周囲の雑音に負けてほとんど音声を認識できない。いまは、どのような質問がされるのかデータを収集する段階とのことだが、そもそも質問を聞き取れていない……。

ただ、惜しいと思ったのは、一番のウリである「人型」である意味がほとんどない点だ。もちろん、インパクトはあるし、エンタメとして意味はある。一緒に記念撮影を取るため、ポーズを取る機能もある。しかし、それらはイロモノとしての役割でしかない。顔や手を使って方角を示したり、視線を誘導したりすることや、案内の最後に路線図の冊子や構内図のプリントアウトを手渡しして持ち帰ってもらうなど、人型のロボットだからこそできることを見てみたいところだ。