IBM Watsonの対話AIが都市デザインを変える。次世代のアクセシビリティを体験してきた
こんにちは、岡田です!
突然ですが、本日はここに来ています。
東京日本橋にある商業施設、「コレド室町」です!
実は、2017年2月8日〜2月28日までの期間、「コレド室町」ではIBM Watsonを使ったAI音声アシスタントが施設内を案内してくれるという実証実験が開催中なんです。
今回の実証実験は、日本IBM・清水建設・三井不動産の3社共同で実施。それぞれ
- 日本IBM: IBM Watson技術の提供
- 清水建設: Bluetoothビーコン技術などの提供
- 三井不動産: 施設情報の提供
という役割。技術面にはもちろん、サービス設計にも注目され、視覚障害者や車椅子利用者・海外からの旅行者にも考慮した試みになっている。
AI音声アシスタントをつかった実証実験で、この規模は日本で初めてではないでしょうか?早速体験してきましたので、レポートします。
準備は簡単。誰でもつかえる。
実験に参加するには、iPhone6以上のスマホにNavCogというアプリをインストールするだけ。
IBMとカーネギーメロン大学が、視覚障がい者の方のために開発しているアシスタントアプリ。
インストール後、利用規約への同意や、簡単なアンケートに答えるだけで使える状態になります。簡単ですね!
アプリを立ち上げると、こんな画面が表示されます。左下にあるマイクアイコンをタップして、さっそく話しかけてみます。
いざ体験レポート開始!
さぁ、どれほどの精度なんでしょうか。
時間がお昼前ということもあり、お腹がペコペコ……。
というわけで
と話しかけてみました。
おお、自然言語を認識してくれています!そして、画面に文字がでるだけではなく喋りました!
って… バル?うどん?
ラーメン屋さんはなかったのかな? じゃあ、おなじ麺類の「2」で。
すると、ナビゲーションが開始しました!
ナビ中も、アシスタントが「直進してください」「左に曲がってください」と細かく話しかけてくれます。
ナビに従って、歩いていきます。
すると、「おっ!」と思ったポイントが1つ。
そう、指示の表現が細かいのです。
これがもし「下の階に降りてください」だけだったら、視覚障がい者の方が、階段かエスカレーターかエレベーターかわからなくて、思わぬ怪我につながりそうですもんね…。
なるほど、とても親切な設計。これなら、どんな方でも安心して利用できそうです。
エスカレーターを下ってナビに従っていくと、目的のうどん屋さんに辿り着きました!
曖昧な表現でも対応可能
そろそろコーヒーが飲みたいなぁ…。次は曖昧な表現にして、難易度を上げてみます。
おお、自然な会話になりましたよ。
曖昧なニーズにも、丁寧に選択肢を提供してくれます。
再度ナビに従い、無事コーヒー屋さんにも無事到着!
思った以上に使えそうですね。
この調子でいろいろ試してみましょう。お店以外の設備にも案内してくれるんでしょうか?
すごい!きちんとトイレの選択肢も出してくれました。親切ですね。
ナビに従い、建物の外へ…。
外でもナビは健在です。
無事到着です!
かなり作り込まれてますね。
駅の帰りまでもサポート
とても楽しい体験ができました。さて、そろそろ帰ろうかな…。
なんと、これにも対応。コレド室町以外の場所もナビしてくれました!
駅にも無事到着!
実験の後には、アンケートもあります。
公式発表によれば、これをもとにシステムを改善していき、2020年の東京オリンピック・パラリンピックでの実用化を目指しているそうです。楽しみですね!
体験をふりかえって
AIで自然な対話ができることはもちろんですが、アクセシビリティとホスピタリティの両方が徹底的に考えられていることに驚きました。
普段は意識してなかったのですが、私たちが普段通っているルートも、体の不自由な方にはとっては危ないんだな、と気づきました。
それを考えると、このシステムが当たり前じゃないことがおかしいぐらい…。
街を見渡すと、健常者向けにしかデザインされてないものが多い現状… はやくこれがスタンダードになる時代が来てほしいですね。
デジマラボではこうした試みがあれば、今後もレポートに向かおうと思います。
それではまたー!
「BITA デジマラボ」掲載のオリジナル版はこちらIBM Watsonの対話AIが都市デザインを変える。次世代のアクセシビリティを体験してきた2017/02/23