nayuta oyamada
Author:
nayuta oyamada

※本記事はコンセントのサービスデザインチームによるブログ『Service Design Park』に、2015年9月7日に掲載された記事の転載です(転載元:http://sd-park.tumblr.com/post/128550356071/how-do-i-interact-with-my-buddy-by-voice-recognition)。


By Brian from California Desert, United States (Star Wars Celebration 2015) [CC BY 2.0], via Wikimedia Commons

こんにちは。サービスデザイナーの小山田です。
今回は、2015年8月7日に開催した、サービスデザインのオープンな勉強会「Service Design Salon」のレポートをお送りします。

取り上げたテーマは、「音声認識で考える『相棒』とのインタラクション」。音声認識技術、ディープラーニング、AI、ロボット……、かつてSF映画で描かれてきたような技術が現実に登場するなかで、音声認識はインタラクションのためのUIのひとつとして、製品/サービスの体験価値を決める大きなポイントになるのではないでしょうか。
さらに音声認識は、技術的な制約に加えて、利用文脈的な制約が強いものでもあります。どんなシーンで、どのように利用することがもっとも自然で使いやすいのか、音声認識を利用する時の製品/サービスの存在をどのように捉えるべきなのか。

音声認識をともなうインタラクションのこれからの可能性を探るために、コンセントのサービスデザイナー、星貴史と、AQ株式会社のUXデザイナー、イ・ソヨンさんの2名のスピーカーによる話題提供をもとに、幅広い視点からディスカッションを行いました。

開催趣旨と合わせて課題の共有のために、最初に私の方から、映画のなかに登場する音声認識を取り上げ、その特徴をマッピングしたものを紹介しながら導入の話をしました。

インタラクション対象の存在は、たとえばモノ型⇔ヒト型、有形⇔無形で変化する。

今回のテーマに音声認識を選んだのは、急速に進歩している音声認識という技術と、それが可能にするインタラクションは、コマンド型のUIとは違い、相手と会話をするという点において特殊な意味性を持っていることと、製品/サービスがユーザーの生活のなかで人格をもった存在としてどう関与しうるのかという現実に答えなければならない状況がすでに発生していると感じたからです。

そう考えるきっかけになったのは、今回のスピーカーのお一人でもあるソヨンさんの前職でのブログポストを読んだことがでした。

Yahoo! JAPAN Creative Blog
「Yahoo! 音声アシストのサービスデザイン」

Yahoo! Japanが提供する「音声アシスト」アプリのUXデザインを行う際に、ペルソナを設定し、ユーザー視点から期待価値を想定してUXデザインを行ったという内容のポストです。
ここでは「深夜、ベッドでゴロ寝したままスマホで暇つぶししたい」というニーズの発見があり、それに対して「深夜にアプリからユーザーに雑談を持ちかける」施策で利用数が伸びるというシーンが紹介されています。
これは、ユーザーが眠りにつくまでのしばらくのあいだ、スマホが雑談相手(友達)として振る舞っているといえると思います。現在利用されているデバイスはスマホですが、これはそのまま一家に1台ロボットがあるような状況のシミュレーションといってもいい状況ができあがりつつあるのではないでしょうか。

私は今回のイベントを通して、個人的に以下の3つの点を強く感じました。

●音声認識という技術が利用されると、製品のもつ性質はより強調され、最終的に人格の形成へと向かっていく。
●今後デザインは、人格をもつ存在とのインタラクションが招く、さまざまな事態の倫理的側面を想定する必要が出てくる。
●ユーザーと意思疎通をする対象の関係性は、「弱いロボット」(後述)のように、ユーザー側からのアシストを引き出すようなものも考えうる。

みなさまはこのテーマから、何を感じられるでしょうか。

それでは、当日の発表内容を簡単に紹介していきます。

相棒としてのクルマを考える、80年代と現在

まずはじめに、車載情報機器のUXデザインを手がけるコンセントの星が「相棒としてのクルマ」をテーマに発表を行いました。

車載機のUXデザインを多く手がけるコンセントの星。

クルマと「相棒」と聞いて30代以上の方が真っ先に思い浮かべるもの……、そう(きっと)「ナイトライダー」の「Knight2000」です。「ナイトライダー」は、人工知能を搭載したスーパーカーと民間の犯罪捜査員がタッグを組んで事件を解決する特撮テレビドラマで、日本では80年代に放映されました。2012年には「ナイトライダーNEXT」として続編も放映された人気作品です。


「ナイトライダー」に登場するスーパーカーKnight2000。
Knight2000 ex107 by K.I.T.T.1982 – +EST Co.,LTD. Universal Studios LLLP.. Licensed under CC BY-SA 3.0 via Wikimedia Commons.

発表の中で星は、80年代に描かれた人格をもつクルマである「Knight2000」を例に引きながら、現在のAudi A6のCFでの描かれ方を対比し、現在はクルマそのものが相棒となるよりも、まずはクルマの操作をアシストするコンシェルジュ的な存在を目指してUXデザインが行われている状況ではないかと解説します。

The new Audi A6の紹介動画。

そして、現在クルマの音声認識利用で代表的なものとして挙げられるナビゲーションについて、その歴史を振り返ります。初期のカーナビは、ユーザーが地図をめくりながら運転する行為を代替しているもので、音声をコマンドとして利用するナビゲーション操作は、カーナビの歴史のなかでは1996年以降のことだそうです。以下の動画のような初期のナビゲーションシステムは、運転者が地図を確認する行為の代替という意味合いが強いものでした。

1981年に登場した世界で初めての地図型ナビゲーションシステム「ホンダ・エレクトロ・ジャイロケータ」。

音声で操作を行うことは、運転時の視覚情報処理を邪魔することがないため、ユーザーを比較的安全にアシストすることができるという利点があります。たとえば、アイコン表示の場合、一度認識してから意味を解釈する必要がありますが、音声でのインタラクションであれば、意味の置き換えを行わずにそのままユーザーが理解することが可能です。

このようなメリットのために、今後もクルマにおいて音声認識でのインタラクションは重要であり続けるでしょうが、Knight2000のような「相棒」あるいは現在のAudiで描かれているような「コンシェルジュ」など、どのようなキャラクターが求められるかによって、製品に必要な振る舞いは変わっていくことが予想されます。とくに、将来クルマの運転が自動化されると、相棒やコンシェルジュだけにとどまらず、「保護者」、「統率者」、「エンターテイナー」もしくは「ペット」など、クルマや利用シーンごとに望まれるキャラクターの幅が一気に広がるのではないかと予測されます。

このような、音声認識の普及によってクルマにキャラクター性が求められるようになるという予測の一方、もうひとつの可能性についても言及しました。それは、「クルマにはスマホを違和感なく使える環境こそが重要になる」というもの。つまり、普及が進むスマホでの音声認識が、クルマより先にユーザーの生活のなかで「相棒」としての立場を確立すれば、クルマはキャラクター性よりも、その「相棒」を許容する設計が必要になるのではないかという指摘です。

人工知能とのインタラクション

つぎに、AQ株式会社のUXデザイナー、イ・ソヨンさんから「Interaction Design of Artificial Intelligence」と題した、人工知能とのインタラクションの可能性についての話題提供をいただきました。


映画「Ex Machina(日本公開未定)」チューリングテストを例に挙げつつ、人口知能の発達が、社会的に大きな関心を呼んでいる状態を紹介していただきました。「ユージーン」という13歳の少年を想定したAIがチューリングテストに合格したことや、世界的な理論物理学者であるスティーブン・ホーキング博士が人工知能の行き過ぎた発展に懸念を示したりと、人工知能の発達が急速に進み、人類にとっての脅威になるのではという懸念も現れ始めています。とくに、前述の映画では、検索エンジンとSNSをあわせたような「Bluebook」というサイトのビッグデータから、全能の存在に近いようなAIが誕生する可能性が描かれているそうです。

ソヨンさんは、音声認識を含めて、これらの新しい存在とのインタラクションを考えていくうえで、UXデザイナーが考えるべき5つのポイントがあると語ります。

1つめは、「リレーションシップ」です。それは、映画『her/世界でひとつの彼女』で語られたような、人工知能が恋愛の対象になるような事態。将来のUXデザイナーは、そこまでを見越してUXを考える必要があるのではないかという指摘です。

2つめは、「アピアランス」。どこまで人の似姿としてデザインをするのかという問題です。ロボットのデザインでは、見ためが人間に近づきすぎると、細かい差異が際立ち、かえって不気味さを増してしまうという「不気味の谷」という現象があります。どこまでヒトに似せるのか、技術的な実現可能性と適度なデフォルメのバランス感覚が求められることになるでしょう。
ここでソヨンさんが、iPhoneのSiriのように、ヒトの姿を持たない対象を指して、「透過型」という言葉を使っていたのが印象的でした。「透過型」のデザインは、その向こうで動いているキャラクターに対して、利用者それぞれが自分自身の理想を投影して、自由にさまざまな姿形を思い描くことができます。

3つめに、今回のテーマと最も関係するものとして「カンバセーション」があります。
UNIXのテキストエディタ「vi」や、現在のGoogle検索キーワードを例に、現在は、人間側が機械にとって理解しやすい形に情報を加工してインタラクションを行っている状態だと解説します。現在の音声認識は、会話の修復(意味の通らない会話になった場合に、対象との相互のインタラクションによって、間違いを修正すること)ができていないという現状があります。たとえば前の会話を受けて、「もっと教えて」などと指示をしても、「もっと」をWeb検索してしまうというような事態です。

4つめの「ステータス」という観点も重要です。ユーザーとのインタラクションを行ううえで、人工知能側がどのようなステータスでいるのか(自信がある、ない、考え中、など)を明示的に伝える仕組みを用意する必要があります。

最後の5つめが、「コンテンツ」。これらのポイントを踏まえながら、どのようなコンテンツが、誰に、何のために、どう役に立つのかをきちんと考えていくことが最も大事なことだと強調されていました。そして、ユーザーとどのような関係性のなかで関わるのか、実際のユースケースを考える際には、サービスデザイン的にユーザーの利用文脈と潜在的なニーズを捉えて、UXを考えていくことが今後も変わらず重要であると、お話いただきました。

当日使用したスライド資料は下記リンクからご覧いただけます。
http://www.slideshare.net/SoyeonLee6/ss-51389306

助けさせてあげるインタラクション

スピーカー2名の発表のあと、参加者のみなさんとのディスカッションを行いました。そのなかで個人的に非常におもしろかったトピックが「弱いロボット」の概念についてです。

参加者の方とのディスカッション。

弱いロボットとは豊橋技術科学大学の岡田美智男氏が提唱されている概念で、たとえばゴミのそばには行くが、自力ではゴミを捨てられないロボットがいると、ユーザーがそのゴミをロボットのために捨ててあげるというように、ロボットが全能でないがゆえに、利用者を動かすことができるというものです。
コンセントの長谷川は、海外で弱いロボットの概念を説明しようとすると、「弱い」という言葉からの印象か、ネガティブな内容だととらえられて、うまくその可能性について伝わらないというエピソードを紹介しました。もしかすると、全能ではない「ちょっと頼りない相棒」のようなロボットは、日本的な価値観と親和性が高いのかもしれません。

今回のイベントでは、技術の発展に合わせて利用者とのインタラクションがもつ可能性はさまざまに広がっており、その広がりのなかで、どのような体験価値を提供するのかユーザー視点からUXデザインを考える重要性と、UXデザイナーが考えるべき領域はますます広がりを見せているということを実感しました。

【執筆者プロフィール】
小山田 那由他
 


Service Design Salonで一緒にディスカッションしませんか?

今後もさまざまなテーマでService Design Salonを開催予定です。
Service Design Salonの情報は、コンセントの公式Facebookページにて随時告知しておりますので合わせてチェックいただければ幸いです。
コンセントの公式Facebookページ

【関連リンク】
オープンな勉強会「Service Design Salon」
Service Design Salon vol.4 レポート
〜日本の公園から考える〜Service Design Salon vol.5 レポート
Service Design Salon Vol.6/第16回UXD initiative 「サービスデザイン思考と学び」レポート
〜UX and Emerging Technologies〜Service Design Salon vol.7 レポート
⇒ Service Design Salon Vol.8/UXD initiative Vol.18 「公共のためのデザインの可能性」レポート