Google HOMEから見るAIとVUIを考える

音声入力って抵抗があるのか?

先日、ユーザビリティテスト講座でゴルフバックのサイズを検索しなくてはならず、音声でググッたのですが凄く驚かれました。逆にみんなが音声検索していないことに戸惑ったのですが。(私はスマホのメール入力も全部音声で行っています。)

2015年9月記事の「Google Docsで音声入力が可能に」ギズモードの記事では、Googleドキュメントの文章も音声入力させているというくらいなので、インタビューの文字起こしも音声入力ってのは今や当たり前だと思っていました。

ユーザーリサーチは本当に必要

音声検索することはTVのコマーシャルにも出ているくらい一般的にも身近なものだと思っていたのですが、世間一般とは違うWeb業界のイベントにも関わらず、自分はマイノリティだった。とびっくりしました。(これもバイアスですね!)

GoogleのCM:音声入力のシーン

先日海外から遅れをとって発売された Google HOME は音声検索です。
Web上の記事で実際に使った方の感想を見ると、音声で検索するのに抵抗があると記載しています。この抵抗は恥ずかしさから来ているようでした。しかし、記事の多くは音声検索は便利ですという内容で終わっているものがほとんどでした。
「あら〜!(驚)本当に音声検索に抵抗があるのね。」っと思うと同時に、リサーチは本当に必要だということを心から感じました。

Google HOMEは天気、音楽、ローカルナビのみ?

使った方の意見をFBなどで見ると”凄く便利!!”、”Googleの音声認識の感度が高い”、”LINE Waveより断然良い”などの感想を目にします。日経では「Google HOME とLINE Wave比較動画」なる記事をだしています。

巷では便利という声ですが、私にはあまりにもGoogle HOMEがおバカだったので使い物になっていません。(涙)

音楽へのアクションはまずまず・・

まず、音楽をかけてとお願いすると、Spotifyの契約をしていたのでアカウントと紐付けてすぐに音楽をかけてくれます。この辺りは難なくクリア。音整も「もう少し小さくして」などの対応もしてくれます。

AIが搭載されているので、JAZZを流した後に、1990年代の音楽リクエストでミーシャを流し、「別の曲にして。」と依頼するとミーシャの曲の中でJAZZテイストの曲を選んで流してくれます。このあたりは学習していて、なるほど!と感じました。もしかしてSpotifyのAIかな?とも?

ただ、受け答えをするスマートスピーカーとしては問題ないのですが、”音楽を聞く”という面では(他の方も記載していますが)音がこもっていて音質にうるさくない私でも疲れると感じます。

我が家ではBoseのスピーカーとコネクトしているのですが、他のスピーカーとコネクトしないと利用できないかな?という印象を持っています。設定しなくてはならないとなると、一般の方にはハードルが高くなっているように感じました。

Googleプリンの作り方を教えて?

次に、音楽以外で音声検索が便利なシーンとして思いつくのが”料理している時”です。ここから本領の発揮のはずが、、、、。(涙)

「OK Google プリンの作り方教えて?」

「すみません、お力になれません。」って。

「プリンだってプリン。」的なことを発すると

「〇〇キロメートル圏内に3軒のお店を見つけました。って。。。。。」orz

結果的に近くのお店を紹介するという設計になっていました。

数ヶ月で使わなくなる

実際に海外の友達のFBで見たのですが、数ヶ月でほぼ利用しなくなったそうです。使っている人でも、タイマーかお天気を聞くくらいだそうです。

数ヶ月後にはあまりつかわなくなったオーストラリアに住む方のコメント

今となっては変な日本語喋らせるかタイマーか天気予報くらいしか話しかけていない。

学習させるには?

AIなので、学習させる必要があるのですが、如何せん学習させる方法が検討が付かないです。先程のように質問の内容を少しづつ変更して学習させていくのだと思うのですが、どこを覚えてどこを覚えていないのか配慮しているのかがわかりません。どのように覚えているのかわからないので、学習のさせ方がわかりません。コマンドやスキルもありますが、学習レベルとの差がわかりません。

「わからない、力になれない」では人間のモチベーションが続かない

致命的な設計だと感じるのがGoogle HOMEの回答です。
わからない場合に「わからない。力になれない。」では(人間)こちらも何もしようがありません。

一方、Alexaは、「ヘルプかフィードバックセクションへ」と問題を受けいれる場所が設計されています。問題を蓄積するところがあるだけでも大きく違うのでは?と感じています。

Googleのイメージ動画は嘘?

Google Home Demo - Google IO 2016

Google IO 2016で紹介されたGoogle HOMEのデモ動画を見ると、音楽を部屋全体に流したり・遠隔の部屋の電気をつけたり、ディナーの予約も変更させたり、かなりいけているサービスなのですが、ここまで成長させるにはどうやって?何時間かかるのか?(謎)まだいろいろと時間がかかってしまうのかも知れません。

このように、まだまだ問題も多くあるスマートスピーカーですが、音声入力や検索は便利で必ずニーズはあるので技術が進化すれば一般的になるでしょう。そして、それらを設計するのはUXデザイナーであることを理解しておきましょう。

AIや音声入力は今はまだ初期型

AIの代表的なサービスとしてChatbot(チャットボット)があります。AIもまた未熟段階です。言葉が悪いかもですが、今のサービスは未来から見たら「なんちゃってAIだ。」って笑われるくらいのものかも知れません。

昔、親世代が成人になった頃の計算機は、100万円もしてめちゃくちゃ大きかったのと同じなのでしょう。

世界初の電子式卓上計算機「CS-10A」:1964年発売

はじめは数桁の計算だけでも仕方ないが。

上手にサービス化されているChatbotはないという記事もありますが、なんでも初期のものは計算機と同じですぐに人々が満足いくサービスでないかもしれません。

しかし、AmazonのAlexaのように蓄積する仕組みを考慮しておく必要があるのではないか?と感じています。それは、人は何かしら課題を受け止めてくれるところがあるだけでも自分のタスクが完了した(伝えた)という満足感は味わえるのではないかと思います。

タスクはナローAIからはじめよう

Chatbotだけでない視点でAIを見るといろいろなところで実は使われはじめています。

日本ではすぐに「人間 vs AI」やロボットをイメージしてしまいますが、実はちょっとした作業をAIが行ってくれるという便利なナローAIがあります。

Cooper(クーパー)Chris Noessel(クリス・ノッセル)氏2016年に開催したUXDTのカンファレンスセッションとして「SFにおける「弱いAIANI」と新しい試み」を紹介していただきました

ナローAI:「弱いAI」とされる ANI(Artificial Narrow Intelligence)は、小さな仕事をさせるAIです。GoogleフォトにはいくつかのナローAIが搭載されています。

機能としては、場所、時間、人によって自動でアルバムを作ってくれたりします。場所はその場所でのアルバムです。

例えば、岩手に旅行に行ったら、その写真達を岩手というエリアで保存します。毎年行っていたら、全ての岩手の写真がでてきます。日付でもアルバムを作ってくれますし、一緒にいた(撮影されていた)人をベースに写真を分けてくれたりします。

また、「車」や「ベンツ」などの特定のキーワードを入力しなくても勝手に認識されていてGoogle フォトの検索にヒットします。同様の機能はFacebookにも入っていて、ちょっとした作業をナローAIが行っています。

自分の写真をGoogle フォトで「ベンツ」と検索したところ

AIとUXは関係あるの?

先程紹介したように、2016年のセッションを行った時には「UXとAIって関係あるの?」、「UXのカンファレンスなのにUX的なものがテーマに感じない」と言われたのですが、2017年になるとAIとUXの話題も多くなり、「AIスピーカーを使ったサービスをデザインする」などのAIとUXのテーマの記事も見かけるようになりました。

また、つい先日(2017年10月13日)の記事でもナローAI的な話題も出てきはじめました。

2017年にはナローAIも認識されるようになってきた

VUIの設計はUXデザイナーの仕事

さて、話がGoogle HOMEに戻り、スマートスピーカーは声で操作します。

これらを海外では、Voice user interface  を VUI(ブィユーアイ)と呼んで久しいのですが日本ではまだ馴染みがないようです。英語でないという言語の壁が1つの理由ではありますが、Google HOMEの発売も日本では遅れていることが馴染みがない1つの理由かも知れません。

Google HOMEにはAIが搭載されていますが、先程述べたようにまだまだ完成度は高くありません。AIには人がある程度勉強させなくてはなりませんが、製品として出す前にある程度の設定が必要になります。つまり、UXデザイナーがメンタルモデルをベースに設計する必要があると言えます。

50代女性に音声でメールを打ってもらう

5年くらい前にテレビ東京のワールドビジネスサテライトの取材で、音声でメーラーを立ち上げてメールをさせる開発を取材しているものを見たことがあります。

その取材の中では、50代の女性に音声でメールを立ち上げてメールを送るというタスクをユーザビリティ調査として行っていましたが、実際にはできませんでした。

なぜ出来なかったのか?

50代女性は「こんにちは!加藤さん」とスマホに呼びかけていました。開発者はメールという言葉でメーラーが立ち上がるように設計していたのですが、50代女性はいっこうにメールという言葉を発してくれません。

「課題が残るが頑張ってください。」とのコメントで取材が終了していましたが、開発者は回答がわからず頭を抱えていました。

UXデザイナーがメンタルモデルを設計する

私は見て、すぐにどのようにしたら良いかがわかりました。「メール」という言葉がなくてもメールを立ち上げることはできます。このあたりは、内容が散漫になってきたので、チャットボットなどのVUIの設計の記事でご紹介いたします。

この記事では2つのことをお伝えできていれば良いと思っています。

1つは、VUI(AI)の設計はUXデザイナーの仕事ということ。2つ目は、AIの採用は初期型なので、ナローAIでミニタスクから採用しよう。です。では、また!

この記事を書いた人:大本 あかね

UX DAYS TOKYO を運営してる Web Directions East.LLCの大本です。
カンファレンス運営していますが、毎年行われているUXDTは私自身も学びの場になっています。また、海外のUXカンファレンスにもいくつかいくようになりました。学んだ知識を実践し、勉強会やブログなどでフィードバックしています。UXは奥が深いので、みなさん一緒に勉強していきましょう。