いつ検索ボックスに文字を打ち込むのをやめられるか
おかしな話に感じるかもしれないが、いかに文字を打たないで済むかについて考えている。いや、このコラムの文字数の話ではなく、調べ物の話である。最近はコンピュータの音声入力もかなり正確で、ぱちぱちと文字を打ち込むよりも「今日の天気を教えて」とiPhoneに言う方が早いのではないかという仮説だ。答えに到達するまでの実時間はそう変わらないかもしれないが、そう感じ始めている人も多いのではないだろうか。
私たちは意外なところで脳のリソースを使っている。スマートフォンのロックを解除して、天気のアプリを開くためには、スマートフォンが正しく認識できる手続き(ロックを解除して、アプリを探して、それを開いて)を3-4回は経由しなくてはならない。簡単なタスクに限るが、それを音声でひとっ飛びに済ませるというのはいい方法に思える。
しかし町中でSiriやGoogleの音声認識を使うのはなかなか抵抗がある国民性である。アメリカ旅行で発見したのは、電車でもカフェでもためらわずに携帯電話に話しかける人々の姿だった。未来に生きるには、ある程度内に抱えていた羞恥心は捨てないといけないのであろうか。
いずれにせよ、まだまだものを調べたり確認したりすることは、かなり軽減されたとはいえ手間のままである。仕事柄、人並みにはGoogleやWikipediaとにらめっこしている気がする。クライアントが出演しているインタビューや、ニュースや、すぐれたアートワーク……一日の何割かはそうした調べ物に時間を割いている気がする。スマートフォンのお陰で情報に接触する機会としては身近にはなった。しかし手間に関しては軽減してくれているであろうか。私たちはいつ、検索ボックスに文字を打ち込むのをやめることができるだろうか?
コンピューティングの究極形は触ることにさえ気づかせない
なんて横着なと思われるかもしれないが、進化は得てして大乗仏教のようなものである。つまり普及するに足る形態を獲得するのだ。何かインターネットで表現しなくてはならないとして、昔はhtmlの記法を覚える必要があったが、時は流れて今はSNSでポストすれば良い。インターネットもまた命がけの修行は必要なくなり、祈れば救われるときが来つつあるようだ。
コンピューティングの究極形は、コンピュータを触っていることにさえ気づかないことであろう。ものを食べる際にスプーンの形をいちいち覚えていないように、先ほど述べた、脳のリソースをほとんど使わないコンピューティングである。音声認識にはその萌芽を感じるのだ。そしてここにズキリと来る部分がある。
私や周囲の同業者は、いわゆる「画面」のデザインをしている。Webやスマートフォンのアプリなどの画面である。ある者は地図の見やすさに血道をあげ、最近の私はアニメーション作品の放映情報を、ユーザーが誤認しないように神経を尖らせていた。しかし音声認識が限りなく正確になれば、人が画面を見ること自体、格段に減ってしまうのではないだろうか……。
前回のコラムでも少し触れたように、デジタルはものごとを冷静に分離する。つまり「見た目(デザイン)」と「情報(コンテンツ)」が分離された状態である。そうした場合、価値があるのはもちろん情報だ。なるべく綺麗にデザインしたつもりの雲模様のアイコンは一切人々の目に止まることなく、「今日の天気は曇り、夜には雨」の声だけが降ってくるのである。デザイナーにとってはちょっとしたホラーである。だが、一度味わってしまった利便は、その前に戻ることを非常に難しくする。私ももう一度修行に戻るつもりはないのだ。
ついに画面のデザインのいらないフェーズに来た
上記のような話は、SiriがiPhoneに搭載された2011年ごろに仲間内で話題にしていた。「いつか画面のデザインもいらなくなり、情報設計が新しいフェーズに入るかもね……」と。その頃は「しかし、今すぐにではないし、音声入力もメインストリームになるとは限らないから」と言って、アプリのデザインを研究していこうとしていた時期である。しかし、これはというニュースが最近入ってきた。FacebookがF8と言う開発者向けのカンファレンスで、Messenger Botを作成する仕組みを公開したのである。
http://jp.techcrunch.com/2016/04/20/techcrunch-messenger-bot/
これはSiriのような自動応答アシスタントの仕組みを、ある程度Facebook Messenger上で実現するものだ。LINEやメッセンジャーで普段やり取りしている方には、友だちリストに「何か自分が興味のある、専門的なことを教えてくれる友達」を増やすことが出来るといえようか。まだまだ初歩的な段階だが、すでに広告プロモーションにも使用され始めている。宇宙戦争を題材にしたゲーム「Call of Duty: Infinite Warfare」の公式メッセンジャーでは、登場人物が質問に答えてくれ、それが広告に興味を持つユーザーのエデュケーションとして機能している。
http://wired.jp/2016/05/10/sfmoma-audio-tour-app/
これらをみると、新しい時期が来てしまったように感じている。専門性を含んだ情報をデジタルで表現したい場合、アプリケーションを設計したり、ウェブページを公開するのではなく、自然言語を解するBotを作ればいいという世界である。もちろん文字を打ち込んでもいいし、話しかけても良い。
本来、人々が欲しがっている価値とは何なのか
日本人である私たちにはなじみが少し薄いかもしれないが、Botは実は結構な歴史がある。イライザや人工無能と言われていた、単に小さい範囲の辞書から返すプログラムである(興味のある方は、ぜひiPhoneに「イライザって誰?」と尋ねてみていただきたい)。これらは60年代にはすでに提唱されており、インターネットの接続と言語の文脈を読み取れるだけの計算能力をもってSiriとして私たちの前に登場している。
もちろん、今すぐWebやアプリをデザインすることがクールじゃなくなるとは思わない。ただもう一つの選択肢として浮上したこれらは、なかなかに強力に感じている。デジタルカメラが銀塩写真の市場を食っていったように、いつか私たちデザイナーは「Botの画面を設計することが少なくなった仕事の一つ」……ということも、あるかもしれない。iPhone上にアプリをインストールする仕組みができてから8年(そう、まだ産業としては10年経っていない)。本来人々が欲しがっている価値は、日々触れる天気以外に何があったっけ、と自問自答する日々である。
余談だが先日ライターの方と話した際に、音声認識は「テープ起こしにも使える」と聞いた。つまりインタビューで録音した内容を自分でもう一度スマートフォンやMacに喋ることで、テキストとして保存できるので便利とのことだ。それに習ってこのコラムも8割程度は音声認識で書いてみたが、少しは口語体の自然な文章に近づいているだろうか……。
追記:このコラムを校正している間に、更にニュースが飛び込んできた。先日リニューアルしたサンフランシスコ近代美術館のアプリは、どうやらユーザーがどの作品の前に居るか正確に判別し、音声解説を返してくれるらしい。また一つ、画面を見なくてよいシチュエーションが増えたようだ。