カタパルトスープレックス

イノベーションに効く世界の情報を日本語で

インターフェースの未来2018年度版|カタパルト式アンリーディング

f:id:kazuya_nakamura:20180101141550p:plain

ざっくり言うと

  • 次のインターフェースは「ノーインターフェース」
  • まだ誰も「ノーインターフェース」の最適解を見つけていない
  • おそらくヒントは自動ドア

 インターフェースはキャラクターユーザーインターフェース(CUI)からグラフィックユーザーインターフェース(GUI)、そしてタッチインターフェースに移行してきました。これはソフトウェアだけでなく、ハードウェアも同様です。マウスやデジタイザーペンからタッチスクリーンになり、デスクトップからノートブック、スマホになりました。新しいデザイン言語も生まれました。スキューモーフィズムからフラットデザイン、マテリアルデザイン。

次のインターフェースをみんなが探している(がまだ見つかってない)

 次のインターフェースをみんなが探しています。大きな流れは「ノーインターフェース」です。CUIではキーボード、GUIではマウス、タッチでは手が必要です。コンピューター以前の物理的インターフェースも手か足が必要でした。例えばドアとかテレビのリモコンとか、クルマのアクセルとか。そのようなインターフェースがないことが理想です。

 インタラクションデザインの大御所ドン・ノーマンは「インターフェースの本当の問題は、それがインターフェースであることだ "The real problem with the interface is that it is an interface."」と言いました。インタラクションデザインの第一人者でVisual Basicの生みの親、さらにペルソナの生みの親であるアラン・クーパーが創業した企業Cooperは2012年に「最良のインターフェースはノーインターフェース "The best interface is no interface"」と宣言しました。多くの企業はそれ以来「ノーインターフェース」の宝島を探しています。

 タッチインターフェースをiPhoneで「発見」したAppleがどれだけの影響力を持ったか。それ以前のGUIをWindows 95で「発見」したMicrosoftも同様です。「発見」とは最初に見つけたという意味ではありません。普及のための最適解を見つけたという意味です。

 2017年はボイスインターフェースの年でした。LINE Wave、Google Homeに続いてAmazon Echoが真打ち登場として年末に発売されました。多くの企業がボイスインターフェースに投資しています。新しいハードウェアが生まれ、ソフトウェアの開発をしています。ボイスインターフェースとAIの組み合わせは大きな変革をもたらすと考えられています。

 ちなみに2016年まではどんなインターフェースが注目されていたか覚えていますか?はい、チャットですね。AIとチャットの組み合わせでサービスが変革される言われていました。もちろん、チャットはそれが収まるニッチを見つけて、ある程度は定着しています。ただ、当初考えられていたような大きな変革をもたらしませんでした。チャットボットに新規の投資をしている会社はあまりないでしょう。

 その前は?メガネですね。Google Glassに多くの人が期待と同時に不安を抱きました。残念ながら最初の試みは失敗に終わりました。その後につづくSnapchatのSpectaclesも先行だったGoogle Glassからの学びがあったにも関わらず、やはり失敗してしまいました。

 ウェアラブルも期待が大きかったインターフェースの一つです。こちらもフィットネスなどニッチは見つけましたが、期待されたほど大きな変革を起こすには至りませんでした。ボク自身もウェアラブルのプロジェクトに関わったことがありますが、それ自体にインセンティブがないと、それを身につける習慣を生み出すのは非常に困難です。ウェアラブルではないですが、会社の社員証はそれがないとオフィスには入れないから身につけます。それくらい強いインセンティブが必要となります。おそらくユーザーにこれ以上何かを持たせるのは無理筋です。

ボイスインターフェースはノーインターフェースの真打ちか?

 それではボイスインターフェースは成功するでしょうか?これはまだわかりませんが、2018年の内にはある程度の見通しはついているのではないでしょうか。

 インタラクションデザインの古典にドン・ノーマンの"Design of Everyday Things"(日本語版『誰のためのデザイン?』)があります。プロダクトがユーザーと関わる時にどのような要素が必要なのかを分類整理しています。ここで紹介されている要素の中で最も重要なのはアフォーダンス。例えばドア。ドアには「引く」「押す」「スライド」の三つの開けかたがあります。それが一目でなんの知識もなくわかることがアフォーダンスです。アフォーダンスがなくてどうやって開けたらいいかわからないドアを「ノーマンドア」といい、悪いデザインの代表例としてよく使われます。


It's not you. Bad doors are everywhere.

 これはスマホアプリのデザインでも応用されています。スクリーンは物理的に動かないのでアフォーダンスはありませんが、シグニファイヤ(ドアに例えると「引く/押す」のサイン)という「ここが仮想アフォーダンスですよ」と知らせる要素が使われています。例えばどこをタッチしたりスワイプすれば何ができるのかを直感的にわかるようにしています。そしてもう一つのフィードバックという要素でそれが確認できるようになっています。例えば音とか振動です。

 ボイスインターフェースはスマホ同様にアフォーダンスがありません。目に見えるものがないからです。シグニファイヤにも期待ができません。これまでのインタラクションデザインは視覚があることを前提に方法論を作り上げてきました。もちろん、アクセシビリティーの分野でボイスも活用されてきましたが、その蓄積はまだ多くはありません。ボイスインターフェースが本当に普及するためにはボイスインターフェースのデザイン言語を作り上げる必要があります。

 ボク自身もスマートスピーカーを持っていますが、正直なところ「スマホで十分だし、スマホの方が使いやすい」が現時点での正直な感想です。アフォーダンスとシグニファイヤがないため、直感的に何をしていいのかわからない。フィードバックもあまり明確ではない。デザイン言語が確立されていない。

 タッチスクリーンの商業ベースでの先駆けは1990年のGeneral Magicとそれに続く1992年のPalm PilotApple Newtonです。個人的な感想ですが今のボイスインターフェースはその当時のタッチインターフェースくらいの成熟度ではないでしょうか。未来はあると思いますが、せめて初代iPhone程度には成熟する必要があるでしょう。

www.nhk.or.jp

どうしてマジックリープに多くの人が失望したか


Magic Leap | Demos: Everyday Magic with Mixed Reality

 Magic Leapはミックスド・リアリティー(MR)/アーギュメンテッド・リアリティー(AR)の会社であるという以上はたまに公開されるデモビデオくらいしかその正体はわかりませんでした。それにも関わらずMagic Leapには多くの人が期待をして19億ドル以上の資金を集めました。特に体育館に人をたくさん集めてクジラの映像を空間に映し出したビデオには驚きました。体育館の人たちはMR/ARの技術にありがちなメガネを誰もつけていなかったからです(このビデオはMagic LeapのYouTubeチャンネルにはなぜかないのですが)。

www.gizmodo.jp

 Google GlassとSpectaclesの失敗の後、メガネのユーザーインターフェースに対する期待はあまり大きくありません。それでも多くのデザイン言語が視覚に依存している現在、新しい視覚インターフェースには当然注目が集まります。多くの人がMagic Leapに期待したのはまさにこの点です。

 なぜマジックリープの年末の発表に多くの人が失望したかといえば、結局のところやっぱりメガネだったからです(たしかにマイクロソフトのHoloLensよりは小さいけど...メガネはもういいよ)。

japanese.engadget.com

ノーインターフェースとしてIoTが注目されている理由

「ノーインターフェース」の究極の状態はユーザーが何も意識せずとも自動的にすべての作業が完了することです。センサー技術が期待されている理由の一つはこれです。

 一番単純で昔からある例は自動ドアです。人が近づいたことをセンサーが察知してドアが開きます。自動ドアは「アレクサ、ドアを開けて」など言う必要ありません。自動ドアはノーインターフェースの最も身近な例です。人間からアクションを起こさない(インターフェースが必要ない)ので、アフォーダンスも必要ありません。エレベーターの入り口も似てますが、あれもビル内の人流をセンサーで把握して最適な位置にいればいいのにって思いますよね。エレベーターには残念ながらボタンというインターフェースがあります。

 例えばテレビにセンサーがついていて、ジェスチャーでオン/オフ、チャンネル切り替えができたら?LGのスマートリモコンでも似たことはできますが、リモコンすら必要なかったら?リモコンという複雑なインターフェースを取り除いてしまうのです。任天堂WiiからMicrosoft Kinectへの発想転換と同じです。このほうが「OK,グーグル。テレビをつけて」よりフリクションは少ないはずです。

www.youtube.com

 クルマも人間がハンドルを握らず、アクセルも踏まず、自動に安全に早く目的地についたほうがいいです。クルマや道路にはそのためのセンサーがたくさんついています。クルマは動くので動的なIOTです。クルマのような動的なIOTと家電やビル施設などの静的なIOTとの違いはなんでしょうか?

 クルマのインターフェースはクルマの中にいる人だけでなく、外にいる人にも必要です。たとえばウインカーやブレーキランプがそうです。右に曲がります、左に曲がります、止まりますというシグナルをクルマの外とコミュニケーションする必要があります。以前に「子供にやさしいクルマの自動運転をデザインする」という記事でも紹介しましたが自動運転のクルマが横断歩道で止まっているのに、歩行者が渡るのを躊躇している時(フリーズロボットの問題)、クルマが歩行者に渡ってくださいと音や車外のディスプレイでシグナルを出す必要があります。自動運転のクルマでは車内の人は運転をしていないので手でシグナルを出すことができないからです。ノーインターフェースはユーザーだけでなく、周りの環境全てにとってのインターフェースなのです。

 カタパルトスープレックスはイノベーションを実現する組織づくりのお手伝いをする「カタパルトスープレックスラボ」というサービスを準備しています。現在、ベータユーザー企業を募集中です。イノベーションの知識だけでなく、実際にイノベーションの実行をしたい企業はベータサービスのご利用をご検討ください。