見出し画像

入出力のインタフェース[2020.6.16]

7. 入出力のインタフェース(1):タッチUI
8. 入出力のインタフェース(2):ジェスチャーUI,音声UI,ロボットUI ほか

事例編の最後の回は、様々なユーザー・インタフェースをみていきます。すでに製品として普及しているものもあれば、試作や研究段階のものもあります。GUIの画面とマウス、キーボードからiPhoneのNUI/タッチUIを経て、VUI(音声UI)やVR、IoTのようなセンサーが主体となるものまで、周りを眺めてみると暮らしの中にはすでに様々なインタフェースがあることに気付きます。
ここでそのすべてを紹介できるわけもなく、また、新しいテクノロジーによるこれまでにないUIも次々と生まれています。紹介する事例について、このUIはこれでいいのだろうか?自分ならどうデザインするだろう?と考えながら見てください。
便宜的にいくつかのカテゴリーに分類して紹介しますが、厳密に分けられるわけではありません。いくつかのカテゴリーにまたがるUIもありますので、そのつもりでごらんください。

7. 入出力のインタフェース(1):タッチUI

スマートフォンやタブレットPCの普及で、すっかり身近なものになったタッチUIですが、マルチタッチ以外の技術も使って進化しています。

共同作業で使うことを想定した大画面のSurface Hub 2S(Microsoft)です。画面が大きくなり複数人数が使うという前提になると、小画面で個人利用のスマホとは異なるUIデザインが必要になります。

こちらは、Jamboard(Google)の教育利用の事例です。

逆に小さい画面のタッチUIとしてはApple Watchがあります。身に付けるのでウェアラブル端末ともいわれます。初めのころの機種は画面も小さくタッチしてできることも限られていましたが、次第に画面も大きくなり、センサーで様々な情報も取得できるようになってきています。

次は、単に画面をタッチするだけでなく、長押しでサブメニューなどを表示する「触覚タッチ」(iPhone)です。

MacBookの感圧トラックパッドの「押すとコツコツと返ってくる反応」など、触覚のフィードバックを返す「ハプティック(Haptic)」のデザインも注目されています。

[トピック]宇宙船コクピットのUI

タッチUIといえば、最近ニュースになった民間企業初の有人宇宙飛行、SpaceXCrew Dragon(クルードラゴン)、コクピット(操縦席)の大きな画面が目を引きました。具体的にどんな操作をするのか気になります。(自動操縦による航行が多いようですが)

アポロ、スペースシャトル、クルードラゴンのコックピットの進化を比較しつつ、スクリーンのUIについて書かれた記事です。インタフェースの差が興味深いです。(写真あり)
SpaceX: Simple, beautiful interfaces are the future

8. 入出力のインタフェース(2):ジェスチャーUI,音声UI,ロボットUI ほか

次に、画面以外のUIを見ていきましょう。様々なものがあります。まずは、みなさんになじみのあるゲーム関連から。

ジェスチャーUI

かつて、家庭用ゲーム機Xbox360(Microsoft)の周辺機器として販売された Kinect(2017年生産終了)を使うと、ゲームをジェスチャーでプレイすることができました。登場した当時、家庭でこの技術が使えたのは画期的でした。(情報デザイン学科では、Kinectを利用した課題作品や卒業制作もこれまでにたくさんありましたね。)

LGのスマートフォン G8 ThinQ にはAir Motionというフィンガージェスチャーによる操作が搭載されています。(ビデオ1:00くらいから操作デモ)

また、ジェスチャーを使って操作するリング型のデバイス(スマートリング)は、これまでにいくつも登場していますが、普及せずに消えていく製品もまた多い分野です。Appleの特許「ウェアラブル電子リングコンピューティングデバイスの機器、メソッドおよびユーザーインターフェース」が記事になっています。MacやiPad、iPhoneの周辺機器として製品化されるでしょうか?

SF映画ではたくさんのジェスチャーUIが登場しますが、製品に搭載するとなると、誰が使っても安定して反応するか、ユーザーがいくつものジェスチャーを覚えられるのかなど様々な問題があり、製品化や普及にはいくつものハードルがあります。

身体を使うUI

次は、身体の動きを認識するインタフェースの例を紹介します。NINTENDO switch の「リングフィットアドベンチャー」では、switch付属のコントローラー Joy-Con(ジョイコン)を「リングコン」や「レッグバンド」に装着して使うことで身体を使ってゲームをプレイできます

音声UI(VUI)

「VUI (Voice User Interface:ボイスユーザーインタフェース)」について紹介します(ちょうどいま、情報デザインコース3年のゼミの課題でVUIのデザインに取り組んでいます)。有名なのはスマートスピーカーで、AmazonやGoogle、LINEなどが製品を販売しています。最近は画面が付いた端末になり、スマートディスプレイと呼ばれています。音声対話のインタフェースによって、機器が様々なタスクをこなしてくれます。

Google Nest(旧名称 Google Home)、最近は画面付きの機種も出ました。

Amazon echoでは、「アレクサ!」と呼びかけます(呼びかける言葉を「ウェイクワード」といいます)。

ロボットUI

ロボットUIという呼び方がふさわしいかわかりませんが、ロボットが人間となんらかのインタラクション(やり取り)をして、目的を達成するためのインタフェースになるという意味合いです。

おなじみのpepper(ソフトバンク)です。情報デザイン学科にもいるので(学科の備品)、イベントなどで見かけたことがあるひともいるかもしれません。

家庭用(pepper for Home)のほかにビジネス用(pepper for Biz)もあります。店頭などでみかけるのはビジネス用で、不特定多数のお客さんを相手に接客や案内をするため、音声対話や画面を含めたUIデザインが重要になります。
はま寿司の導入事例はロボット導入の成功例として、メディアにもよく取り上げられています。(動画あり)

日立製作所のEMIEW4は、自律走行し、4カ国語で対話するコミュニケーションロボットです。受付・案内・巡回監視などのサービスを提供し、ビル内の業務を支援します。(動画あり)
(ページ読み込みにやや時間がかかります)

ロボホン(シャープ)は、小型のしゃべるロボットです。通信機能がありダンスもします。ロボホンにも企業向け(法人向けプラン)があり、案内業務などに利用されています。企業が利用する場合は目的が明確なので、たとえばお客様をきちんと案内するためには、どのように受け答えをするかという対話のデザインが重要になります。

AIBO(ソニー)やLAVOT(GROOVE X)のようなロボットも、生活の中で人と非言語のコミュニケーションを取っています。言語による会話はしませんが、AIBOはいくつかの言葉を理解し、LAVOTはセンサーで環境の情報を受け取って反応するそうです。

分身ロボットのORIHIME(オリィ研究所)です。子育て、単身赴任、入院などで距離や身体的問題によって移動できないひとのもう一つの身体としてコミュニケーションを担います。少しだけ使ったことがありますが、操作に使うiPadアプリがよくできていて、初めてでも直感的に使うことができました。

VR(Virtual Reality), MR(Mixed Reality)

いまの学生のみなさんにはあまり説明が要らないと思いますが「VR」をみてみましょう。かつて超高額だったシステムが一般にも買える価格になり、PC無しでワイヤレスのゴーグル単体で動作するようになりました。下の動画はOculus Quest(facebook)です。
VRゴーグルがスマホのように「みんなが使う」デバイスになるかどうかまだわかりませんが、UIについては、使ってみると検討すべきことがたくさんあると感じます(コントローラのボタンを押して出るビームのようなもので文字入力するのは、かなり面倒ですね)。まだインタフェースとして進化の余地が大きいデバイスです。

MRとしては、MicrosoftのHoloLens(ホロレンズ)を紹介しておきます(ビデオあり)。VRのようにバーチャル空間に没入するのではなく、情報や画像を現実と重ねて表示するのが特徴です。

その他のUI

紹介していくと際限がありませんが、そのほかのUIも少しみてみましょう。

GoogleとLevi's(リーバイス)によるスマートジャケットJacquardです。開発した特殊な繊維とタグによって、ジャケットに触れるだけでスマホをコントロールできるようになります。

音をからだで感じるインタフェースontena(富士通)です。はこだて未来大学の大学院生の研究からスタートしたプロジェクトです。

Synesthesia Suit(シナスタジア・スーツ)
VRビデオゲーム「Rez Infinite」を体感するための共感覚スーツ。全身を包むスーツに26個の振動素子やLEDを配置しています。(ゲームプレイ中の映像の途中と最後にスーツの全身が映ります)

Gatebox(ゲートボックス):
キャラクター召喚装置。ホログラムで3D表示されるキャラクターと音声やスマホのチャットで対話しつついっしょに暮らします。

Amazon Go(無人店舗)の購入体験(UI,UX)のビデオです。レジで会計をしない店舗のインタフェースです。

顔認証決済端末:
アリババ(アントファイナンシャル)の「蜻蛉(チン・ティン)」、テンセントの「青蛙(チンワー)」など。顔認証で会計が終わります。

これ以外にも、皮膚をインタフェースにしたり、皮下にセンサーを入れたり、脳にマシンを埋め込んだりというような研究もあります。身体とインタフェースの境界がなくなり一体化するような未来はあるのでしょうか?

まとめ

たくさんのインタフェースをみてきました(まだまだいろいろあります)。技術はどんどん変わっていくので、これらをただ追いかけ続ける必要はありません。
これまでも何度も問いかけていますが、だいじなことは「自分がデザインする側になるかもしれない」と考える視点です。また、これらのテクノロジーやインタフェースが、ほんとうに人を幸せにし社会を豊かにするだろうか?と考えることも、デザイナー/クリエイターとして大切なことです。

●考えてみましょう

好むと好まざるとに関わらず、履修しているみなさんの中には、将来仕事でこれらのUIデザインを任される人が確実にいると想像します(特に情報デザインコースのみなさんは可能性が高めです)。卒業制作でVRを使う人も出てきました。
このUIはこれでいいの?私ならこうデザインするけど、と考えながら、それぞれのユーザー・インタフェースを眺めてみてください。あなたなら、どのように「デザイン」しますか?