見出し画像

【3分で読むARの教科書】第8章 -インタラクション-

 ARの教科書は分厚い&言葉が堅くて分かりにくいのでとっつきにくい!
ので超カンタンに自分なりにまとめてみました。

僕が学んだことのアウトプット的なものになります。

YoutubeのxR Tech Tokyoさんの<「ARの教科書」輪読会>にも触れたり。


引用部分は背景の色が変わります。

--------------------------------------------------------------


第8章 インタラクション


 この章以降では人間とコンピュータの相互作用(インタラクション)、つまり、入力と出力の間の一連のやり取りに着目する。


デザイナー的な視点が強め。

まずは”出力”について


オブジェクトをどこに配置すべきか?


 まず初めに
仮想物体をどこに配置すればユーザーにとって一番良いのか?
という疑問が浮かぶ。
どこにでも表示できるARならではのお悩み。

これに対し
ユーザー自身の頭や手、目の前の机や壁の上とかにオブジェクトを置けば、
ユーザーから見やすいし、なぜそこに配置してるのか納得しやすいよね!

分かりやすい例:
・水平(机)にコップのオブジェクト
・垂直(壁)に絵画のオブジェクト
・てのひらにオブジェクトを表示、てのひらを画面代わりに
・足の血管の位置を可視化して手術アシスト(医療)
・ARマーカー上にオブジェクト表示
などなど。

こういうところに表示させたら良さそうだ。
じゃあどうやって表示させるか? が次のお話。


ARを表示させる4つの方法


 ARを表示させる方法は4つある。

・固定式プロジェクタ群列

→人間の周り(部屋4面の壁)にプロジェクターで投影しよう作戦。
分かりやすい。
投影が物理的な面(部屋の壁)にしかできない・複数人に別々の情報を与えることはできないという弱点。
分かりやすい。

・移動可能プロジェクタ
→プロジェクターを頭に装着。
ヘッドライト付きヘルメットみたいな感じ。

・頭部装着型ディスプレイ
→HMD(ヘッドマウントディスプレイ)
VRゴーグル的な。
高価&高い視野角が求められる。

・携帯型ディスプレイ
→スマホ(Hand Held Display, HHD)
言わずもがな親しみやすい。
片手がふさがる・目線と画面の二つに注意が分散しがち。

以上4つでした。


ところでARの理想的な使い方とは?
その基本形にARブラウジングというのがある。


ARブラウジング


 目で見たもの上から追加情報を表示してくれる機能。
一番イメージしやすいであろう使い方。


問題点
「人間て常に何かを見てるくね?」

「見えるもの全部に表示されると情報多すぎじゃね?」

常に目線がゲーセン状態だとさすがに疲れるので、
・表示のON OFFを切り替えれる
・見たい情報だけ見せる

仕組みが大事になってくる。

その方法としてマジックレンズという手法がある。
いわゆる
「スマホカメラをかざした物だけに情報を追加しよう。スマホ見なきゃ表示OFFだし見たい情報だけ見れるよね」
という考え方。
スマホを虫メガネに置き換えてもイメージしやすいかも。

注目する場所を特定するのがマジックレンズ。
・スマホはカメラを向けるとAR発動
・HMDは画面真ん中のポインタを合わせるとAR発動

などなど。
以上、出力のお話でした。


”入力”のお話


受動的なARブラウジングを超えてその先を目指す場合は、適切な入力機器と手法を考慮する必要がある。幸い、ARは、VRや「自然なUI(natural user interface, NUI)」のために開発された様々な方法を利用できる。

ようは「どうやって入力をするか?」について考えていくコーナーです。
AR、VRはモーションキャプチャ≒トラッキング≒入力。
分かりやすいように入力の例をご紹介。

入力の方法

4つ紹介。

・デバイスをトラッキング
 →Wiiリモコン

・身体のトラッキング
 →身体全体
人体の身体全体をモーションキャプチャするときは骨格をトラッキングするとよい。

骨格構成は解剖学的制約によって大きく制限されるため、骨格のみをトラッキングすることは、人間の形状全体をトラッキングするよりも簡単である。


 →ハンドトラッキング
人間は主に手を使って生きるので手のトラッキングはとても重要。が、割とたいへん。

しかし、手と指はトータルでは20度以上の自由度を持ち、非常に精密できめ細かな操作が可能である。そのため、手全体を精度よくトラッキングするという問題は非常に注目されている研究分野である。 

・ジェスチャ
身体トラッキングの応用。
指のポーズとコマンド入力を一致させる技術。
(ピースしたらカメラ起動 みたいな)
トラッキング精度を出すのが難しい。

自遊空間でのジェスチャは物理的な支援が不足しているため、大抵の場合で精度が低下する。



・タッチ
ジェスチャに比べて確実に動作できる。
スマホがそう。 入力と出力が一体のタッチスクリーンである。
しかし画面なので2次元的な制約がある。


ARの特徴はVRとは違い、周囲の実環境を巻き込むところにある。
いかに現実とバーチャルを違和感なく結ぶか、
そして
デバイスが複数でもオブジェクトの位置を共有させることが必要だったりする。
(これの全世界版がARクラウドだったり)

と言う感じで第8章は履修完了です!
もちろん本のほうが圧倒的に深い内容なので、ぜひ購入することをオススメします!


この記事が参加している募集

読書感想文

最後まで読んでいただきありがとうございました!