デジカメUI入門

デジカメUI入門:10 未来のデジカメ

みなさんは「未来のデジカメ」と聞くとどんな”カタチ”を想像するでしょうか?

透明の板でできたスマホカメラ
MR(VR)メガネ
レンズはドローンで空を飛ぶ

広い意味でカメラ機能と考えれば、あらゆるものにカメラが搭載され、私たちの活動をデータ化し、さまざまなサービスを提供するシステムの一部になっていると予測できます。

ここではデジカメのユーザーインターフェイスを中心に、人間が何かを表現したり、自己帰属した「作品」を作る行為としての撮影について話をしてきましたので、データ取得のための撮影や、人間の指示の無いロボットの撮影(ライフログ)とは少し切り離して予想をしてみたいと思います。


UIの外部化/多様化

スマホ連携が全てのカメラの基本機能になり、さらに多くのコントロールがスマホからできるようになります。

上位機種ではAPI(SDK)の公開が、現在のテザー撮影と同じくらい普通のことになると思います。
画像認識によって、撮影に変化を与える「プログラマブル・フォト」が登場し、再生(鑑賞)でも面白いインタラクションをたのしめるようになるかもしれません。

具体的な例をあげると、ファッション業界(モデル撮影はその中に含まれる)の撮影では、モデルが全身に身に付けたアイテムから化粧品まで全てが、意図通りの表現になるようにショットが厳選されると同時に、ユーザーはさまざまな製品の表情を確認できるようになります。
洋服の素材感(やわらかさ)を感じさせる動きが抽出されたり、口紅の色番号を入力することで最適な印象表現にしてくれたりするイメージです。

それが一部のプロに使われるようになり、その後Instagramのようなアプリの中で誰でも使えるようになります。

またタフカメラのように子供が使うことを想定している機種は、Scratch(子供向けプログラム言語)でコントロールできることが当たり前になり、ゲームの入力として、特定の写真を撮ったり、最高得点が出たときに記念撮影をしてくれるような使われ方をすることになります。(子供の発想はもっと面白いはず)


ロボットカメラ/カメラロボット

カメラと撮影者の分離は、同時にカメラの自律移動の進化でもあります。
aiboやドローンのように自由に移動しながら撮影できるようになった場合のユーザーからの撮影指示の方法は現在のUIとはだいぶ違ったものになります。

道具の操作ではなく、知性ある機器への「依頼」という曖昧な指示によってさまざまなことが実行されるようになります。
その場合に写真は誰が撮ったのかという問題がでてきますが、ユーザーの意思が不在になる訳ではありません。

被写体中心の場合は、被写体のどんなアングルや行動を記録したいかを、シミュレーションによって指示します。

一般に流通しているテンプレートを編集しても良いですし、自分が撮影した画像を学習させることも可能です。

空間(風景)が中心の場合には、3D化したGoogle Mapを使ってじっくりとシミュレーションすることもできますし、現場に行って実際の風景を感じながら自分の足で動き回るようにドローンに指示を与えることもできます。

いづれでも、いままで撮影現場で撮影者がおこなってきた、行動領域を大きく拡張することになるため、必要に応じて事前指示(シミュレーション)を活用することになります。

また全部撮りしておき、その中からベストショットを選択するというUIも撮影の一部になります。(現在のフォーカスセレクトに近い考え方)


クラウドとの接続

現在は「写真データ」をクラウドに上げて自動分類やタグ付けなどのサービスを受けていますが、

近い未来には「設定データ」と「ユーザー情報」もクラウドに接続され、写真+設定+ユーザーのコンテキスト情報が利用され、UIの個別最適化がおこなわれるようになります。

設定データは現在のカスタム設定の保存としてすぐにでも実現していきますが、ユーザー情報と全体のコンテキストから総合的な情報として扱うには少し時間がかかるかもしれません。

写真には「撮影者は写らない」という問題があり、撮影者の情報はかなり少ないのが現状です。
スマホのインカメラのようなものがアイセンサーの置き換えとして実装され、そこからユーザー情報が収集されるようになります。(FaceIDのカメラ版です)

また撮影時だけでなく、撮影後のSNSへのシェアでも、テキストや音声を付けることでコンテキスト情報は豊かになっていき、ライフログとして蓄積されていきます。

現在はバラバラの情報をどこが一元化して、そこからコンテキストを抽出しユーザーにサービスを届けることができるかの競争が始まっているのです。
(Instagram、Facebookがかなり有利な位置にいますが、撮影に特化すればカメラメーカーにもまだチャンスがあるかもしれません)


コミュニティとの一体化

これまでも写真は友達や家族といったコミュニティと密接に関係して撮影されてきました。

最近では、SNS(広い意味の友達)でコミュニティも広がってきており、一緒に写真に写るのではなく、写真を見せることを通してコミュニケーションをとっている関係が大きく増えてきました。(これまでの友人・家族ともSNSでつながっている状況です)

写真を撮る行為も、大きなコミュニティとの関係の中で、動機が生まれ知識を得、それをまたコミュニティにシェアしていくというサイクルを回るようになり、カメラのUIもそのサイクルを意識したものになっていきます。

その一つの例として、「シューティング実況」では、撮影現場にいるのは一人だが、ネットを通してみんなで撮影を楽しむことができたり、

運動会で複数カメラがお互いに空間・被写体情報をシェアして撮影する「チーム撮影」ができたりします。

もちろん一人でじっくり撮影したいという人には、「(撮影世界に)いってきまーす」「おかえりなさい」で楽しむこともできます。


画像認識・AI

ここまで書いてきた新しいUIの基盤となるのが、画像認識やAIの進化です。
既にディープラーニングを使ってAF性能をあげるなどの事例が出始めており、今後も技術の進歩と活用は進んでいきます。

問題は、「高性能」→「賢い」→「カメラ任せ」のユーザーのメンタルの変化がどの段階で起こるかで、UIはその変化を上手にコントロールしていく必要があります

カメラという製品にユーザーが求めているものが、どのような賢さや自立性なのかを時代とともに常に確認をしながら、ユーザーに何を残し、何を体験させるのかを考えるのがUIデザイナーの仕事です


おわりに

写真とは「真実を写したもの」と言われていますが、映像技術が進化した現在では、映像が全て真実とは言えなくなっています。
しかし例えフェイクニュースであっても、何かの「意図」をもって作られている以上、そこにはより強い意味の「真実」が表現されていると考えることもできます。

未来のカメラを考えることは「未来の写真を考える」ことと同じです。
それはきっと人間が「こうなって欲しい」と想像するものが映像になる世界です。

人間の意図を反映するためには、何らかの方法でカメラに人間の考えや思いを伝える必要があります。それがカメラUIです。

将来はBI(脳と機器が直接やりとりするインターフェイス)も使われるようになると思いますが、その前は人間が積極的にカメラを操作する必要があります。

カメラを操作することを楽しい、UXの一部として意味のあるものにしていけば、カメラという道具で写真を撮ることがもっと濃密なものにできます。

手を抜こうと思えばいくらでも楽(らく)ができる時代に、手間をかけること濃密な関係を作ることで楽しさを倍増するUX/UIをデザインしたいのです。


ここまで読んでいただきありがとうございました。

まだ前の章で読んでいないものがあれば是非目を通してもらえると嬉しいです。


番外編としてこちらもどうぞう





この記事が気に入ったらサポートをしてみませんか?