見出し画像

人間化するスマホ

今さらスマホ?

先日Google社からスマートフォン「Pixel3」が発売された。話題になったのでご存知の方も多いだろう。

しかし、なぜこのタイミングでスマホを発売するのか。iphoneの売り上げ不振は度々耳にするし、また現在持っている機種に満足して新機種に買い替える必要を感じてない人は多そうである。

このタイミングで発売するにはそれなりの理由があるはずだが何だろうか?それはPixel3のカメラに秘密があった。

AIとカメラ

最近はデュアルレンズのスマホのカメラが主流であるが、こちらのPixel3のアウトカメラはシングルレンズとなっている。デュアルレンズとは「広角」&「望遠」や「モノクロ」&「カラー」の2種類のレンズを搭載し、お互いの短所を補うことで画質を良くするための技術である。なので高画質スマホを謳うならばシングルよりもデュアルレンズだ。しかしGoogleはそうしなかった。何故だろうか。その理由はコンピュテーショナルフォトグラフィーといわれる機械学習を用いた技術にある。

これは撮った写真をコンピューターで解析し、加工・補正することで綺麗な写真を映すものだ。実際どんな写真が撮れるのかは以下の記事に詳しくまとまっている。

例えば「夜景モード」という機能があるが、これは文字通り暗所を撮影するためのものだ。これはまず一度に大量の写真を撮り、多くのフレームから機械学習を用いて対象を合成。そして被写体が人なのか物なのかを判断して適切なホワイトバランスに仕上げるというもの。通常一眼レフで暗所を撮る場合は長時間露光をしなければならないが、Pixel3ならボタン一つの一瞬で済む。

他にも高解像のデジタルズーム機能や、被写体と背景をAIで判別し適度なボケをを加えるポートレートモードなどGoogleのAI研究開発がこれでもかと発揮されている。

下の記事でもっと詳しく解説しているので興味のある方は参考にしてほしいが、要はカメラとはレンズを通した光を保存するものであったのに対して、Pixel3はコンピューターによる解釈を見せているわけだ。これはハードではなくソフトで問題を解決するGoogleらしい試みである。

目を補う脳

というのが世間一般で言われてることだが、ここではもう少し踏み込んでみたい。

まずはこちらの画像を見て頂きたい。そして左目を閉じて右目で十字を見ながら近づけたり離したりしてほしい。そうすると黒丸が見えなくなる時がないだろうか?

画像1

この現象は目の「盲点」によるものだ。視覚とは目の裏にある光受容体で捉えた光を電気信号に置き換えて脳に送り処理されたものだが、目には視神経が束になった視神経乳頭と呼ばれる部位があるが、そこには光受容体が存在しない。つまりここに当たった光は認知できないため盲点が存在することになる。

画像2

(もっとわかりやすい説明はこちらのサイトに)

しかし、我々が日常生活で視覚の一部が見えなくなることはない。この理由は脳にある。脳は盲点となっている箇所の周辺から見えてない部分を予想して視界を補正するのだ。なので先の画像は黒丸が消えたのではなく、周辺の白い背景から判断して盲点に入った箇所を白だと脳が判断したのだ。

これはPixel3のカメラと同じではないかと私は思った。人間は光を電気信号に変換し脳で認識して補正するが、Pixel3は光をデジタルデータに置き換えてAIで補正している。Googleは極めて人間に近いやり方でスマートフォンをアップデートしたのである。

スマホの先

Pixel3によってスマホは人間に近くなった。しかし、これはスマホだけで終わるのだろうか。その先があるのではないだろうか。

私はこの技術によってAR・MRが発展すると思う。現状のARはポケモンGOのように背景に取ってつけたようにポケモンを合成するだけだ。しかし機械が人間のように世界を認識するならば私達が見ている風景とデジタルな映像を違和感なく並存させられる。これは高度に発達したテクノロジーは自然と区別できないといった落合陽一氏のデジタルネイチャーのような主張にも符合するように思える。

最近、人工知能は目を持ったという話をよく聞く。しかし正確には目ではなく視覚情報を処理する脳の視覚野を持ったと言える。そこではレンズに写ったものを解釈して絶えず世界を生成する。

かつてアイルランドの哲学者バークリーは「存在するとは知覚されることである」と言った。機械が人間のように知覚することで、人間にとって「存在しなかった」ものが姿を現わす。その時の「世界」とは何だろうか。そんなことを考えるながら過ごすと楽しいかもしれない。

(...AIも人の目についても全く専門ではないので間違ってたらご指摘下さい💦)

この記事が気に入ったらサポートをしてみませんか?