見出し画像

#02 エンジニア目線の力を入れたところ

おはようございます、株式会社アスタスタでソフトウェアエンジニアをしているK.田中です。
コエカタの開発者です。

開発初期の頃の話をしたいと思います。

「音声を認識」して「文字を立体化」して「AR空間に配置」すれば良いなら既にある技術の組み合わせでなんとか なるだろうなぁと思っていました。(どれもやったことないけれど..iOSアプリも作ったことない..)

Unityを使うとやりたい事はとりあえず全て出来そうだとフワッとした感じで作りはじめました。
「音声を認識」して「文字を立体化」して「AR空間に配置」。このやりたい事はサクサクと実装できました。

大変だったのは「やりたい事」と「やりたい事」をつなぐ事でした、 「文字を立体化」して「AR空間に配置」する。どのようにつなぐ?飛ばすの?
どう飛ばすの?真っ直ぐ飛ばすの? という「飛ばす」だけでも疑問が多く出てきました。🤔
その時のメモがiPadに残っていましたので載せてみます。(これを書いてた時は自分なりに整理されていて理解できていたはず。) 

どうなったかというと文字を発射!ボタンが押されるとカメラ位置(iPhoneの位置)で立体文字を生成してカメラからレイを飛ばして AR空間に認識した板があるかどうか確認し着地地点を決めます、着地地点には大きめの板(これは文字をキャッチする為のもの)を生成します。 生成した立体文字はカメラの中心位置に移動し、最終着地地点に向かって移動させます。文字が飛んでいく瞬間にカメラの動きを揺らぎとして文字が飛ぶ力に加えてます。 (文字が板に設置した瞬間にiPhoneがプルプルっとAR空間からのフィードバック機能はお気に入りです)

文字を「飛ばす」だけでも色々詰まっています!ので「○○が良かった」などのレビューを見ると、気がついてもらえた..と、嬉しくなります。

この記事が気に入ったらサポートをしてみませんか?