もうすぐリリースという事で、AR Finderというアプリで何ができるか?何が便利になるか?今後どう進むか?という点について整理してみたい。
まず目的としては3つ。
- CGのキャラクターや、車、建築物などを現実世界に配置して、その見え方をみる
- 現実世界の情報を把握して、それを記録したり、利用しやすくする
- AR的なiPhoneのユーザーインターフェースをVR空間でも活用
CGオブジェクトを配置
個別に考察していく。まず1番目のCGオブジェクトを配置して見るという目的だが、これは全体の約50%を占める。架空のCGキャラクター、実際にある車のモデリングデータ、巨大な建築物など、CGのデータがあれば現実空間に配置して、その見え方をみたり、写真やムービーを記録してイメージを伝える事もできる。背景撮影時に、リファレンスとして撮っておくという面でも便利になるだろう。この時にカメラの動きのデータを記録したり、太陽の位置を記録したりできるので、ポスプロ時のマッチングの参考資料にもなる。
現実情報の活用
次に2番目。これが書きたくて書いているのだが、「AR」は拡張現実。この時、現実を拡張するには、まず現実を知る必要がある。現実を認識する。このARのRを活用する。よくあるメジャーアプリなどもこういう面での活用の一つ。ではAR Finderでは何をどう活用するか?
1つは、カメラの高さを記録する点。地面からの高さを記録できる、認識していれば。この地面の認識というのが今現在のARKitの最大のポイントであり難所でもあるのだが、、、
認識した状態なら、カメラのモーションデータの記録もかなり正確だと思われる。この辺は今後MacでVRで再現するという方向で開発していこう。
ロケ時の太陽の位置の記録。これも大きい。iPhoneの方位の把握次第なのだが、カメラに対して太陽光がどういう角度で入ってきているかわかる。
あとはまだ搭載していない機能だが、フォーカスのアシスト機能や、大型のカメラにiPhoneを載せてその関係性を設定してあげれば、そのメインのカメラの位置情報を記録するという使い方もできるだろう。撮影スタジオでのアングルチェックの時など重宝しそうな機能だ。
この現実情報の活用という目的はだいたい40%
VR的な使用方法?
最後の3つ目は、AR Finderを使用していて気づいたのだが、VR空間内でも現実世界と同じように動いてみる時に、それを記録できれば意外と使えるのでは無いか?例えばVコン作成時などだが、、、ジュースの缶やペットボトルなどの商品系、CGで出来た空間内でのPOV的な撮り方など、白バックや黒バックでも面白いと思う。これも後々機能として入れてみたい。この目的は10%。
今後について
ARについてはiPhoneに限らず現在進行系であり、まだまだ発展途上だ。今後十年で状況は目まぐるしく変わるだろう。iOSのARKitの成長と共にAR Finderも進んでいく。目標まで到達できていなくても、その時どきで、オンタイムで使える事が重要だと考え、まだまだやりたい事は山程あるがまずはver1.0をリリースする予定。