本日はVisionPro枠です。
前回CreateMLでObjectTrackingを行いました。
〇環境
・Windows11PC
・Mac mini (M2)
・Apple VisionPro
〇ObjectTrackingとは?
ObjectTrackingはARのオブジェクトを配置する基準点となる座標=アンカーを現実の物体を認識して設定する手法を指します。
つまり現実のキーボードなどの小物から石造のようなものまで、ObjectTrackingを使用することで、キーボードのみ常に没入型空間でオーバーレイされる情報の領域対象外に設定することや、石造のある特定の部位にデジタルのエフェクトなどのオブジェクトを配置することができます。
〇ObjectTrackingのサンプル
ObjectTrackingのApple公式サンプルは以下から入手することができます。
https://developer.apple.com/documentation/visionOS/exploring_object_tracking_with_arkit

サンプルを入手するにはDownloadを選択し、XCodeで開きます。

実際のコードはObjectTrackingフォルダ内のSwiftコードになります。

特にObjectAnchorVisualizationでアンカーの位置の定義や座標軸の定義を行っています。
CreateMLで学習させたモデルはReference Objectsフォルダ内に配置します。

Signning & Capabilitiesの設定を行ないVisionProにむけビルドします。

実機では2Dのアプリケーションとして初期に起動し、Start Tracking Object(s)を選択することでイマーシブな体験に移行します。

学習させた物体を検知すると座標とワイヤフレームが表示されます。

手などで一時的に遮ったとしても、再度の認識はすぐに行われます。

本日は以上です。
CreateMLを用いたオブジェクトの学習が時間がかかりますが、SpatialComputingとしてMixedな体験を行う上で大切な要素だと感じます。