以下の内容はhttps://redhologerbera.hatenablog.com/entry/2024/10/11/235329より取得しました。


Apple VisionProでObjectTrackingのサンプルを試す

本日はVisionPro枠です。

前回CreateMLでObjectTrackingを行いました。

〇環境

・Windows11PC

Mac mini (M2)

Apple VisionPro

〇ObjectTrackingとは?

 ObjectTrackingはARのオブジェクトを配置する基準点となる座標=アンカーを現実の物体を認識して設定する手法を指します。

 つまり現実のキーボードなどの小物から石造のようなものまで、ObjectTrackingを使用することで、キーボードのみ常に没入型空間でオーバーレイされる情報の領域対象外に設定することや、石造のある特定の部位にデジタルのエフェクトなどのオブジェクトを配置することができます。

〇ObjectTrackingのサンプル

ObjectTrackingのApple公式サンプルは以下から入手することができます。

https://developer.apple.com/documentation/visionOS/exploring_object_tracking_with_arkit

サンプルを入手するにはDownloadを選択し、XCodeで開きます。

実際のコードはObjectTrackingフォルダ内のSwiftコードになります。

特にObjectAnchorVisualizationでアンカーの位置の定義や座標軸の定義を行っています。

CreateMLで学習させたモデルはReference Objectsフォルダ内に配置します。

Signning & Capabilitiesの設定を行ないVisionProにむけビルドします。

実機では2Dのアプリケーションとして初期に起動し、Start Tracking Object(s)を選択することでイマーシブな体験に移行します。

学習させた物体を検知すると座標とワイヤフレームが表示されます。

手などで一時的に遮ったとしても、再度の認識はすぐに行われます。

本日は以上です。

CreateMLを用いたオブジェクトの学習が時間がかかりますが、SpatialComputingとしてMixedな体験を行う上で大切な要素だと感じます。




以上の内容はhttps://redhologerbera.hatenablog.com/entry/2024/10/11/235329より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14