蘋果將3D建模工具「Object Capture」帶到iOS、iPadOS平台,使用者可利用iPhone、iPad的光達系統,可迅速完成3D建模,促進Vision Pro虛擬視覺頭戴裝置的應用發展。
在此次WWDC 2023期間,蘋果將過去向開發者提供的「Object Capture」的API資源帶到iOS、iPadOS平台作業系統,將能藉由iPhone、iPad所搭載光達 (LiDAR)系統圍繞物體拍攝,即可在短短幾分鐘內完成被攝物體的3D建模。
實際上,先前已經有不少業者提出類似技術,包含直接透過機器學習方式將2D影像轉換為3D模型,或是透過多張照片建構3D模型資料。
而蘋果過去就推出的「Object Capture」建模工具,透過多張不同角度平面影像合成3D模型內容,但當時僅能在macOS作業系統環境執行,此次針對iPhone、iPad提供的新工具資源,則是可讓使用者更方便藉由手持裝置進行建模。
不過,由於需要透過光達捕捉精準距離等資訊,因此目前僅限搭載光達的iPhone Pro以上規格機種,以及搭載光達的iPad Pro系列機種才能使用。
至於拍攝之後建立的3D模型將以USDZ通用檔案格式呈現,並且能用於相容此檔案格式的專業3D軟體進行後續調整。
此次提供此工具資源,自然也是希望開發者能藉此更快建立各類3D模型,或是打造可讓使用者自行產生3D模型內容的服務,進而可推動Vision Pro虛擬視覺頭戴裝置應用體驗。
當然,先前已經提供的ARKit、RealityKit,以及此次公布的Reality Composer Pro與Unity深度合作,同樣也是為了擴展Vision Pro應用作準備。
暂无评论内容