Unity AR Foundation開始支持ARKit 3.0
查看引用和消息源請點擊:映維網
你可以通過AR Foundation嘗試ARKit 3.0新功能
(映維網 2019年06月08日)在ARKit 3的開發過程中,Unity一直與蘋果保持緊密的合作關係。在這篇文章中,映維網將詳細介紹最新的ARKit功能,以及如何通過AR Foundation 2.2和Unity 2019.1或以上版本進行訪問。Unity 2018.4的用戶可以通過AR Foundation 1.5訪問ARKit 3的新功能。
ARKit 3和AR Foundation 2.2支持的新功能包括:動捕;人體遮擋;面部追蹤優化,包括多面容追蹤;協作式會話;其他優化等。
1. 動捕
ARKit 3的主要功能側重於通過識別真人來提升AR體驗。一項令人感到興奮的新功能是動捕,它可以支持AR Foundation應用通過攝像頭識別人體的2D(屏幕空間)或3D(世界空間)表示。
對於2D檢測,含有屏幕空間坐標的十七關節結構將用於表示人體。對於3D檢測,含有世界空間變換的九十三關節結構將用於表示人體。
為了表現這種全新的功能,AR Foundation新增了Human Body Subsystem。
這項功能僅適用於搭載A12晶元和蘋果神經引擎的新款iOS設備。AR Foundation應用程序可以在運行時查詢Human Body Subsystem描述符,從而確定相關的iOS設備是否支持人體姿勢估計。
2. 人體遮擋
除了動捕,AR Foundation人體子系統同時為應用程序提供了人體模板和深度分割圖像。模板分割圖像可以識別每個像素是否包含人體。深度分割圖像則包括人體像素與設備之間的估計距離。兩者結合可以實現逼真的3D內容遮擋。
模板圖像本身可用於創建視覺效果,例如人物的描邊或著色。
人體遮擋功能僅支持搭載A12晶元和蘋果神經引擎的iOS設備。
3. 面部追蹤優化
ARKit 3在多個方面擴展了iPhone XS,iPhone XR,iPhone XS Max和最新iPad Pro的面部追蹤支持。
首先,前面的原深感攝像頭在面部追蹤會話期間可以識別最多三個不同的面部。你可以通過AR Foundation Face Subsystem指定要同時追蹤的最大面部數量。
面部追蹤最重要變化是,在配置為世界追蹤的會話期間,原深感攝像頭將能用於面部追蹤。這樣你就可以通過前置攝像頭捕獲用戶的面容,然後用來驅動利用後置攝像頭渲染的角色的面部表情。
面部追蹤優化功能僅支持搭載A12晶元和蘋果神經引擎的iOS設備。
4. 協作式會話
對於ARKit 2,ARWorldMap成為了你與其他用戶共享環境快照的方法。ARKit 3通過協作式會話進一步提升了所述功能。現在,多個互聯的ARKit應用程序可以持續交換它們對環境的理解。在AR Foundation中,設備能夠實時共享AR Reference Point。為了方便發布和接受所述更新,Session Subsystem的ARKit實現已經提供了相關的API。
要將更新傳達給每個互聯的客戶端,AR Foundation應用程序必須實現首選的聯網技術。對於互聯遊戲的各種聯網解決方案,請瀏覽Unity Asset Store。
5. 其他優化
ARKit 3為現有系統帶來了其他優化。
圖像追蹤和對象檢測功能都實現了顯著的精度和性能提升。對於ARKit 3,設備一次最多可檢測100張圖像。AR Foundation框架將自動啟用所述的優化。
另外,對象檢測已經變得更加穩定,可以更可靠地識別複雜環境中的對象。最後,ARKit追蹤的環境探針現在將為每個探針的環境紋理生成HDR立方體貼圖。你可以通過AR Foundation Environment Probe Subsystem禁用HDR環境紋理。
現在開始,你可以通過AR Foundation嘗試新功能。值得一提是,Unit已經把更多的示例演示託管至GitHub。
※高通聯合歌爾發布XR1參考設計,支持6DoF控制器追蹤、眼動追蹤
※三星:計劃在未來數個月內發布「多款AR和VR產品」
TAG:映維VR |