自發佈以來,Google 一直在穩步改進 ARCore 的功能集合,且不斷突破瞭 AR 應用程序開發者可在常規 Android 智能機硬件平臺上實現相關功能的局限性。
比如去年發佈的 ARCore Depth API,就允許開發者借助 RGB 相機傳感器來生成深度圖,並帶來逼真的 AR 體驗。
今天,該公司又在 ARCore 的武器庫中添加瞭兩款新工具,分別是原始深度(Raw Depth)和錄制與回放(Recording and Playback)API 。
前者建立在此前的 Depth API 基礎上,可通過深度信息與對應的信心圖像映射,來提供有關周圍環境物體的更詳細表述。
深度 API 專註於生成具有所欲像素深度估值的平滑深度圖,而 Raw Depth 旨在利用提供每個像素深度估值的置信度圖像,來捕獲更加逼真的深度圖。
ARCore Raw Depth API
另一項改進是命中測試,其現使用深度(而不是平面)圖。即使在非平面和低紋理的地板上,也能夠提供更多的 hit-test 結果。
比如 TeamViewer 的 LifeAR 應用程序,就利用瞭深度命中測試方案,將 AR 功能集成到瞭視頻通話應用場景中。
這些新改進無需借助飛行時間(ToF)之類的專用傳感器硬件,因而能夠在絕大多數獲得 ARCore 認證的設備上實現,感興趣的開發者可於即日起上手體驗。
ARCore Recording and Playback API
然後是 ARCore 新迎來的錄制與回放 API,該應用程序接口為需要測試不同 AR 體驗的開發者們提供瞭更大的靈活性。
通常情況下,AR 開發者必須在特定的環境和位置下開展持續測試。但在新 API 的幫助下,開發者現能夠采取包括深度和 IMU 運動傳感器信息等在內的 AR 元數據。
通過重用這些視頻素材,開發者能夠方便地在相同環境中展開進一步測試。隻需一次錄制,即可將之用於測試其它 AR 效果和體驗的模板,而無需每次都拍攝新的素材。
舉個例子,滴滴打車(Didi-Rider)就利用瞭該 API 來構建和測試基於 AR 的虛擬標識指引功能。這不僅幫助該公司節省瞭 25% 的研發費用,還將開發周期縮短瞭六個月。
對於最終用戶來說,該 API 還能帶來新穎的 AR 體驗。比如能夠將之前錄制的視頻提交給 AR 特效應用程序,而無需呆呆站在同一位置並啟用實時的攝像頭會話。