close

1.jpg

自發佈以來,Google 一直在穩步改進 ARCore 的功能集合,且不斷突破瞭 AR 應用程序開發者可在常規 Android 智能機硬件平臺上實現相關功能的局限性。

比如去年發佈的 ARCore Depth API,就允許開發者借助 RGB 相機傳感器來生成深度圖,並帶來逼真的 AR 體驗。

2.jpg

今天,該公司又在 ARCore 的武器庫中添加瞭兩款新工具,分別是原始深度(Raw Depth)和錄制與回放(Recording and Playback)API 。

前者建立在此前的 Depth API 基礎上,可通過深度信息與對應的信心圖像映射,來提供有關周圍環境物體的更詳細表述。

深度 API 專註於生成具有所欲像素深度估值的平滑深度圖,而 Raw Depth 旨在利用提供每個像素深度估值的置信度圖像,來捕獲更加逼真的深度圖。

3.gif

ARCore Raw Depth API

另一項改進是命中測試,其現使用深度(而不是平面)圖。即使在非平面和低紋理的地板上,也能夠提供更多的 hit-test 結果。

比如 TeamViewer 的 LifeAR 應用程序,就利用瞭深度命中測試方案,將 AR 功能集成到瞭視頻通話應用場景中。

這些新改進無需借助飛行時間(ToF)之類的專用傳感器硬件,因而能夠在絕大多數獲得 ARCore 認證的設備上實現,感興趣的開發者可於即日起上手體驗。

4.gif

ARCore Recording and Playback API

然後是 ARCore 新迎來的錄制與回放 API,該應用程序接口為需要測試不同 AR 體驗的開發者們提供瞭更大的靈活性。

通常情況下,AR 開發者必須在特定的環境和位置下開展持續測試。但在新 API 的幫助下,開發者現能夠采取包括深度和 IMU 運動傳感器信息等在內的 AR 元數據。

通過重用這些視頻素材,開發者能夠方便地在相同環境中展開進一步測試。隻需一次錄制,即可將之用於測試其它 AR 效果和體驗的模板,而無需每次都拍攝新的素材。

舉個例子,滴滴打車(Didi-Rider)就利用瞭該 API 來構建和測試基於 AR 的虛擬標識指引功能。這不僅幫助該公司節省瞭 25% 的研發費用,還將開發周期縮短瞭六個月。

對於最終用戶來說,該 API 還能帶來新穎的 AR 體驗。比如能夠將之前錄制的視頻提交給 AR 特效應用程序,而無需呆呆站在同一位置並啟用實時的攝像頭會話。

arrow
arrow
    全站熱搜
    創作者介紹
    創作者 Ken641228 的頭像
    Ken641228

    Ken641228的部落格

    Ken641228 發表在 痞客邦 留言(0) 人氣()