來源:澎湃新聞
如何從2D圖像中做3D目標檢測,對于計算機視覺研究來說,一直是個挑戰(zhàn)。3月12日,谷歌AI在其官方博客上發(fā)布了一款名為MediaPipe Objectron的算法框架,利用這個算法框架,只要一部手機,就能實時從2D視頻里識別3D物品的位置、大小和方向。這一技術(shù)可以幫助機器人,自動駕駛汽車,圖像檢索和增強現(xiàn)實等領(lǐng)域?qū)崿F(xiàn)一系列的應(yīng)用。
202003122322331270.jpg (39.52 KB, 下載次數(shù): 91)
下載附件
2020-3-13 14:12 上傳
分開來解釋,MediaPipe是一個開源代碼跨平臺框架,主要用于構(gòu)建處理不同形式的感知數(shù)據(jù),而 Objectron在MediaPipe中實現(xiàn),并能夠在移動設(shè)備中實時計算面向?qū)ο蟮?D邊界框。
在計算機視覺領(lǐng)域里,跟蹤3D目標是一個棘手的問題,尤其是在有限的計算資源上,例如,智能手機上。由于缺乏數(shù)據(jù),以及需要解決物體多樣的外觀和形狀時,而又僅有可2D圖像可用時,情況就會變得更加困難。
202003122322512520.gif (1.05 MB, 下載次數(shù): 121)
下載附件
2020-3-13 14:12 上傳
為了解決這個問題,谷歌Objectron團隊開發(fā)了一套工具,可以用來在2D視頻里為對象標注3D邊界框,而有了3D邊界框,就可以很容易地計算出物體的姿態(tài)和大小。注釋器可以在3D視圖中繪制3D邊界框,并通過查看2D視頻幀中的投影來驗證其位置。對于靜態(tài)對象,他們只需在單個幀中注釋目標對象即可。
為了補充現(xiàn)實世界的訓(xùn)練數(shù)據(jù)以提高AI模型預(yù)測的準確性,該團隊還開發(fā)了一種名為AR Synthetic Data Generation(增強現(xiàn)實合成數(shù)據(jù)生成)的新穎方法。它可以將虛擬對象放置到具有AR會話數(shù)據(jù)的場景中,允許你利用照相機,檢測平面和估計照明,來生成目標對象的可能的位置,以及生產(chǎn)具有與場景匹配的照明。這種方法可生成高質(zhì)量的合成數(shù)據(jù),其包含的渲染對象能夠尊重場景的幾何形狀并無縫地適配實際背景。
202003122323324083.png (230.35 KB, 下載次數(shù): 107)
下載附件
2020-3-13 14:11 上傳
網(wǎng)絡(luò)的樣本結(jié)果:左邊是帶有估計邊界框的原始2D圖像;中間是高斯分布的對象檢測;右邊是預(yù)測的分割蒙版。
通過上述兩個方法,谷歌結(jié)合了現(xiàn)實世界數(shù)據(jù)和增強現(xiàn)實合成數(shù)據(jù),將檢測準確度度提高了10%。
202003122324152833.png (21.28 KB, 下載次數(shù): 100)
下載附件
2020-3-13 14:10 上傳
增強現(xiàn)實合成數(shù)據(jù)生成的一個示例:虛擬白褐色谷物盒渲染到真實場景中,緊鄰真實藍皮書。
準確度的提升是一方面,谷歌表示,當(dāng)前版本的Objectron模型還足夠“輕巧”,可以在移動設(shè)備上實時運行。借助LG V60 ThinQ,三星Galaxy S20 +和Sony Xperia 1 II等手機中的Adreno 650移動圖形芯片,它能夠每秒處理約26幀圖像,基本做到了實時檢測。接下去,谷歌團隊表示:" 我們希望通過與更多的研究員和開發(fā)者共享我們的解決方案,這將激發(fā)新的應(yīng)用案例和新的研究工作。我們計劃在未來將模型擴展到更多類別,并進一步提高設(shè)備性能。"
|