繼今年三月份跨鏡追蹤(ReID)、3D人體重建技術(shù)、自然語言處理技術(shù)分別創(chuàng)造世界紀錄后,人工智能“國家隊”云從科技再一次領(lǐng)跑全球。同時,這也是云從科技第十四次獲得世界冠軍。
10月27日-11月2日,在ICCV 2019 Workshop舉辦的 Vision Meets Drone: A Challenge(簡稱:VisDrone 2019)挑戰(zhàn)賽上,云從科技研究院與中科院信息工程研究所葛仕明研究員團隊(以下簡稱“聯(lián)合研究團隊”)獲得了Task3“單目標(biāo)跟蹤挑戰(zhàn)(Single Object Tracking, SOT)”冠軍,再次刷新此項目的世界紀錄。
隨著無人機作為視覺數(shù)據(jù)采集設(shè)備已快速而廣泛的部署到城市、農(nóng)業(yè)、航空等應(yīng)用領(lǐng)域,對無人機平臺收集的視覺數(shù)據(jù)進行分析和理解的需求變得愈發(fā)迫切。云從科技參與單目標(biāo)跟蹤挑戰(zhàn)賽的成果,不僅對計算機視覺甚至人工智能技術(shù)是進一步的推動,也對視頻監(jiān)控、人機交互、自動駕駛、虛擬現(xiàn)實等場景都具有重要意義。
今后,云從科技將繼續(xù)以人工智能技術(shù)與人機協(xié)同平臺為基礎(chǔ),通過行業(yè)領(lǐng)先的人工智能、認知計算與大數(shù)據(jù)技術(shù)形成的整合解決方案,促進泛在智能下的未來城市建設(shè)。
VisDrone2019 挑戰(zhàn)賽
ICCV 2019國際計算機視覺大會由 IEEE 主辦,與計算機視覺模式識別會議(CVPR)和歐洲計算機視覺會議(ECCV)并稱計算機視覺方向的三大頂級會議,屬于CCF A 類會議。
此次VisDrone 2019(無人機目標(biāo)檢測)挑戰(zhàn)賽,要從無人機獲取的視覺數(shù)據(jù)中進行物體檢測和跟蹤,吸引了來自海內(nèi)外知名高校、科研機構(gòu)和企業(yè),包括中科院、清華大學(xué)、馬里蘭大學(xué)、伊利諾伊大學(xué)厄巴納-香檳分校、云從科技、三星研究院等近百支隊伍參賽。
本屆挑戰(zhàn)賽包含了四個任務(wù),聯(lián)合研究團隊參加了“任務(wù)3:單目標(biāo)跟蹤挑戰(zhàn)”,最后在眾多參賽隊中脫穎而出獲得冠軍。
VisDrone 2019數(shù)據(jù)集由天津大學(xué)機器學(xué)習(xí)與數(shù)據(jù)挖掘?qū)嶒炇业腁ISKYEYE團隊收集,全部基準數(shù)據(jù)集由無人機捕獲,包括288個視頻片段,總共包括261908幀和10209個靜態(tài)圖像。
這些幀由260多萬個常用目標(biāo)(如行人、汽車、自行車和三輪車)的手動標(biāo)注框組成。為了讓參賽隊伍能夠更有效地利用數(shù)據(jù),數(shù)據(jù)集還提供了場景可見性、對象類別和遮擋等重要屬性。
因此,本屆賽題難點諸多。聯(lián)合研究團隊在“任務(wù)3:單目標(biāo)跟蹤挑戰(zhàn)”中,不僅要處理訓(xùn)練集、驗證集、測試集等大量數(shù)據(jù),還要克服數(shù)據(jù)中的低分辨率、長期遮擋、相機運動模糊等困難。
任務(wù)3:單目標(biāo)跟蹤挑戰(zhàn)
創(chuàng)造世界新紀錄
經(jīng)過反復(fù)訓(xùn)練與測試,聯(lián)合研究團隊最終提出了改進的精確目標(biāo)狀態(tài)估計算法:ED-ATOM。方法里面包含兩個模塊:目標(biāo)估計和物體分類。
其中,目標(biāo)估計模塊使用IOU預(yù)測網(wǎng)絡(luò)、ResNet-18網(wǎng)絡(luò)和ImageNet等數(shù)據(jù)集來做預(yù)訓(xùn)練,同時使用低光照圖像增強算法處理原始數(shù)據(jù),離線精調(diào)模型后再在線基于跟蹤狀態(tài)的搜索策略改進魯棒性。
物體分類模塊則使用數(shù)據(jù)增強的方法,進行在線數(shù)據(jù)擴充,以便于分類模型的可推廣性。同時基于跟蹤狀態(tài)的有效搜索策略,改進穩(wěn)健性。
最終,結(jié)合IE(圖像增強)、ED(通過增強數(shù)據(jù)訓(xùn)練的IOU預(yù)測網(wǎng)絡(luò))、DA(在線數(shù)據(jù)增強)、LT(長期跟蹤)幾種方法的ED-ATOM算法,取得了最優(yōu)成績,刷新了世界紀錄。
運用微光圖像增強方法實行暗部追蹤訓(xùn)練,通過不同方法的測試,確定效果最佳方案;
運用數(shù)據(jù)擴充方案,在目標(biāo)外觀發(fā)生變化的情況下,通過翻轉(zhuǎn)、平移、縮放、仿射、旋轉(zhuǎn)、模糊等增強方法,提高跟蹤自適應(yīng)性;
在面對嚴重的不在視野和完全遮擋的跟蹤情況下,使用長期跟蹤方案,可以自適應(yīng)搜索區(qū)域,提高跟蹤穩(wěn)健性。
通過ED-ATOM算法,我們可以實現(xiàn)在低分辨率、長期遮擋、攝像機運動/運動模糊等情況下的有效可視化,從而達到鎖定目標(biāo)、預(yù)判行動等效果。
高質(zhì)量跟蹤分數(shù)
該成果的取得是聯(lián)合研究團隊共同的努力,始終堅持人工智能在實際場景運用中的技術(shù)研究與創(chuàng)新。云從科技孵化自中科院重慶研究院,與中科院可謂一脈相承。
作為人工智能領(lǐng)域的智能服務(wù)領(lǐng)軍企業(yè),云從科技吸引并擁有全球最優(yōu)秀的人才。在廣州、重慶、上海、蘇州、成都等地都成立了研發(fā)中心,研發(fā)人員超過1000名,提供了核心技術(shù)產(chǎn)品研發(fā)能力。同時與各大學(xué)、研究院等成立聯(lián)合實驗室,掌握最前沿的核心技術(shù)研發(fā)能力。雄厚的人才與技術(shù)儲備,為云從科技再次創(chuàng)造世界紀錄提供強大動力。
追求技術(shù)創(chuàng)新的同時,云從科技始終堅持技術(shù)場景化的落地應(yīng)用。ED-ATOM算法的提出,對今后安防偵測、行人跟蹤、安全檢測等方面的產(chǎn)品研發(fā),將發(fā)揮更有價值的作用。
例如在智能安防方面,云從科技研發(fā)的智能安防管理系統(tǒng)是一套以人為核心的基于物聯(lián)網(wǎng)、人工智能和大數(shù)據(jù)技術(shù)的智能化應(yīng)用系統(tǒng)。新算法的融合,讓可能的移動端(無人機或者自主系統(tǒng))上得到應(yīng)用的機會大大提升。
版權(quán)聲明:本文內(nèi)容由互聯(lián)網(wǎng)用戶自發(fā)貢獻,該文觀點僅代表作者本人。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如發(fā)現(xiàn)本站有涉嫌抄襲侵權(quán)/違法違規(guī)的內(nèi)容, 請發(fā)送郵件至2161241530@qq.com 舉報,一經(jīng)查實,本站將立刻刪除。如若轉(zhuǎn)載,請注明出處:http://www.parklessenses.com/wurenjibaike/djiwurenzhishi/8199/