[No.L001]
2018年12月24日,你可能見(jiàn)過(guò)好萊塢明星身穿的動(dòng)捕套裝的樣子,而計(jì)算機(jī)可以利用相應(yīng)的傳感器信息來(lái)將他們的表演轉(zhuǎn)換成綠巨人或智慧猿人。
現(xiàn)在,普林斯頓教授Mala Murthy和Joshua Shaevitz的聯(lián)手合作則更進(jìn)一步,利用人工智能的最新進(jìn)步來(lái)追蹤動(dòng)物的身體運(yùn)動(dòng)。
只需數(shù)分鐘,他們研發(fā)的工具LEAP Estimates Animal Pose(LEAP)就能夠以高精度自動(dòng)追蹤數(shù)百萬(wàn)幀視頻中的各個(gè)動(dòng)物身體部位,無(wú)需添加任何物理標(biāo)記或標(biāo)簽。
詳細(xì)介紹這項(xiàng)新技術(shù)的論文將發(fā)表在2019年1月出版的《Nature Methods》期刊上,但他們于5月推出的公開(kāi)訪問(wèn)版本已經(jīng)促使其他一系列的實(shí)驗(yàn)室采用了他們的軟件。
相關(guān)論文:Fast animal pose estimation using deep neural networks
物理學(xué)教授Shaevitz指出,當(dāng)研究人員將LEAP與其他定量工具相結(jié)合時(shí),他們可以觀察動(dòng)物的運(yùn)動(dòng)模式,并研究所謂的“行為語(yǔ)言”。
普林斯頓神經(jīng)科學(xué)研究所的研究生,論文第一作者Talmo Pereira說(shuō)道:“這是一個(gè)靈活的工具,原則上可用于任何視頻數(shù)據(jù)。具體的工作方式是,在幾個(gè)視頻中標(biāo)記幾個(gè)追蹤點(diǎn),然后神經(jīng)網(wǎng)絡(luò)即可完成剩下的工作。我們提供了一個(gè)易于使用的界面,任何人都可以將LEAP應(yīng)用到自己的視頻中,無(wú)需任何編程知識(shí)。”
當(dāng)被問(wèn)及LEAP在大型動(dòng)物身上是否能實(shí)現(xiàn)跟蒼蠅和老鼠等小型動(dòng)物一樣的效果時(shí),Pereira馬上制作了一個(gè)動(dòng)態(tài)標(biāo)記的長(zhǎng)頸鹿視頻。
Pereira解釋說(shuō):“我們從Mpala研究站拍攝了一只長(zhǎng)頸鹿的步行視頻…并在30個(gè)視頻幀中標(biāo)記了追蹤點(diǎn),整個(gè)過(guò)程花了不到一個(gè)小時(shí)。LEAP隨后能夠在幾秒鐘內(nèi)追蹤整個(gè)視頻的剩余部分(大約500幀)。”
在以前,開(kāi)發(fā)可以追蹤人體運(yùn)動(dòng)的AI工具依賴(lài)于大量手動(dòng)標(biāo)記數(shù)據(jù)的訓(xùn)練集,因?yàn)橹挥羞@樣軟件才可以穩(wěn)健地支持具有截然不同背景或照明條件的不同數(shù)據(jù)。
Murthy對(duì)此則表示:“對(duì)于我們的情況而言,我們優(yōu)化了類(lèi)似的方法來(lái)處理實(shí)驗(yàn)室環(huán)境中采集的數(shù)據(jù)。我們建立了一個(gè)允許用戶(hù)選擇適合采集數(shù)據(jù)類(lèi)型的神經(jīng)網(wǎng)絡(luò)的系統(tǒng)。”
這項(xiàng)研究在神經(jīng)科學(xué)以外同樣有著巨大的潛力,例如游戲,虛擬現(xiàn)實(shí)和增強(qiáng)現(xiàn)實(shí)。因?yàn)閭鹘y(tǒng)的動(dòng)物動(dòng)捕成本十分高昂,而且復(fù)雜,不適合小型工作室。但對(duì)于這種快速,適應(yīng)性強(qiáng),簡(jiǎn)單,并且原則上可用于任何視頻數(shù)據(jù)的AI解決方案,它有可能成為游戲,以及虛擬現(xiàn)實(shí)和增強(qiáng)現(xiàn)實(shí)領(lǐng)域的福音。
榜單收錄、高管收錄、融資收錄、活動(dòng)收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報(bào)生成中...