來(lái)自英偉達(dá)(Nvidia)、多倫多大學(xué)(University of Toronto)和多倫多矢量人工智能研究所(Vector Institute for Artificial Intelligence)的研究人員設(shè)計(jì)了一種方法,可以更精確地探測(cè)和預(yù)測(cè)物體的起點(diǎn)和終點(diǎn)。這些知識(shí)可以改進(jìn)現(xiàn)有計(jì)算機(jī)視覺(jué)模型的推理,并為未來(lái)的模型標(biāo)記訓(xùn)練數(shù)據(jù)。
在研究人員的實(shí)驗(yàn)中,語(yǔ)義細(xì)化的邊緣對(duì)齊學(xué)習(xí)(steal)能夠?qū)⒆钕冗M(jìn)的casenet語(yǔ)義邊界預(yù)測(cè)模型的精度提高4%。更精確地識(shí)別物體的邊界可以應(yīng)用于計(jì)算機(jī)視覺(jué)任務(wù),從圖像生成到三維重建到物體檢測(cè)。
STEAL可用于改進(jìn)現(xiàn)有的CNNs或邊界檢測(cè)模型,但研究人員還認(rèn)為它可以幫助他們更有效地標(biāo)記或注釋計(jì)算機(jī)視覺(jué)模型的數(shù)據(jù)。為證明這一點(diǎn),STEAL方法用于改進(jìn)城市景觀,這是2016年首次在計(jì)算機(jī)視覺(jué)和模式識(shí)別(CVPR)會(huì)議上引入的城市環(huán)境數(shù)據(jù)集。
在GitHub上,STEAL框架以像素為單位學(xué)習(xí)和預(yù)測(cè)對(duì)象邊緣,研究人員稱之為“主動(dòng)對(duì)齊”。“在訓(xùn)練過(guò)程中對(duì)注釋噪聲進(jìn)行明確的推理,以及為網(wǎng)絡(luò)提供一個(gè)從端到端排列不當(dāng)?shù)臉?biāo)簽中學(xué)習(xí)的分級(jí)公式,也有助于產(chǎn)生結(jié)果?!?/p>