【講座題目】基于長期時(shí)序信息的視頻時(shí)空行為定位識(shí)別
【講座時(shí)間】2020 年 7 月 28 日(星期二) 上午 9:10
【講座地點(diǎn)】網(wǎng)絡(luò)直播:https://live.bilibili.com/22339632
【主 講 人】林巍峣,上海交通大學(xué)教授
【主講人簡介】
上海交通大學(xué)教授,分別于2003年和2005年獲得上海交通大學(xué)學(xué)士和碩士學(xué)位,并于 2010 年獲得美國華盛頓大學(xué)西雅圖分校獲得博士學(xué)位。曾在包括 Motorola, Real Networks 和 Thomson Technology 在內(nèi)的多家公司的研究機(jī)構(gòu)擔(dān)任 Research Intern。主要研究方向包括計(jì)算機(jī)視覺、視覺監(jiān)控、視頻行為理解、視頻及語義信息編碼等。 林博士現(xiàn)任 IEEE Trans. Image Processing, IEEE Trans. CSVT、 IEEE Trans. ITS 等期刊編委及 ICPR’20、BMVC’19、MM'18、ICIP'19、 ICME'18 等領(lǐng)域主席,并任IEEE MMSP、IEEE MSA TC、IEEE MMTC 等學(xué)術(shù)專業(yè)委員會(huì)委員。在相關(guān)領(lǐng)域共發(fā)表 IEEE Transactions 系列及 CVPR、ICCV、AAAI 等權(quán)威期刊和會(huì)議論文 40 余篇,獲專利 18 項(xiàng)。近年來,林博士相繼獲得 2018 教育部“**”學(xué)者、ICME’19 多媒體學(xué)術(shù)新星(Multimedia Rising Star)、2019 上海市五四青年獎(jiǎng)?wù)碌葮s譽(yù)。
【內(nèi)容簡介】
時(shí)空行為定位與識(shí)別是行為識(shí)別中的關(guān)鍵問題?,F(xiàn)有的主流方法主要利用在單幀或者短序列中的密集檢測框以及短時(shí)的時(shí)序信息進(jìn)行時(shí)空定位。上述方法由于未能充分利用較長時(shí)序中的信息,往往效果有局限。在本次報(bào)告中,我們將介紹我們在時(shí)空行為定位識(shí)別中的兩個(gè)工作。首先,我們在建模行為時(shí),使用行為的長時(shí)間時(shí)序信息,并直接預(yù)測行為所在的時(shí)空三維管道。此外,我們進(jìn)一步提出一個(gè)動(dòng)態(tài)采樣的方法來對行為定位的過程進(jìn)行加速。實(shí)驗(yàn)結(jié)果顯示, 我們的方法可以在提升3倍以上速度的情況下,在標(biāo)準(zhǔn)數(shù)據(jù)集上達(dá)到當(dāng)前最優(yōu)的效果。