CVPR 2024 | 合成視頻數(shù)據(jù)集里只有單人數(shù)據(jù)?M3Act人群行為標(biāo)注難題

AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:CVPR 2024 | 合成視頻數(shù)據(jù)集里只有單人數(shù)據(jù)?M3Act人群行為標(biāo)注難題
關(guān)鍵字:群體,數(shù)據(jù),模型,任務(wù),基線
文章來(lái)源:機(jī)器之心
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
AIxiv專(zhuān)欄是機(jī)器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過(guò)去數(shù)年,機(jī)器之心AIxiv專(zhuān)欄接收?qǐng)?bào)道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級(jí)實(shí)驗(yàn)室,有效促進(jìn)了學(xué)術(shù)交流與傳播。如果您有優(yōu)秀的工作想要分享,歡迎投稿或者聯(lián)系報(bào)道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com論文鏈接:https://arxiv.org/abs/2306.16772
項(xiàng)目鏈接:https://cjerry1243.github.io/M3Act/
論文標(biāo)題:M3Act: Learning from Synthetic Human Group Activities
引言
通過(guò)視覺(jué)信息識(shí)別、理解人群的行為是視頻監(jiān)測(cè)、交互機(jī)器人、自動(dòng)駕駛等領(lǐng)域的關(guān)鍵技術(shù)之一,但獲取大規(guī)模的人群行為標(biāo)注數(shù)據(jù)成為了相關(guān)研究的發(fā)展瓶頸。如今,合成數(shù)據(jù)集正成為一種新興的,用于替代現(xiàn)實(shí)世界數(shù)據(jù)的方法,但已有研究中的合成數(shù)據(jù)集主要聚焦于人體姿態(tài)與形狀的估計(jì)。它們往往只提供單個(gè)人物的合成動(dòng)畫(huà)視頻,而這并不適用于人群的視頻識(shí)別任務(wù)。在這篇文章中,作者提出了一個(gè)適用于多群組人群行為的合成
原文鏈接:CVPR 2024 | 合成視頻數(shù)據(jù)集里只有單人數(shù)據(jù)?M3Act人群行為標(biāo)注難題
聯(lián)系作者
文章來(lái)源:機(jī)器之心
作者微信:almosthuman2014
作者簡(jiǎn)介:專(zhuān)業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺(tái)

粵公網(wǎng)安備 44011502001135號(hào)