剛剛,Meta開源「分割一切」2.0模型,視頻也能分割了
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:剛剛,Meta開源「分割一切」2.0模型,視頻也能分割了
關(guān)鍵字:視頻,對(duì)象,模型,圖像,數(shù)據(jù)
文章來源:機(jī)器之心
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
機(jī)器之心報(bào)道
機(jī)器之心編輯部還記得 Meta 的「分割一切模型」嗎?這個(gè)模型在去年 4 月發(fā)布,被很多人認(rèn)為是顛覆傳統(tǒng) CV 任務(wù)的研究。
時(shí)隔一年多,剛剛,Meta 在 SIGGRAPH 上重磅宣布 Segment Anything Model 2 (SAM 2) 來了。在其前身的基礎(chǔ)上,SAM 2 的誕生代表了領(lǐng)域內(nèi)的一次重大進(jìn)步 —— 為靜態(tài)圖像和動(dòng)態(tài)視頻內(nèi)容提供實(shí)時(shí)、可提示的對(duì)象分割,將圖像和視頻分割功能統(tǒng)一到一個(gè)強(qiáng)大的系統(tǒng)中。SAM 2 可以分割任何視頻或圖像中的任何對(duì)象 —— 甚至是它以前沒有見過的對(duì)象和視覺域,從而支持各種不同的用例,而無需自定義適配。
在與黃仁勛的對(duì)話中,扎克伯格提到了 SAM 2:「能夠在視頻中做到這一點(diǎn),而且是在零樣本的前提下,告訴它你想要什么,這非常酷。」Meta 多次強(qiáng)調(diào)了最新模型 SAM 2 是首個(gè)用于實(shí)時(shí)、可提示的圖像和視頻對(duì)象分割的統(tǒng)一模型,它使視頻分割體驗(yàn)發(fā)生了重大變化,并可在圖像和視頻應(yīng)用程序中無縫使用。SAM 2 在圖像分割準(zhǔn)確率方面超越了之前的功能,并且實(shí)現(xiàn)了比現(xiàn)有工作更好的視頻分割性能,同時(shí)所需的交互時(shí)間為原來的 1/3。
該模型
原文鏈接:剛剛,Meta開源「分割一切」2.0模型,視頻也能分割了
聯(lián)系作者
文章來源:機(jī)器之心
作者微信:
作者簡(jiǎn)介: