殺瘋了!Meta開源SAM-2:可商用,隨意分割視頻、圖像
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:殺瘋了!Meta開源SAM-2:可商用,隨意分割視頻、圖像
關(guān)鍵字:侵權(quán),記憶,編碼器,模型,提示
文章來源:智猩猩AGI
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
9月6-7日,2024全球AI芯片峰會(huì)將在北京召開。目前,AMD人工智能事業(yè)部高級(jí)總監(jiān)王宏強(qiáng),清華大學(xué)交叉信息研究院助理教授、北極雄芯創(chuàng)始人馬愷聲,珠海芯動(dòng)力創(chuàng)始人兼CEO李原,“吳文俊2023人工智能芯片專項(xiàng)獎(jiǎng)”第一完、鋒行致遠(yuǎn)創(chuàng)始人兼CEO孫唐等嘉賓已確認(rèn)出席。歡迎報(bào)名或購票參會(huì)~2023年4月5日,Meta首次開源了視覺分割模型SAM,能夠根據(jù)交互和自動(dòng)化兩種方式任意切割視頻、圖像中的所有元素,當(dāng)時(shí)這個(gè)模型被譽(yù)為計(jì)算機(jī)視覺界的“ChatGPT時(shí)刻”。目前,SAM在Github超過45000顆星。
今天凌晨,Meta在SAM的基礎(chǔ)之上對(duì)架構(gòu)、功能以及準(zhǔn)確率等進(jìn)行大量更新,正式開源了SAM-2,并支持Apache 2.0規(guī)則的商業(yè)化。這也是繼上周Llama 3.1之后,再次開源重磅模型。
同時(shí)Meta還分享了SAM-2的訓(xùn)練數(shù)據(jù)集SA-V,包含了51,000真實(shí)世界視頻和超過600,000個(gè)時(shí)空遮罩,這比其他同類數(shù)據(jù)集大50倍左右,可幫助開發(fā)人員構(gòu)建更好的視覺模型。
SAM-2開源地址:https://github.com/facebookresearch/segment-any
原文鏈接:殺瘋了!Meta開源SAM-2:可商用,隨意分割視頻、圖像
聯(lián)系作者
文章來源:智猩猩AGI
作者微信:
作者簡(jiǎn)介: