CVPR 2024 | 分割一切模型SAM泛化能力差?域適應(yīng)策略給解決了

AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:CVPR 2024 | 分割一切模型SAM泛化能力差?域適應(yīng)策略給解決了
關(guān)鍵字:編碼器,下游,模型,權(quán)重,數(shù)據(jù)
文章來(lái)源:機(jī)器之心
內(nèi)容字?jǐn)?shù):9669字
內(nèi)容摘要:
機(jī)器之心專欄
機(jī)器之心編輯部第一個(gè)針對(duì)「Segment Anything」大模型的域適應(yīng)策略來(lái)了!相關(guān)論文已被CVPR 2024 接收。引言
大語(yǔ)言模型(LLMs)的成功激發(fā)了計(jì)算機(jī)視覺領(lǐng)域探索分割基礎(chǔ)模型的興趣。這些基礎(chǔ)分割模型通常通過 Prompt Engineer 來(lái)進(jìn)行 zero/few 圖像分割。其中,Segment Anything Model(SAM)是最先進(jìn)的圖像分割基礎(chǔ)模型。圖 SAM 在多個(gè)下游任務(wù)上表現(xiàn)不佳
但是最近的研究表明,SAM 在多種下游任務(wù)中并非具有很強(qiáng)的魯棒性與泛化性,例如在醫(yī)學(xué)圖像、偽裝物體、添加干擾的自然圖像等領(lǐng)域表現(xiàn)較差。這可能是由于訓(xùn)練數(shù)據(jù)集與下游的測(cè)試數(shù)據(jù)集之間存在較大的域差異(Domain Shift)所致。因此,一個(gè)非常重要的問題是,如何設(shè)計(jì)域自適應(yīng)方案,使 SAM 在面對(duì)現(xiàn)實(shí)世界和多樣化的下游任務(wù)中更加魯棒?
將預(yù)訓(xùn)練好的 SAM 適應(yīng)到下游任務(wù)主要面臨三個(gè)挑戰(zhàn):
首先,傳統(tǒng)的無(wú)監(jiān)督域自適應(yīng)范式需要源數(shù)據(jù)集和目標(biāo)數(shù)據(jù)集,由于隱私和計(jì)算成本較為不可行。
其次,對(duì)于域適應(yīng),更新所有權(quán)重通常性能更好,同時(shí)也受到了昂貴的內(nèi)存成本的限制。
最后,
原文鏈接:CVPR 2024 | 分割一切模型SAM泛化能力差?域適應(yīng)策略給解決了
聯(lián)系作者
文章來(lái)源:機(jī)器之心
作者微信:almosthuman2014
作者簡(jiǎn)介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺(tái)

粵公網(wǎng)安備 44011502001135號(hào)