華為諾亞&清華:基于認(rèn)知的萬(wàn)物超分大模型CoSeR
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:華為諾亞&清華:基于認(rèn)知的萬(wàn)物超分大模型CoSeR
文章來(lái)源:機(jī)器之心
內(nèi)容字?jǐn)?shù):5109字
內(nèi)容摘要:機(jī)器之心專(zhuān)欄機(jī)器之心編輯部從低清圖像中提取認(rèn)知特征,這樣的超分辨率才更真實(shí)。圖像超分辨率技術(shù)旨在將低分辨率圖像轉(zhuǎn)換為高分辨率圖像,從而提高圖像的清晰度和細(xì)節(jié)真實(shí)性。隨著超分技術(shù)的發(fā)展和手機(jī)硬件性能的提升,人們期望拍攝出更加清晰的照片。這項(xiàng)技術(shù)在手機(jī)影像等領(lǐng)域有著廣泛的應(yīng)用和需求。然而,現(xiàn)有的超分方法存在一些局限性,如下圖所示,主要有以下兩個(gè)方面:一是缺乏泛化能力。為了實(shí)現(xiàn)更好的超分效果,通常需要針對(duì)特定場(chǎng)景使用特定傳感器采集到的數(shù)據(jù)來(lái)進(jìn)行模型訓(xùn)練,這種學(xué)習(xí)方式擬合了某種低清圖像和高清圖像間的映射,但在其他場(chǎng)景下表現(xiàn)不佳。此外,逐場(chǎng)景訓(xùn)練的方式計(jì)算成本較高,不利于模型的部署和更新。二是缺乏理解能力。現(xiàn)有的超分方法主要依賴(lài)于從大量數(shù)據(jù)中學(xué)習(xí)圖像的退化分布,忽視了對(duì)圖像內(nèi)容的理解,無(wú)法利用常識(shí)來(lái)準(zhǔn)確恢復(fù)物體的結(jié)構(gòu)和紋理。圖 2. 真實(shí)場(chǎng)景超分 SOTA 方法的局限性:(行一)難以處理訓(xùn)練集外的退…
原文鏈接:點(diǎn)此閱讀原文:華為諾亞&清華:基于認(rèn)知的萬(wàn)物超分大模型CoSeR
聯(lián)系作者
文章來(lái)源:機(jī)器之心
作者微信:almosthuman2014
作者簡(jiǎn)介:專(zhuān)業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺(tái)