用擴(kuò)散模型監(jiān)督NeRF,清華文生3D新方法成新SOTA
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:用擴(kuò)散模型監(jiān)督NeRF,清華文生3D新方法成新SOTA
關(guān)鍵字:視角,模型,文本,方法,視圖
文章來(lái)源:量子位
內(nèi)容字?jǐn)?shù):2587字
內(nèi)容摘要:
清華王霞投稿量子位 | 公眾號(hào) QbitAI用文字合成3D圖形的AI模型,又有了新的SOTA!
近日,清華大學(xué)劉永進(jìn)教授課題組提出了一種基于擴(kuò)散模型的文生3D新方式。
無(wú)論是不同視角間的一致性,還是與提示詞的匹配度,都比此前大幅提升。
文生3D是3D AIGC的熱點(diǎn)研究?jī)?nèi)容,得到了學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注。
劉永進(jìn)教授課題組此次提出的新模型叫做TICD(Text-Image Conditioned Diffusion),在T3Bench數(shù)據(jù)集上達(dá)到了SOTA水平。
目前相關(guān)論文已經(jīng)發(fā)布,代碼也即將開(kāi)源。
測(cè)評(píng)成績(jī)已達(dá)SOTA為了評(píng)估TICD方法的效果,研究團(tuán)隊(duì)首先進(jìn)行了定性實(shí)驗(yàn),并對(duì)比了此前一些較好的方法。
結(jié)果顯示,用TICD方法生成的3D圖形質(zhì)量更好、圖形更清晰,與提示詞的匹配程度也更高。
為了進(jìn)一步評(píng)估這些模型的表現(xiàn),團(tuán)隊(duì)在T3Bench數(shù)據(jù)集上將TICD與這些方法進(jìn)行了定量測(cè)試。
結(jié)果顯示,TICD在單對(duì)象、單對(duì)象帶背景、多對(duì)象這三個(gè)提示集上都取得了最好的成績(jī),證明了它在生成質(zhì)量和文本對(duì)齊性上都具有整體優(yōu)勢(shì)。
此外,為了進(jìn)一步評(píng)估這些模型的文本對(duì)齊性,研究團(tuán)隊(duì)還對(duì)3D物體渲染得
原文鏈接:用擴(kuò)散模型監(jiān)督NeRF,清華文生3D新方法成新SOTA
聯(lián)系作者
文章來(lái)源:量子位
作者微信:QbitAI
作者簡(jiǎn)介:追蹤人工智能新趨勢(shì),關(guān)注科技行業(yè)新突破