ICML 2024|復(fù)雜組合3D場景生成,LLMs對話式3D可控生成編輯框架來了

AIGC動態(tài)歡迎閱讀
原標題:ICML 2024|復(fù)雜組合3D場景生成,LLMs對話式3D可控生成編輯框架來了
關(guān)鍵字:場景,物體,解讀,幾何,布局
文章來源:機器之心
內(nèi)容字數(shù):0字
內(nèi)容摘要:
AIxiv專欄是機器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學(xué)術(shù)交流與傳播。如果您有優(yōu)秀的工作想要分享,歡迎投稿或者聯(lián)系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com該論文的第一作者和通訊作者均來自北京大學(xué)王選計算機研究所的 VDIG (Visual Data Interpreting and Generation) 實驗室,第一作者為博士生周嘯宇,通訊作者為博士生導(dǎo)師王勇濤。VDIG 實驗室近年來在 IJCV、CVPR、AAAI、ICCV、ICML、ECCV 等頂會上有多項代表性成果發(fā)表,多次榮獲國內(nèi)外 CV 領(lǐng)域重量級競賽的冠亞軍獎項,和國內(nèi)外知名高校、科研機構(gòu)廣泛開展合作。
近年來,針對單個物體的 Text-to-3D 方法取得了一系列突破性進展,但是從文本生成可控的、高質(zhì)量的復(fù)雜多物體 3D 場景仍然面臨巨大挑戰(zhàn)。之前的方法在生成場景的復(fù)雜度、幾何質(zhì)量、紋理一致性、多物體交互關(guān)系、可控性和編輯性等方面均存在較大缺陷
原文鏈接:ICML 2024|復(fù)雜組合3D場景生成,LLMs對話式3D可控生成編輯框架來了
聯(lián)系作者
文章來源:機器之心
作者微信:
作者簡介:

粵公網(wǎng)安備 44011502001135號