AIGC動態歡迎閱讀
原標題:長時舞蹈生成:數秒鐘可生成極長的3D舞蹈
關鍵字:舞蹈,動作,序列,表現力,模型
文章來源:大數據文摘
內容字數:7833字
內容摘要:
大數據文摘受權轉載自將門創投
針對目前音樂生成3D舞蹈動作中存在的長序列生成動作質量差,生成效率低的問題,本文提出了Lodge,可以高效地根據輸入音樂生成極長的3D人體舞蹈動作。本文將Lodge設計為兩階段的由粗到細的Diffusion框架,并提出了特征化的舞蹈基元動作作為兩階段Diffusion的中間層表征,從而讓Lodge可以兼顧全局編舞規律和局部的動作質量,并且增強舞蹈的表現力。此外,本文還提出了腳步優化模塊以緩解腳和地面的接觸問題如腳滑、腳步漂浮等。文本通過大量的定量和定性實驗證明了Lodge的有效性。代碼已經開源,歡迎體驗。論文題目:
Lodge: A Coarse to Fine Diffusion Network for Long Dance Generation Guided by the Characteristic Dance Primitives
論文鏈接:
https://arxiv.org/abs/2403.10518
主頁鏈接:
https://li-ronghui.github.io/lodge?
代碼鏈接:https://github.com/li-ro
原文鏈接:長時舞蹈生成:數秒鐘可生成極長的3D舞蹈
聯系作者
文章來源:大數據文摘
作者微信:BigDataDigest
作者簡介:普及數據思維,傳播數據文化
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...


粵公網安備 44011502001135號