AIGC動態歡迎閱讀
原標題:DeepMusic劉曉光:深度解讀AIGC音樂創作技術原理,明年實現一鍵生成自唱歌曲丨GenAICon 2024
關鍵字:音樂,騰訊,解讀,音頻,模型
文章來源:智東西
內容字數:14809字
內容摘要:
深度解讀AIGC音樂創作技術原理,明年實現30秒人聲生成自唱歌曲。
2024中國生成式AI大會于4月18-19日在北京舉行,在大會第二天的主會場AIGC應用專場上,DeepMusic CEO劉曉光以《AIGC如何賦能音樂創作與制作》為題發表演講。
劉曉光系統性復盤了當前音樂商業格局,包括不同音樂用戶群體的特征與主要使用產品、相關音樂公司的商業獲利模式。
他提到當前音樂商業格局主要面向泛音樂愛好者的聽歌及淺度實踐用戶的唱歌消費體驗,中間有1億以上活躍音樂人、音樂實踐者群體的需求尚未得到好的產品滿足;同時音樂制作流程長、門檻高,這使得音樂AIGC技術有用武之地。
音樂創作與制作本身具備一定的專業性門檻,非專業人士很難借助音樂來表達自我,AIGC的發展為音樂創作帶來了另一種可能性。劉曉光不僅詳細回顧了音樂生產工具的40年演變歷程以及其中三個關鍵階段,并對近期多個爆款AI音樂生成產品進行推演,解讀其背后采用的技術方案。
劉曉光深入講解了音頻模型、符號模型兩類AI音樂模型所涉及的工作原理、訓練數據及算法技術,并就跨平臺一站式AI音樂工作站“和弦派”的設計邏輯進行分享。“和弦派”以更直觀的功能譜呈
原文鏈接:DeepMusic劉曉光:深度解讀AIGC音樂創作技術原理,明年實現一鍵生成自唱歌曲丨GenAICon 2024
聯系作者
文章來源:智東西
作者微信:zhidxcom
作者簡介:智能產業新媒體!智東西專注報道人工智能主導的前沿技術發展,和技術應用帶來的千行百業產業升級。聚焦智能變革,服務產業升級。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...