DeepMusic劉曉光:深度解讀AIGC音樂創(chuàng)作技術(shù)原理,明年實現(xiàn)一鍵生成自唱歌曲丨GenAICon 2024
AIGC動態(tài)歡迎閱讀
原標(biāo)題:DeepMusic劉曉光:深度解讀AIGC音樂創(chuàng)作技術(shù)原理,明年實現(xiàn)一鍵生成自唱歌曲丨GenAICon 2024
關(guān)鍵字:音樂,騰訊,解讀,音頻,模型
文章來源:智東西
內(nèi)容字?jǐn)?shù):14809字
內(nèi)容摘要:
深度解讀AIGC音樂創(chuàng)作技術(shù)原理,明年實現(xiàn)30秒人聲生成自唱歌曲。
2024中國生成式AI大會于4月18-19日在北京舉行,在大會第二天的主會場AIGC應(yīng)用專場上,DeepMusic CEO劉曉光以《AIGC如何賦能音樂創(chuàng)作與制作》為題發(fā)表演講。
劉曉光系統(tǒng)性復(fù)盤了當(dāng)前音樂商業(yè)格局,包括不同音樂用戶群體的特征與主要使用產(chǎn)品、相關(guān)音樂公司的商業(yè)獲利模式。
他提到當(dāng)前音樂商業(yè)格局主要面向泛音樂愛好者的聽歌及淺度實踐用戶的唱歌消費體驗,中間有1億以上活躍音樂人、音樂實踐者群體的需求尚未得到好的產(chǎn)品滿足;同時音樂制作流程長、門檻高,這使得音樂AIGC技術(shù)有用武之地。
音樂創(chuàng)作與制作本身具備一定的專業(yè)性門檻,非專業(yè)人士很難借助音樂來表達(dá)自我,AIGC的發(fā)展為音樂創(chuàng)作帶來了另一種可能性。劉曉光不僅詳細(xì)回顧了音樂生產(chǎn)工具的40年演變歷程以及其中三個關(guān)鍵階段,并對近期多個爆款A(yù)I音樂生成產(chǎn)品進行推演,解讀其背后采用的技術(shù)方案。
劉曉光深入講解了音頻模型、符號模型兩類AI音樂模型所涉及的工作原理、訓(xùn)練數(shù)據(jù)及算法技術(shù),并就跨平臺一站式AI音樂工作站“和弦派”的設(shè)計邏輯進行分享。“和弦派”以更直觀的功能譜呈
原文鏈接:DeepMusic劉曉光:深度解讀AIGC音樂創(chuàng)作技術(shù)原理,明年實現(xiàn)一鍵生成自唱歌曲丨GenAICon 2024
聯(lián)系作者
文章來源:智東西
作者微信:zhidxcom
作者簡介:智能產(chǎn)業(yè)新媒體!智東西專注報道人工智能主導(dǎo)的前沿技術(shù)發(fā)展,和技術(shù)應(yīng)用帶來的千行百業(yè)產(chǎn)業(yè)升級。聚焦智能變革,服務(wù)產(chǎn)業(yè)升級。