大模型的下一站,AI 視頻生成的技術(shù)突破與未來
AIGC動態(tài)歡迎閱讀
原標(biāo)題:大模型的下一站,AI 視頻生成的技術(shù)突破與未來
關(guān)鍵字:視頻,字節(jié)跳動,模型,技術(shù),領(lǐng)域
文章來源:機(jī)器之心
內(nèi)容字?jǐn)?shù):3306字
內(nèi)容摘要:站在年末的時間點上,我們明顯可以感知到,2023 年是當(dāng)之無愧的大模型元年,從文本大模型 ChatGPT,到圖片生成模型 Stable Diffusion 和 Midjourney,技術(shù)的發(fā)展日新月異,大模型正在改變著行業(yè)格局。與此同時,文本生成和圖片生成似乎已經(jīng)不足以滿足算法科學(xué)家和工程師們的野心。近幾個月來,視頻生成和視頻編輯領(lǐng)域的新星頻繁登上各大媒體頭條。Runway 發(fā)布了 Gen-2,可以快速生成高質(zhì)量的短視頻;Stability AI 開源了文生視頻的擴(kuò)散模型 Stable Video Diffusion;Meta 發(fā)布了 Emu Video。每一次發(fā)布都帶來了明顯的技術(shù)更新。圖 1 Emu Video 文本到視頻生成過程受到更多關(guān)注的,還有 Pika Labs 最新發(fā)布的 Pika 1.0,盡管內(nèi)測申請還在排隊中,但從官方的演示視頻來看,似乎文生視頻已經(jīng)開始在新的層級上競爭了…
原文鏈接:點此閱讀原文:大模型的下一站,AI 視頻生成的技術(shù)突破與未來
聯(lián)系作者
文章來源:機(jī)器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...


粵公網(wǎng)安備 44011502001135號