DeepFloyd Lab
DeepFloyd Lab官網(wǎng)
一種新穎、先進(jìn)的開源文本到圖像模型
網(wǎng)站服務(wù):DeepFloyd Lab。
Contribute to deep-floyd/IF development by creating an account on GitHub.
我們介紹的 DeepFloyd IF 是一種新穎、先進(jìn)的開源文本到圖像模型,具有高度的逼真性和語言理解能力。DeepFloyd IF 是一個模塊,由一個凍結(jié)文本編碼器和三個級聯(lián)像素擴(kuò)散模塊組成:一個基本模型,根據(jù)文本提示生成 64×64 px 的圖像;兩個超分辨率模型,分別用于生成分辨率不斷提高的圖像:256×256 px 和 1024×1024 px。該模型的所有階段都使用基于 T5 變換器的凍結(jié)文本編碼器來提取文本嵌入,然后將其輸入到具有交叉注意力和注意力池增強(qiáng)功能的 UNet 架構(gòu)中。結(jié)果是一個高效的模型,其性能超過了目前最先進(jìn)的模型,在 COCO 數(shù)據(jù)集上獲得了 6.66 分的零鏡頭 FID 分?jǐn)?shù)。我們的工作強(qiáng)調(diào)了大型 UNet 架構(gòu)在級聯(lián)擴(kuò)散模型第一階段的潛力,并描繪了文本到圖像合成的美好前景。
DeepFloyd Lab網(wǎng)址入口
https://github.com/deep-floyd/IF
OpenI小編發(fā)現(xiàn)DeepFloyd Lab網(wǎng)站非常受用戶歡迎,請?jiān)L問DeepFloyd Lab網(wǎng)址入口試用。
數(shù)據(jù)統(tǒng)計
數(shù)據(jù)評估
本站OpenI提供的DeepFloyd Lab都來源于網(wǎng)絡(luò),不保證外部鏈接的準(zhǔn)確性和完整性,同時,對于該外部鏈接的指向,不由OpenI實(shí)際控制,在2023年 9月 19日 下午9:08收錄時,該網(wǎng)頁上的內(nèi)容,都屬于合規(guī)合法,后期網(wǎng)頁的內(nèi)容如出現(xiàn)違規(guī),可以直接聯(lián)系網(wǎng)站管理員進(jìn)行刪除,OpenI不承擔(dān)任何責(zé)任。