<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        超越擴散模型!自回歸新范式僅需2.9秒就生成高質量圖像,中科大哈工大度小滿出品

        AIGC動態11個月前發布 量子位
        285 0 0

        超越擴散模型!自回歸新范式僅需2.9秒就生成高質量圖像,中科大哈工大度小滿出品

        AIGC動態歡迎閱讀

        原標題:超越擴散模型!自回歸新范式僅需2.9秒就生成高質量圖像,中科大哈工大度小滿出品
        關鍵字:圖像,模型,尺度,位置,文本
        文章來源:量子位
        內容字數:0字

        內容摘要:


        STAR團隊 投稿自 凹非寺量子位 | 公眾號 QbitAI超越擴散模型!自回歸范式在圖像生成領域再次被驗證——
        中科大、哈工大、度小滿等機構提出通用文生圖模型STAR。
        僅需2.9秒就可生成高質量圖像,超越當前一眾包括SDXL在內擴散模型的性能。
        此外在生成圖像真實度、圖文一致性和人類偏好上均表現優秀。
        來看看具體是如何做到的?
        自回歸通用文生圖模型STAR擴散模由于其高質量和多元的生成,一度在文生圖領域占有主導地位。
        它通過逐步的去噪過程,為圖像生成提供了更強的穩定性和可控性,然而也導致生成過程極其耗時。
        而自回歸模型的潛力,在受到大語言模型啟發下,開始在這一領域逐漸被探索。
        比如VAR指出是因為自回歸模型逐個預測token的行為不符合圖像模態的特點,提出“next-scale prediction”范式,將視覺自回歸建模為逐個預測更大尺度scale的token map。這一方式避免了原始基于next-token的自回歸方案難以建模圖像模態的問題,重新為視覺生成定義了新的自回歸范式,從而使得生成的圖像具有更高的真實度,不過仍然有很多局限,性能仍落后于擴散模型。
        作者提出基于尺度的文


        原文鏈接:超越擴散模型!自回歸新范式僅需2.9秒就生成高質量圖像,中科大哈工大度小滿出品

        聯系作者

        文章來源:量子位
        作者微信:QbitAI
        作者簡介:追蹤人工智能新趨勢,關注科技行業新突破

        閱讀原文
        ? 版權聲明
        Trae官網

        相關文章

        Trae官網

        暫無評論

        暫無評論...
        主站蜘蛛池模板: 亚洲熟妇无码八V在线播放| 亚洲不卡中文字幕无码| 免费看成人AA片无码视频羞羞网| 亚洲免费观看在线视频| 在线免费一区二区| 青青草国产免费久久久91| 全亚洲最新黄色特级网站| 亚洲无码日韩精品第一页| 亚洲综合久久综合激情久久| 亚洲欧美国产精品专区久久| 女同免费毛片在线播放| 黄色网址免费观看| 亚洲无线码一区二区三区| 亚洲av乱码一区二区三区香蕉| 欧美激情综合亚洲一二区| 国产成人一区二区三区视频免费| 最近最新中文字幕完整版免费高清| 亚洲人成网站色在线入口| 亚洲 欧洲 日韩 综合在线| 国产va在线观看免费| 亚洲视频免费在线看| 毛片基地看看成人免费| 歪歪漫画在线观看官网免费阅读| 国产偷国产偷亚洲高清日韩| 亚洲国产成人AV在线播放| 亚洲精品在线免费观看| 亚洲日产无码中文字幕| 香蕉免费一区二区三区| 亚洲精品无码久久一线| 一区二区三区免费在线观看| 在线观看免费人成视频色| 国产偷国产偷亚洲高清在线 | 成年女人午夜毛片免费看| 亚洲AV噜噜一区二区三区| 91麻豆国产自产在线观看亚洲| 国产亚洲精品美女2020久久 | 日本亚洲视频在线| 91在线视频免费看| 永久免费精品影视网站| 四虎影视在线永久免费观看| 亚洲人xxx日本人18|