清華唐杰團(tuán)隊新作:一口氣生成2萬字,大模型開卷長輸出

AIGC動態(tài)歡迎閱讀
原標(biāo)題:清華唐杰團(tuán)隊新作:一口氣生成2萬字,大模型開卷長輸出
關(guān)鍵字:模型,長度,數(shù)據(jù),文本,研究人員
文章來源:量子位
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
明敏 發(fā)自 凹非寺量子位 | 公眾號 QbitAI一口氣生成2萬字,大模型輸出也卷起來了!
清華&智譜AI最新研究,成功讓GLM-4、Llama-3.1輸出長度都暴增。
相同問題下,輸出結(jié)果直接從1800字增加到7800字,翻4倍。
要知道,目前大模型的生成長度普遍在2k以下。這對于內(nèi)容創(chuàng)作、問題回答等都存在影響,可能導(dǎo)致模型回答問題不全面、創(chuàng)造性降低等。
該研究由智譜AI創(chuàng)始人、清華大學(xué)教授李涓子和唐杰共同領(lǐng)銜。
論文及代碼都已放在GitHub上開源。
有網(wǎng)友已經(jīng)搶先體驗。LongWriter-llama3.1-8b可生成萬字長文《羅馬帝國衰落史》,在MacBook Pro 2018(32GB)上就能運行。
輸出內(nèi)容很準(zhǔn)確,可以得A++。
9B模型搞定萬字輸出本項研究主要包括3方面工作。
分析文本生成長度限制因素
提出AgentWrite
擴(kuò)展LLM輸出窗口大小
首先,研究人員構(gòu)建了一個測試工具LongWrite-Ruler。通過測試多個大模型,他們發(fā)現(xiàn)所有模型在生成超過2000字的文本時都遇到了困難。
進(jìn)一步分析用戶和大模型的交互日志,研究人員發(fā)現(xiàn)只有超過1%的用戶請求明確提到要生
原文鏈接:清華唐杰團(tuán)隊新作:一口氣生成2萬字,大模型開卷長輸出
聯(lián)系作者
文章來源:量子位
作者微信:
作者簡介:

粵公網(wǎng)安備 44011502001135號