AIGC動態歡迎閱讀
原標題:Meta再放「長文本」殺器Llama 2-Long:70B尺寸登頂最強「32k上下文」模型,超越ChatGPT
文章來源:新智元
內容字數:12616字
內容摘要:新智元報道編輯:LRS【新智元導讀】Llama 2-Long計算量需求比重新訓練降低40%,還不影響短任務性能!雖然大型語言模型在處理日常問答、總結文本等任務上表現非常出色,但如何讓LLM在不顯著增加計算需求、不降低短文本性能的前提下,能夠處理「超長文本輸入」仍然是一個難題。最近,Meta團隊公開了支持長上下文的模型Llama 2 Long的訓練方法,該模型的有效上下文窗口多達32768個toke…
原文鏈接:點此閱讀原文:Meta再放「長文本」殺器Llama 2-Long:70B尺寸登頂最強「32k上下文」模型,超越ChatGPT
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...