AIGC動態歡迎閱讀
原標題:多語言大模型新SOTA!Cohere最新開源Aya-23:支持23種語言,8B/35B可選
關鍵字:模型,語言,數據,任務,英語
文章來源:新智元
內容字數:0字
內容摘要:
新智元報道編輯:LRS
【新智元導讀】Aya23在模型性能和語言種類覆蓋度上達到了平衡,其中最大的35B參數量模型在所有評估任務和涵蓋的語言中取得了最好成績。雖然LLM在過去幾年中蓬勃發展,但該領域的大部分工作都是以英語為中心的,也就是說,雖然模型的能力很強,但也僅限于英語、漢語等使用人數多的語言,在處理資源匱乏的語言時往往性能不佳。
想要破局多語言,兩個關鍵在于強大的多語言預訓練模型以及足量的、涵蓋多種語言的指令訓練數據。
為了解決上述問題,最近,加拿大的獨角獸AI公司Cohere開源了兩種尺寸(8B和35B)的多語言模型Aya23,其中Aya-23-35B在所有評估任務和涵蓋的語言中取得了最好成績。論文鏈接:
https://cohere.com/research/papers/aya-command-23-8b-and-35b-technical-report-2024-05-23
Aya-23-8B: https://huggingface.co/CohereForAI/aya-23-8B
Aya-23-35B: https://huggingface.co/CohereFo
原文鏈接:多語言大模型新SOTA!Cohere最新開源Aya-23:支持23種語言,8B/35B可選
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...