都白學(xué)了!Mistral 的首個(gè)“開(kāi)放”編程模型,精通Python、C等 80+ 語(yǔ)言,用220 億參數(shù)贏了 GPT-4
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:都白學(xué)了!Mistral 的首個(gè)“開(kāi)放”編程模型,精通Python、C等 80+ 語(yǔ)言,用220 億參數(shù)贏了 GPT-4
關(guān)鍵字:模型,字節(jié)跳動(dòng),代碼,華為,測(cè)試
文章來(lái)源:AI前線
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
整理 | 華衛(wèi)
5 月 29 日,由微軟支持、估值 60 億美元的法國(guó) AI 初創(chuàng)公司 Mistral 發(fā)布了其有史以來(lái)的第一個(gè)用于編碼的“開(kāi)放式”生成式 AI 模型,稱為 Codestral。
與其他代碼生成模型一樣,Codestral 旨在通過(guò)共享指令和完成 API 端點(diǎn),幫助開(kāi)發(fā)人員編寫代碼并與之交互。由于精通代碼和英語(yǔ),它還可用于為軟件開(kāi)發(fā)人員設(shè)計(jì)高級(jí)人工智能應(yīng)用程序。值得一提的是, Codestral 的參數(shù)要求很高,還受到一些許可證方面的使用場(chǎng)景限制。
雖然該模型剛剛推出,尚未進(jìn)行公開(kāi)測(cè)試,但 Mistral 聲稱,Codestral 在大多數(shù)編程語(yǔ)言上已經(jīng)優(yōu)于現(xiàn)有的以代碼為中心的模型,包括 CodeLlama 70B、Deepseek Coder 33B 和 Llama 3 70B。此外,Codestral 在 Kotlin 語(yǔ)言的表現(xiàn)上似乎還超過(guò)了 GPT-4-Turbo 和 GPT-3.5-Turbo。精通 80+ 編程語(yǔ)言
多個(gè)基準(zhǔn)測(cè)試中名列前茅
首先, Codestral 具備廣泛的語(yǔ)言基礎(chǔ),可以在各種編碼環(huán)境和項(xiàng)目中為開(kāi)發(fā)人員提供幫助。據(jù)悉,Codestral
原文鏈接:都白學(xué)了!Mistral 的首個(gè)“開(kāi)放”編程模型,精通Python、C等 80+ 語(yǔ)言,用220 億參數(shù)贏了 GPT-4
聯(lián)系作者
文章來(lái)源:AI前線
作者微信:ai-front
作者簡(jiǎn)介:面向AI愛(ài)好者、開(kāi)發(fā)者和科學(xué)家,提供大模型最新資訊、AI技術(shù)分享干貨、一線業(yè)界實(shí)踐案例,助你全面擁抱AIGC。