離職谷歌的Transformer作者創(chuàng)業(yè),3個模型(附技術(shù)報告)
AIGC動態(tài)歡迎閱讀
原標題:離職谷歌的Transformer作者創(chuàng)業(yè),3個模型(附技術(shù)報告)
關(guān)鍵字:模型,報告,日語,方法,研究者
文章來源:機器之心
內(nèi)容字數(shù):5586字
內(nèi)容摘要:
機器之心報道
編輯:陳萍、小舟去年 8 月,兩位著名的前谷歌研究人員 David Ha、Llion Jones 宣布創(chuàng)立一家人工智能公司 Sakana AI,總部位于日本東京。其中,Llion Jones 是谷歌 2017 年經(jīng)典研究論文《Attention is all you need》的第五作者,該論文提出了深度學(xué)習(xí)架構(gòu) transformer。transformer 對整個機器學(xué)習(xí)領(lǐng)域產(chǎn)生了重要影響,并且是 ChatGPT 等生成式 AI 模型的基礎(chǔ)。論文于 2017 年 6 月首次發(fā)表后,隨著全球?qū)ιぶ悄苋瞬鸥偁幉粩嗌郎兀撐淖髡哧懤m(xù)離開谷歌,自立門戶創(chuàng)業(yè)。Llion Jones 是八位作者中最后一個退出谷歌的人。
David Ha、Llion Jones 成立的初創(chuàng)公司 Sakana AI 致力于構(gòu)建生成式 AI 模型。最近,Sakana AI 宣布推出一種通用方法 ——Evolutionary Model Merge。該方法使用進化算法來有效地發(fā)現(xiàn)組合不同開源模型的最佳方法,這些開源模型具有不同功能。Evolutionary Model Merge 方法能夠自動創(chuàng)建
原文鏈接:離職谷歌的Transformer作者創(chuàng)業(yè),3個模型(附技術(shù)報告)
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺