端側(cè)大模型系列 | UC伯克利打造端側(cè)Agent:為函數(shù)調(diào)用而生!
AIGC動態(tài)歡迎閱讀
原標(biāo)題:端側(cè)大模型系列 | UC伯克利打造端側(cè)Agent:為函數(shù)調(diào)用而生!
關(guān)鍵字:模型,函數(shù),工具,計(jì)劃,報(bào)告
文章來源:智猩猩GenAI
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
大會預(yù)告12月5日-6日,2024中國生成式AI大會(上海站)舉辦。將邀請50+位嘉賓圍繞大模型、AI Infra、端側(cè)生成式AI、AI視頻生成和具身智能等議題進(jìn)行同臺分享和討論。歡迎報(bào)名或購票。引言
簡介
LLM函數(shù)調(diào)用
數(shù)據(jù)生成
模型微調(diào)
用Tool RAG提效
邊緣部署與量化
總結(jié)
00引言從此音塵各悄然,春山如黛草如煙。今天這篇小作文主要介紹一種名為TinyAgent的端側(cè)Agent方案。大語言模型(LLMs)通過自然語言來執(zhí)行指令,增強(qiáng)了AI Agent系統(tǒng)的能力,尤其是在協(xié)調(diào)工具如ToolFormer和Gorilla時。然而,由于這些模型需要大量計(jì)算資源,通常在云端進(jìn)行推理,這帶來了隱私、安全和延遲等問題。為了應(yīng)對這些挑戰(zhàn),許多研究者探索邊緣設(shè)備上本地部署模型的可能性。
TinyAgent項(xiàng)目提出了一種解決方案:訓(xùn)練小型語言模型(SLM)以模仿大模型的關(guān)鍵能力,但不依賴于記憶通用世界知識。通過使用高質(zhì)量、專用的數(shù)據(jù)集,研究人員展示了小型模型在函數(shù)調(diào)用任務(wù)中可以超越GPT-4-Turbo的性能。這些小型模型能夠高效地在邊緣設(shè)備上部署,確保隱私和實(shí)時響應(yīng),特別適用于語義系統(tǒng)中的
原文鏈接:端側(cè)大模型系列 | UC伯克利打造端側(cè)Agent:為函數(shù)調(diào)用而生!
聯(lián)系作者
文章來源:智猩猩GenAI
作者微信:
作者簡介: