覆蓋 7 百萬問答數(shù)據(jù),上海 AI Lab 發(fā)布 ChemLLM,專業(yè)能力比肩 GPT-4
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:覆蓋 7 百萬問答數(shù)據(jù),上海 AI Lab 發(fā)布 ChemLLM,專業(yè)能力比肩 GPT-4
關(guān)鍵字:化學(xué),模型,數(shù)據(jù),任務(wù),能力
文章來源:HyperAI超神經(jīng)
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
作者:李姝
編輯:李姝,李寶珠
化學(xué)大語言模型 ChemLLM 是首個(gè)兼?zhèn)浠瘜W(xué)專業(yè)能力和對(duì)話、推理等通用能力的開源大模型。目前 HyperAI超神經(jīng)官網(wǎng) (hyper.ai) 已上線「一鍵部署化學(xué)大模型 ChemLLM-7B-chat」,詳細(xì)教程詳見下文。隨著人工智能技術(shù)的飛速發(fā)展,大語言模型 (LLMs) 憑借其強(qiáng)大的自然語言處理能力,在生命科學(xué)、海洋學(xué)、材料化學(xué)等科學(xué)研究中被廣泛應(yīng)用。雖然,LLMs 在分子特性預(yù)測(cè)、分子生成和實(shí)驗(yàn)方案設(shè)計(jì)等化學(xué)相關(guān)任務(wù)上表現(xiàn)良好,但在處理各種化學(xué)下游任務(wù)時(shí)表現(xiàn)欠佳。
究其原因,直接將化學(xué)知識(shí)集成到語言模型中,主要面臨三大挑戰(zhàn):首先,大多數(shù)化學(xué)信息和知識(shí)存儲(chǔ)在結(jié)構(gòu)化數(shù)據(jù)庫中,直接使用這些數(shù)據(jù)訓(xùn)練 LLMs 可能會(huì)損害模型處理自然語言的能力,使得模型的對(duì)話和邏輯推理能力發(fā)生退化;其次,在化學(xué)信息學(xué)中,分子用特殊符號(hào)表示,如 SMILES。然而這類數(shù)據(jù)往往不符合自然語言的規(guī)范,因此常規(guī)的語言模型難以正確理解和生成這種符號(hào);最后,化學(xué)數(shù)據(jù)和任務(wù)種類繁多,設(shè)計(jì)一個(gè)靈活并能泛化到多種化學(xué)任務(wù)上的訓(xùn)練流程十分困難。
針對(duì)于此,上海人工智能實(shí)驗(yàn)室發(fā)布了化學(xué)大語言模
原文鏈接:覆蓋 7 百萬問答數(shù)據(jù),上海 AI Lab 發(fā)布 ChemLLM,專業(yè)能力比肩 GPT-4
聯(lián)系作者
文章來源:HyperAI超神經(jīng)
作者微信:
作者簡介: