Nature 確認(rèn):大語言模型只是沒有感情的「學(xué)人精」
AIGC動態(tài)歡迎閱讀
原標(biāo)題:Nature 確認(rèn):大語言模型只是沒有感情的「學(xué)人精」
文章來源:HyperAI超神經(jīng)
內(nèi)容字?jǐn)?shù):7573字
內(nèi)容摘要:作者:李寶珠編輯:三羊DeepMind、EleutherAI 科學(xué)家提出,大模型只是在角色扮演。ChatGPT 爆火后,大語言模型一躍而至,成為了行業(yè)與資本的寵兒。而在人們或是獵奇、或是探究地一次次對話中,大語言模型所表現(xiàn)出的過度擬人化也引起了越來越多的關(guān)注。其實,在 AI 發(fā)展的數(shù)年沉浮之中,除了技術(shù)上的更新升級外,有關(guān) AI 倫理問題的種種爭論從未停止。尤其是在 ChatGPT 等大模型應(yīng)用持續(xù)深化之際,有關(guān)「大語言模型越來越像人」的甚囂塵上,甚至有前 Google 工程師稱,自家的機(jī)器人 LaMDA 已經(jīng)產(chǎn)生了自我意識。雖然這位工程師最終被 Google 辭退,但其卻一度將關(guān)于「AI 倫理」的討論推向了——如何判定機(jī)器人是否產(chǎn)生自我意識?大語言模型的擬人化究竟是蜜糖還是?ChatGPT 等機(jī)器人為什么會胡編亂造?……對此,來自谷歌 DeepMind 的 M…
原文鏈接:點此閱讀原文:Nature 確認(rèn):大語言模型只是沒有感情的「學(xué)人精」
聯(lián)系作者
文章來源:HyperAI超神經(jīng)
作者微信:HyperAI
作者簡介:解構(gòu)技術(shù)先進(jìn)性與普適性,解讀更前沿的 AIForScience 案例
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...