對話南洋理工大學(xué)安波教授:如何讓大語言模型適應(yīng)動態(tài)環(huán)境?丨IJAIRR
AIGC動態(tài)歡迎閱讀
原標題:對話南洋理工大學(xué)安波教授:如何讓大語言模型適應(yīng)動態(tài)環(huán)境?丨IJAIRR
關(guān)鍵字:模型,環(huán)境,語言,動作,人類
文章來源:AI科技評論
內(nèi)容字數(shù):0字
內(nèi)容摘要:
智能體實現(xiàn)AGI的自我超越,從與環(huán)境交互做起。作者丨陳鷺伊
編輯丨岑峰
對人類越是簡單的問題,大語言模型反而越難以做好?
盡管現(xiàn)在的大模型已經(jīng)有能力沖擊數(shù)學(xué)競賽級別的題目,但在像“9.11和9.9誰大”這樣的簡單問題上仍然會翻船。而從上網(wǎng)友對問題的討論中猜測,出現(xiàn)這種錯誤的原因可能是由于大模型以token的方式來理解文字,當9.11被拆成“9”、“.”和“11”三部分時,11確實比9大。
大語言模型(LLMs)在處理復(fù)雜問題時表現(xiàn)出色,但在一些看似簡單的問題上卻可能遇到困難——這種現(xiàn)象并不是因為模型本身的復(fù)雜性,而是由于模型與特定環(huán)境或任務(wù)之間的知識不對齊。此外,LLMs在生成文本時依賴于預(yù)測下一個單詞的概率,這種機制可能導(dǎo)致它們生成與人類常識不符的結(jié)果。這是因為現(xiàn)有的模型通常側(cè)重于語言的統(tǒng)計特性,而不是深入理解人類的價值觀和偏好。
隨著大語言模型的能力不斷增強,人們對其可能帶來的倫理風險和對人類的潛在威脅的擔憂也在增加。LLMs可能會傳播其訓(xùn)練數(shù)據(jù)中的有害信息,如偏見、歧視和有害內(nèi)容。它們還可能泄露訓(xùn)練數(shù)據(jù)中的私密和敏感信息,或生成誤導(dǎo)性或虛假信息。隨著這些Agent越來越多地融
原文鏈接:對話南洋理工大學(xué)安波教授:如何讓大語言模型適應(yīng)動態(tài)環(huán)境?丨IJAIRR
聯(lián)系作者
文章來源:AI科技評論
作者微信:
作者簡介: