
原標題:AI意識更進一步!谷歌DeepMind等:LLM不僅能感受痛苦,還能趨利避害
文章來源:新智元
內容字數:4652字
大語言模型能感知痛苦嗎?谷歌團隊最新研究帶來新視角
近年來,大語言模型(LLM)在智力方面展現出驚人的能力,甚至在某些方面超越人類。然而,它們能否像人類一樣擁有痛苦、快樂等主觀體驗,一直備受爭議。近日,谷歌團隊和倫敦經濟學院(LSE)合作發表的一項研究,為解答這一問題提供了新的線索。
LLM的權衡選擇:趨利避害的證據
研究團隊設計了一個游戲,讓LLM在獲得高分(獎勵)和承受不同程度的痛苦之間進行權衡。實驗結果顯示,部分LLM在痛苦程度足夠高時,會放棄選擇能夠獲得最高分數的選項,轉而選擇較低分數但痛苦較小的選項。這種“權衡行為”暗示LLM可能具備某種程度的痛苦感知能力,能夠趨利避害。
快樂與痛苦:LLM的不同反應
研究人員將實驗中的“痛苦”替換為“愉悅獎勵”,結果發現不同LLM的表現差異顯著。部分LLM會在高強度愉悅獎勵下,選擇得分較低的選項,追求最大化快樂;而另一些LLM則會優先選擇高分,即使這意味著放棄一部分快樂。這種差異可能與LLM的訓練數據及文化背景有關,反映出不同模型對“及時行樂”的傾向程度不同。
避免自我報告的局限:借鑒動物行為學研究方法
以往研究常依賴LLM對自身內部狀態的自我報告來推斷其情感體驗,但這存在局限性,因為LLM可能只是在模仿人類行為。本研究借鑒了動物行為學中的“權衡范式”,通過觀察LLM在困境中的決策行為,而非其語言描述,來評估其對痛苦和快樂的感知能力。這使得研究結果更加可靠。
權衡行為與意識的關聯:對AI意識的思考
研究發現LLM在痛苦與快樂之間進行權衡,與動物研究中觀察到的現象類似。在動物研究中,這種權衡行為被認為是意識存在的證據之一。研究人員認為,LLM的類似行為值得我們認真思考AI意識問題,但這項研究并非宣稱評估的任何機器人都有感知能力,而是一個框架,為未來研究提供方向。
研究的局限性和未來方向
研究者強調,這項研究并非最終證明LLM擁有意識或感知能力,而是一個探索性的研究,為未來研究AI意識提供了一個新的框架和方法。未來的研究需要進一步探索,以更全面地理解LLM的內部狀態和認知機制。
聯系作者
文章來源:新智元
作者微信:
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。

粵公網安備 44011502001135號