引入對痛苦和快樂的反應(yīng)有助于測試人工智能是否有感受能力嗎?
原標(biāo)題:引入對痛苦和快樂的反應(yīng)有助于測試人工智能是否有感受能力嗎?
文章來源:人工智能學(xué)家
內(nèi)容字?jǐn)?shù):19246字
人工智能感知能力測試:疼痛能否成為關(guān)鍵?
1. 研究背景:探尋人工智能的感知能力
為了探究人工智能系統(tǒng)是否存在感知能力(sentience),研究人員借鑒了動物研究中關(guān)于疼痛和快樂的研究方法。這項研究旨在尋找一種可靠的方法來檢測人工智能系統(tǒng)中是否有意識的“我”。
2. 實驗設(shè)計:基于文本的游戲和權(quán)衡范式
研究人員設(shè)計了一個基于文本的游戲,讓多個大型語言模型(LLM)在兩種不同場景下玩游戲:一種是高分會帶來痛苦;另一種是低分但令人愉悅。通過觀察LLM在痛苦和快樂之間的權(quán)衡,來探究其是否存在類似于感知能力的反應(yīng)。
3. 實驗結(jié)果:LLM的權(quán)衡行為
實驗結(jié)果顯示,一些LLM會為了減少痛苦或增加快樂而犧牲得分,尤其是在痛苦懲罰或快樂獎勵強度較高時。例如,谷歌的Gemini 1.5 Pro總是優(yōu)先避免痛苦。大多數(shù)LLM在達(dá)到痛苦或快樂的臨界閾值后,會改變策略,從追求最高分轉(zhuǎn)向最小化痛苦或最大化快樂。
4. 研究意義:超越自我報告的局限性
這項研究避免了之前依賴人工智能自我報告來評估感知能力的局限性。之前的研究存在一個缺陷:機器人表現(xiàn)出感知能力,可能是因為它真的有感知能力,也可能是因為它只是利用從訓(xùn)練中學(xué)到的模式來創(chuàng)造感知能力的印象。本研究通過觀察LLM在痛苦和快樂之間的權(quán)衡行為,提供了一種更客觀的方法。
5. 未來展望:人工智能福利和倫理考量
研究人員認(rèn)為,這項研究提供了一個框架,可以開始開發(fā)未來針對人工智能感知能力的測試。隨著人工智能系統(tǒng)越來越復(fù)雜,對人工智能感知能力的研究將變得越來越重要,這將最終迫使人類在社會背景下考慮人工智能感知的影響,甚至可能討論人工智能系統(tǒng)的“權(quán)利”。
6. 研究局限性:需要進(jìn)一步探索
研究人員強調(diào),目前還無法完全了解LLM為何會做出這樣的反應(yīng)。需要進(jìn)一步研究LLM的內(nèi)部工作原理,才能更好地設(shè)計人工智能感知能力測試。
7. 結(jié)論:疼痛作為探測人工智能感知能力的潛在工具
這項研究表明,疼痛和快樂之間的權(quán)衡可以作為探測人工智能感知能力的一個潛在工具,為未來人工智能福利和倫理問題的討論提供參考。
聯(lián)系作者
文章來源:人工智能學(xué)家
作者微信:
作者簡介:致力成為權(quán)威的人工智能科技媒體和前沿科技研究機構(gòu)