今日arXiv最熱NLP大模型論文:基于語言模型模擬的經(jīng)濟學研究
AIGC動態(tài)歡迎閱讀
原標題:今日arXiv最熱NLP大模型論文:基于語言模型模擬的經(jīng)濟學研究
關鍵字:解讀,數(shù)據(jù),人類,模型,策略
文章來源:夕小瑤科技說
內容字數(shù):8575字
內容摘要:
夕小瑤科技說 原創(chuàng)作者 | 芒果、Python引言:經(jīng)濟選擇預測的新視角在經(jīng)濟決策的預測領域,傳統(tǒng)方法通常受限于獲取人類選擇數(shù)據(jù)的難度。實驗經(jīng)濟學研究大多集中在簡單的選擇設置上,而這些設置往往無法捕捉復雜的人類行為。近年來,人工智能社區(qū)通過兩種方式為這一領域做出了貢獻:一是探討大型語言模型(LLMs)是否能在簡單的選擇預測設置中替代人類;二是通過機器學習(ML)的視角研究更復雜的實驗經(jīng)濟學設置,這些設置涉及不完全信息、重復游戲和自然語言交流,尤其是基于語言的說服游戲。這引出了一個重要的啟示:LLMs是否能夠完全模擬經(jīng)濟環(huán)境并生成數(shù)據(jù),以高效預測人類選擇,從而替代復雜的經(jīng)濟實驗室研究?
本文開創(chuàng)性地研究了這一主題,并證明了其可行性。本文展示了一個僅基于LLM生成數(shù)據(jù)的模型能夠有效預測人類在基于語言的說服游戲中的行為,并且甚至能夠超越基于實際人類數(shù)據(jù)訓練的模型。
論文標題:
Can Large Language Models Replace Economic Choice Prediction Labs?
論文鏈接:
https://arxiv.org/pdf/2401.17435.pdf
原文鏈接:今日arXiv最熱NLP大模型論文:基于語言模型模擬的經(jīng)濟學研究
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:更快的AI前沿,更深的行業(yè)洞見。聚集25萬AI一線開發(fā)者、互聯(lián)網(wǎng)中高管和機構投資人。一線作者來自清北、國內外頂級AI實驗室和大廠,兼?zhèn)湫袠I(yè)嗅覺與報道深度。