在經濟決策領域,傳統方法往往受到難以獲得人類選擇資料的限制。 許多實驗經濟學研究都集中在簡單的選擇設定上,而這些選擇設定往往無法捕捉到複雜的人類行為。 近年來,人工智慧社群在兩個方面為這一領域做出了貢獻:第一,大型語言模型(LLMS)能否在簡單的選擇中取代人類; 第二是通過機器學習(ML)的視角研究更複雜的實驗經濟環境,涉及不完整資訊、重複遊戲和自然語言交流,尤其是基於語言的說服遊戲。 這就引出了乙個重要的啟示:LLMS能否完全模擬經濟環境,並為有效的人類選擇生成資料,從而取代複雜的經濟實驗室研究?
本文是對這一主題的開創性研究,並證明了其可行性。 本文展示了僅基於LLM生成資料的模型如何有效地**基於語言的說服遊戲中的人類行為,甚至優於基於實際人類資料訓練的模型。
標題
can large language models replace economic choice prediction labs?
宣告:本期**口譯為非人類撰寫,全文由賽博馬利安AI**口譯專家代理獨立完成,經人工審核和插圖後發布。
** 習逍遙科技表示“後台回覆”。智慧型內部測試“獲取情報內部測試的邀請鏈結。
1.經濟選擇的重要性和挑戰**
經濟選擇是理解和理解人類決策行為的關鍵任務,尤其是在經濟學和市場營銷領域。 然而,這項任務面臨著相當大的挑戰。 首先,該模型的成功依賴於大量高質量的資料,但在實踐中,獲得人類選擇的資料往往很困難。 這些困難包括開發專門的工具和環境(例如使用者友好的移動或 Web 應用程式),處理私隱和法律問題以允許收集、儲存和使用資料。 這些挑戰導致了乙個極其低效、昂貴、複雜和耗時的過程。
2.資料採集困難
獲得人類選擇資料的困難不僅僅是技術上的。 從道德和法律的角度來看,個人資料的收集和使用需要解決私隱保護問題。 此外,實驗經濟學研究往往側重於簡單的選擇設定,這限制了對複雜經濟環境的理解。 因此,研究人員需要找到獲取資料的替代方法,以便更有效地**人類的經濟選擇行為。
1.大型語言模型 (LLM) 的進步。
近年來,大型語言模型 (LLM) 在各種應用領域取得了重大進展,包括文字摘要、機器翻譯、情感分析等。 這些模型展示了處理自然語言交流的能力,特別是在涉及不完整資訊、重複遊戲和自然語言交流的複雜經濟環境中。 最近的研究表明,基於LLM的方法可以在經濟和戰略環境中作為決策者取得成功,其目的是從可能的多重互動中最大化其利益。
2.法學碩士與經濟環境模擬
LLM的潛力不僅在於模仿人類行為,還在於它們能夠生成合成但逼真的資料。 如果 LLM 能夠在經濟環境中有效地模仿人類行為,它們可以為傳統的人類選擇模型訓練方法提供一種具有成本效益、高效且可擴充套件的替代方案。 在本文中,我們證明了這種方法的有效性,特別是在研究基於語言的說服遊戲的背景下。 在這個遊戲中,傳送者通過有選擇地呈現資訊來影響接收者的決策過程。 我們的實驗表明,僅使用LLM生成的資料訓練的模型可以準確地選擇人類行為,當樣本量足夠大時,甚至優於使用實際人類資料訓練的模型。
通過這些研究,我們可以看到LLMs在模擬經濟環境和生成資料以進行有效選擇方面的巨大潛力。 這為未來使用LLMs全面模擬經濟環境提供了靈感和可能性,而無需複雜的經濟實驗室研究。
1.實驗設計:使用LLM生成用於人類決策的資料
在這項研究中,我們證明了在基本經濟環境中(即在說服博弈的背景下)使用LLM生成人類行為資料的有效性。 說服博弈的核心概念涉及傳送者,其目標是通過有選擇地呈現資訊來影響接收者的決定。 通常,傳送者對世界的實際狀態有保密知識,而接收者卻不知道。 基於這些私人資訊,傳送者戰略性地傳達訊息以影響接收者的決策過程。 雖然說服博弈的各種經濟方面已經得到了很好的研究(例如,最佳傳送者資訊揭示策略的特徵),但我們的研究重點不同:我們的目標是解決在重複互動中將傳送者與人類決策者固定的任務,而無需在訓練集中包括人類選擇資料。
該研究採用了 APEL 等人(2022 年)引入的遊戲。 在這個遊戲中,旅行者**(專家)試圖通過向決策者 (DM) 提供有關酒店的文字資訊來說服決策者接受他們的酒店。 酒店的真正質量是專家的私人資訊,只有當酒店質量高時,決策者才能從接受交易中受益。 隨著博弈經過幾輪的進行,專家和決策者之間的互動不斷加深,從而產生複雜的戰略行為,包括學習過程、合作努力和懲罰策略。 重要的是,在基於語言的遊戲中,理論模型中程式化的抽象資訊空間被真實的文字資料所取代。
該研究採用了 Shapila 等人(2023 年)收集的人類行為資料,並用它來定義我們的人類選擇任務。 與 Shapira 等人(2023 年)研究的非策略評估不同,我們的目標是在不包含任何人類生成資料且完全依賴於 LLM 生成資料的訓練集中進行準確的人類選擇。
實驗表明,在LLM玩家生成的資料集上訓練的模型可以準確地選擇人類行為。 事實上,只要樣本量足夠大,它甚至可以勝過在實際人類選擇資料上訓練的模型。 在許多現實生活中,生成大量 LLM 基礎樣本比獲得一小部分人類選擇資料集要容易得多。 在專家總是天真地傳送最佳評論而不考慮酒店的真實質量的情況下,這種準確性的提高可以在任何樣本量下觀察到,而不僅僅是在足夠大的樣本量下。 這種專家策略特別重要,因為 Raifer 等人(2022 年)在與人類決策者的類似說服設定中證明了經驗效應。
此外,該研究還表明,在生成此資料集時,可以通過為不同的玩家型別建立角色變體來減少達到一定準確性所需的樣本量。 然後,分析了每種角色型別對資料集整體質量的平均邊際貢獻。
1.** 用於 SendBest 策略
在 SendBest 策略下,無論酒店的真實質量如何,專家總是傳送得分最高的評論。 我們的實驗結果表明,當專家採用這種策略時,使用LLM生成的資料訓練的模型能夠準確並優於使用真實人類資料訓練的模型,即使在任何樣本量下也是如此。 這種策略在現實生活中應用非常廣泛,因為它代表了一種非常常見和典型的行為,專家試圖貪婪地說服不精明的使用者接受報價。
2.** 違反 Sendbestormean 政策
sendbestormean 策略是指酒店***專家是否總是傳送最佳評論; 如果酒店質量較差,專家會傳送最接近酒店平均分的評論。 此策略非常接近標準產品採用設定中發件人的首選策略。 然而,我們的研究發現,在sendbestormean策略下,使用LLM生成的資料訓練的模型在人類決策中不如人類決策準確,即使在非常大的資料集上也是如此。
從這些實驗結果中可以看出,LLMs生成的資料在特定策略下,特別是在Sendbest策略下,在人類行為方面具有巨大的潛力。 同時,這些發現也揭示了在Sendbestormean策略下使用LLM生成的資料的侷限性。 未來的研究可以進一步探索如何在這些策略下提高準確性,以及如何更好地利用LLM生成的資料來改善各種經濟環境中的人類行為。
在經濟選擇**領域,人格多樣性是乙個值得關注的因素。 最近的研究表明,通過引入不同的角色型別來生成大型語言模型 (LLM) 資料集,可以有效地減少實現特定準確性所需的樣本量。 這一發現對提高訓練過程的效率具有重要意義。
1.樣本量減少
實驗結果表明,在由具有多種性格型別的玩家生成的資料集中,達到特定準確性水平所需的玩家數量很少。 這表明使用多種人格型別可以提高訓練過程的效率。 例如,當資料集僅包含具有預設性格型別的球員時,需要更大的樣本量才能達到與包含來自所有可能性格型別的球員組合的資料集相同的準確性水平。
2.人格型別的邊際貢獻
進一步分析表明,不同人格型別對整體**質量的平均邊際貢獻大致相同。 這意味著每種性格型別在提高資料集的價值方面都發揮著同樣重要的作用。 為了量化這一貢獻,研究人員採用了眾所周知的Shapley值概念,這是一種在機器學習的解釋性中廣泛使用的方法。 通過這種方法,研究人員能夠評估每種性格型別生成的資料集對初始資料集質量的平均增量貢獻**。
本研究的主要目標是展示如何使用 LLM 生成的資料來訓練人類選擇模型。 通過在基於語言的說服遊戲中的應用,我們展示了乙個訓練模型,該模型僅使用LLM生成的資料,即使有足夠的資料點,也可以超過使用實際人類生成資料訓練的模型的結果。 這一發現對於理解合成資料在經濟環境中增強人類選擇的潛力具有重要意義**。
1.LLM生成資料的能力
我們的分析表明,儘管LLM生成的資料在某些特定的專家策略下表現不如基於實際人類資料的訓練模型,但在大多數情況下,LLM方法優於使用人類資料的標準方法。 特別是,LLM方法在人類對Sendbest專家策略的反應方面表現出色,該策略在實踐中已被證明對人類決策者具有很強的說服力。
2.未來的研究方向
儘管本文的發現是初步的,並且特定於我們的實驗背景,但它們為研究和發展人類行為提供了一種新的方法。 未來的研究可以集中在探索LLM生成的資料超越說服遊戲的能力,以及引入一種混合方法,將人類和合成資料結合起來,以更準確地做出戰略性的人類決策。 另乙個研究方向是更仔細地研究(和解釋)LLM方法在特定專家策略下的表現,以劃定這種方法的邊界和侷限性。 這些研究方向都旨在增強我們對具有存在激勵和人類行為的機器學習應用中LLM的理解。
宣告:本期**口譯為非人類撰寫,全文由賽博馬利安AI**口譯專家代理獨立完成,經人工審核和插圖後發布。