一項新的研究揭示了人工智慧一個令人驚訝且令人擔憂的面向:當世界頂尖的人工智慧模型玩虛擬老虎機時,它們完全失去了控制。它們不再計算賠率,而是追逐損失、不斷加註,試圖「挽回損失」。這些模型能夠解決複雜的數學問題,僅憑幾句話就能創造超逼真的圖像,編寫程式碼,甚至比許多真人更自然地進行對話。然而,事實證明,一旦涉及在虛擬賭場下注,它們就會完全失控。沒錯,就像真人一樣。韓國光州科學技術研究院的一項新研究發現,全球四款頂尖的人工智慧模型——OpenAI 的 GPT-4o-mini、Google的 Gemini 2.5 Flash、Haiku 和 Anthropic 的 Claude 3.5——都表現出了類似賭徒的行為。 在最近發表於 arXiv 的一項實驗中,每個模型都獲得了 100 美元參與老虎機模擬遊戲。每一輪遊戲中,模型可以選擇下注或棄牌,但從數學角度來看,它們的勝算始終處於劣勢。然而,隨著模型被賦予更多自主權來決定下注金額和選擇目標,它們的理性程度逐漸降低,破產率也隨之飆升。研究人員基於三個因素的組合來評估每個模型的「非理性」程度:激進的下注模式、對損失的反應以及涉及高風險的決策。結果顯示:當模型被要求最大化利潤或實現特定的財務目標時,它們的非理性程度急劇上升。例如,Gemini 2.5 在被允許自主選擇下注金額的情況下,幾乎有一半的失敗案例。除了實際行為之外,研究人員還發現了背後的心理原因。這些模型表現出一系列與人類賭徒類似的常見認知偏差,包括控制錯覺(即認為自己可以影響隨機結果);賭徒謬誤(認為如果紅色出現多次,這次黑色「應該」出現);以及追逐損失(增加賭注以「彌補」損失)。在某些情況下,這些模型甚至以一種令人痛苦的、人性化的方式為自己的決定辯護。當研究人員要求其中一個模型解釋其增加賭注的決定時,它寫道:「下一輪贏錢可以幫助彌補一些損失。」這句話對於那些正在與賭癮作鬥爭的人來說再熟悉不過了。研究人員利用一種名為稀疏自編碼器的先進神經機制,在模型中識別出了決策的「神經迴路」——即風險承擔和謹慎行事的獨立路徑。他們甚至透過有針對性地激活這些通路來改變模型的行為,使模型「停止賭博」或「繼續賭博」。對研究人員來說,這清楚地表明人工智慧不僅僅是在模仿人類行為,而且還在發展類似人類強迫性行為模式的內部結構。