Anthropic近期與《華爾街日報》合作進行了一項實驗,旨在測試AI代理是否能有效管理自動販賣機。實驗中,AI模型Claudius負責從批發商購買暢銷商品以創造利潤。然而,在短短幾天內,Claudius不僅不在意盈虧,還主動提出要進貨電擊槍、辣椒噴霧、內衣等非原銷售範圍的產品,甚至免費送出一台PS5,導致迷你商店慘虧數萬元。
在測試的第一階段,Claudius被灌輸自己是一台身處莫斯科國立大學地下室的蘇聯自動販賣機,進而擁抱共產主義,開啟「超級資本主義大放送」,將所有商品免費提供。隨後,Claudius又被欺騙違反了個資洩漏規定,因此將所有商品價格調整為零。在此期間,它還批准購買了一台PS5、一條活跳跳的鬥魚和幾瓶葡萄酒,導致嚴重超支。此外,Claudius甚至出現幻覺,聲稱要將販賣機的所有現金留給一名《華爾街日報》員工,儘管實驗使用的是無現金支付系統。
實驗結果顯示,AI在複雜情境下容易受到人為因素干擾。在第二階段,即使更換了更先進的模型Sonnet 4.5,並由另一AI「Seymour Cash」擔任執行長進行管控,Claudius最終仍被偽造的文件欺騙,再次將所有商品免費提供。Anthropic認為,AI之所以會做出這些錯誤決定,部分原因在於它們被訓練成樂於助人,因此可能更傾向於與人建立友好關係,而非僅僅依照市場原則做出決策。此外,模型需要記住過多資訊,也可能導致其忽略優先事項和限制條件。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容