為什麼英國學者主張將大型語言模型產生的錯誤資訊正名為「胡說」而非「AI幻覺」?
Answer
英國學者為何主張將 LLM 錯誤資訊正名為「胡說」?
英國學者認為,將大型語言模型(LLM)產生的錯誤資訊稱為「AI 幻覺」具有誤導性,因為這暗示模型試圖陳述事實卻失敗了。格拉斯哥大學學者 Michael Townsen Hicks 等人於《倫理與資訊科技》期刊發表論文,主張應將其正名為哲學意義上的「胡說」,理由是 LLM 的設計本質上對真相漠不關心。LLM 的核心運作機制是生成看似可信的文本,而非傳達真相。
「AI 幻覺」一詞的誤導性與潛在風險
研究者指出,「幻覺」一詞源自人類心理學,暗示 AI 在嘗試感知或陳述真實世界時發生了認知偏差或錯誤。這種說法會誤導公眾、政策制定者甚至開發者,讓他們誤以為 AI 的目標是追求真理,只是偶爾會「看錯」或「記錯」。學者認為這種誤解可能導致錯誤的技術解決方案和公眾認知。
「胡說」的分類與 LLM 的本質
論文將「胡說」分為兩種:僅對真相冷漠的「軟胡說」,以及意圖欺騙聽眾、偽裝成真理講述者的「硬胡說」。學者認為,ChatGPT 至少屬於前者,因為其設計目標並非傳遞或驗證事實,而是根據龐大的數據資料,計算並生成最可能符合語境、看起來最像人類會說的話。系統本身對於其產出內容的真實性「漠不關心」,這正是「胡說」的關鍵特徵:一種完全不在乎真假的言談。