大型語言模型(LLM)如 ChatGPT 的設計目標並非追求真相,而是生成看似可信的文本。這種設計本質導致了 LLM 產出錯誤資訊的現象,有學者將其稱為哲學意義上的「胡說」(bullshit),並認為這種稱呼比「AI 幻覺」更為準確。核心原因在於,LLM 的運作機制是對真相漠不關心,僅著重於根據大量數據生成最符合語境的內容。
目前業界和媒體普遍使用的「AI 幻覺」一詞具有誤導性,暗示模型試圖陳述事實卻失敗。這種說法掩蓋了 LLM 的核心運作機制:生成看似可信的文本,而非傳達真相。學者認為,這種誤解可能導致錯誤的技術解決方案和公眾認知。使用「AI 幻覺」容易讓人們誤以為 AI 的目標是追求真理,而只是偶爾發生錯誤。
學者將「胡說」分為兩種:「軟胡說」(soft bullshit) 和「硬胡說」(hard bullshit)。「軟胡說」僅對真相冷漠,而「硬胡說」則意圖欺騙聽眾,偽裝成真理講述者。學者認為,至少就目前而言,ChatGPT 屬於前者,也就是對真相漠不關心,但並非有意欺騙。這種區分有助於更精確地理解 LLM 的行為本質。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容