大型語言模型(LLM),如 ChatGPT,其核心運作機制並非旨在「傳達真相」,而是「生成看似可信的文本」。這種模型透過分析大量數據,學習預測在特定上下文中,哪些詞語或句子最可能出現。因此,LLM 的目標是產生符合語境的文本,而非驗證或確保內容的真實性。這意味著,系統本身對於產出內容的真實性漠不關心,只要文本在統計上是合理的,就會被生成。
「AI 幻覺」一詞暗示 LLM 試圖陳述事實卻失敗,但這種說法具有誤導性。這個詞彙源自人類心理學,暗示 AI 具有感知或陳述真實世界的能力,但實際上,LLM 的設計目標並非驗證事實。更精確地說,LLM 產生的錯誤資訊應被視為哲學意義上的「胡說」,即一種完全不在乎真假的言談。根據哲學家哈里·法蘭克福的定義,「胡說」是指一種對真相冷漠的言論,而 LLM 在生成文本時,正是處於這種狀態。
使用「AI 幻覺」一詞可能導致錯誤的技術解決方案與公眾認知。如果公眾、政策制定者甚至開發者誤以為 AI 的目標是追求真理,只是偶爾會出錯,那麼開發者可能會將精力放在修正 AI 的「認知偏差」上,而不是從根本上認識到 LLM 的設計目標並非追求真實。更準確地描述這些系統的能力與意圖,有助於避免對 AI 技術的過度信任,並促進更負責任的開發和使用。正確理解 LLM 的運作機制,有助於避免對其能力的過度期望,並促進更合理的應用場景。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容