AI 過度猜測可能會導致使用者難以信任 AI 系統。Anthropic 的執行長 Dario Amodei 強調,他們的核心價值是打造出「人類不會恐慌的 AI」,避免 AI 在使用時讓人們感到難以信任或害怕。這意味著 AI 的回應應該基於訓練資料的內容,避免產生過於自信或難以預測的結果。
Dario Amodei 認為「安全 AI」是指 AI 不會有過多的自我猜測,只根據訓練資料的內容進行回應。Anthropic 甚至承認,為了強調安全性,可能會限制 AI 系統的性能,使其僅回答訓練資料中的內容。透過自主研發的訓練技術,Anthropic 在訓練過程中為 AI 訂定「憲法」,使其遵守特定的價值觀,以避免使用者在互動過程中感到不適。
Anthropic 的 Claude 3 系列模型在強調安全性的同時,也試圖提升 AI 的性能。相較於過去的模型,Claude 3 能夠更細緻地處理語意,降低錯誤回覆的機率,從而減少因過度猜測而產生的問題。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容