「自動化偏誤」(Automation Bias)指的是人類傾向於過度信任自動化系統,即使系統提供的資訊存在矛盾或錯誤,仍然會傾向跟隨系統的判斷。這種偏誤在 AI 決策中扮演了重要的角色,尤其是在需要道德判斷的場景下,可能導致嚴重的後果。
自動化偏誤會削弱人類的批判性思考能力和自主判斷力。當人們習慣依賴 AI 系統做出決策時,可能會忽略自身掌握的資訊或證據,而盲目接受 AI 的建議。這種情況在需要快速決策的領域尤其危險,例如醫療診斷或自動駕駛。此外,自動化偏誤還可能導致責任歸屬不清,當 AI 系統做出錯誤決策時,難以確定誰應該為此負責。
喬治亞理工學院在 2016 年進行的一項實驗,生動地展示了自動化偏誤的影響。在模擬火災情境中,機器人引導受試者疏散,但方向與火災出口標誌相反。儘管機器人過去曾顯示出不可靠的跡象,許多受試者仍然選擇跟隨機器人的指示。這個實驗表明,即使在生死攸關的時刻,人們仍然容易受到自動化偏誤的影響,而忽略自身判斷。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容