歐洲廣播聯盟(EBU)和英國廣播公司(BBC)近期發布的大型跨國研究《AI 助理在新聞中的使用與認知》揭露,AI 助理在處理新聞內容時存在嚴重的系統性錯誤。這項研究橫跨 18 個國家、涵蓋 14 種語言,顯示無論使用哪種語言、地區或平台,ChatGPT、Copilot、Gemini 或 Perplexity 等 AI 助理在回覆新聞相關問題時,高達 45% 的內容至少存在一個重大錯誤。其中,31% 的內容在辨識、引用或連結所使用的原始資訊來源時出現錯誤,而 20% 的內容含有「重大準確性問題」,包括 AI 幻覺或引用過時資訊。
研究評估了 ChatGPT、Copilot、Gemini 和 Perplexity 四大主流 AI 助理平台共 3,000 多個回覆,根據準確性、來源引用、事實與觀點的區分,以及提供背景資訊等關鍵標準進行評估。結果顯示,Gemini 的表現最差,有 76% 的回覆被判定存在重大問題,主要症結在於其糟糕的「來源引用」表現。此外,研究測試了四種常見的 AI 錯誤類型,包括事實錯誤、觀點作為事實呈現、來源與歸屬錯誤和自行加入觀點,結果表明所有錯誤都會嚴重損害用戶的信心,其中事實錯誤最具破壞力。
研究揭露,當 AI 發生錯誤時,閱聽人不僅會責怪 AI 服務提供商,也會將矛頭指向新聞提供者。許多人錯誤地假定 AI 助理提供的新聞摘要是準確的,尤其是在 35 歲以下的年輕族群中。當 AI 內容出現錯誤時,有 23% 的人認為「新聞提供商」應該為與他們名稱相關聯的內容負責。這表明 AI 助理的失誤可能連帶對新聞媒體的信譽造成負面影響,即使錯誤並非新聞機構所致。報告強調,AI 摘要中立的「可靠表象」創造了用戶的「盲點」,導致用戶在接收資訊時鬆懈了查證的本能。如果這種情況持續,AI 的系統性錯誤不僅會讓用戶失去對技術本身的信任,還可能悄悄侵蝕用戶對整體新聞品牌的可信度與信任感,最終對整個新聞環境造成負面衝擊。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容