閱讀紀錄

隱藏 →
此記錄會在頁面關閉後消失

AI助理新聞摘要的系統性錯誤率高達45%,這將如何影響大眾對資訊的信任?

Answer

AI 新聞摘要錯誤率對大眾信任的影響

AI 助理新聞摘要的系統性錯誤

歐洲廣播聯盟(EBU)和英國廣播公司(BBC)近期發布的大型跨國研究《AI 助理在新聞中的使用與認知》揭露,AI 助理在處理新聞內容時存在嚴重的系統性錯誤。這項研究橫跨 18 個國家、涵蓋 14 種語言,顯示無論使用哪種語言、地區或平台,ChatGPT、Copilot、Gemini 或 Perplexity 等 AI 助理在回覆新聞相關問題時,高達 45% 的內容至少存在一個重大錯誤。其中,31% 的內容在辨識、引用或連結所使用的原始資訊來源時出現錯誤,而 20% 的內容含有「重大準確性問題」,包括 AI 幻覺或引用過時資訊。

AI 平台表現評比與錯誤類型分析

研究評估了 ChatGPT、Copilot、Gemini 和 Perplexity 四大主流 AI 助理平台共 3,000 多個回覆,根據準確性、來源引用、事實與觀點的區分,以及提供背景資訊等關鍵標準進行評估。結果顯示,Gemini 的表現最差,有 76% 的回覆被判定存在重大問題,主要症結在於其糟糕的「來源引用」表現。此外,研究測試了四種常見的 AI 錯誤類型,包括事實錯誤、觀點作為事實呈現、來源與歸屬錯誤和自行加入觀點,結果表明所有錯誤都會嚴重損害用戶的信心,其中事實錯誤最具破壞力。

對新聞媒體信任的潛在影響

研究揭露,當 AI 發生錯誤時,閱聽人不僅會責怪 AI 服務提供商,也會將矛頭指向新聞提供者。許多人錯誤地假定 AI 助理提供的新聞摘要是準確的,尤其是在 35 歲以下的年輕族群中。當 AI 內容出現錯誤時,有 23% 的人認為「新聞提供商」應該為與他們名稱相關聯的內容負責。這表明 AI 助理的失誤可能連帶對新聞媒體的信譽造成負面影響,即使錯誤並非新聞機構所致。報告強調,AI 摘要中立的「可靠表象」創造了用戶的「盲點」,導致用戶在接收資訊時鬆懈了查證的本能。如果這種情況持續,AI 的系統性錯誤不僅會讓用戶失去對技術本身的信任,還可能悄悄侵蝕用戶對整體新聞品牌的可信度與信任感,最終對整個新聞環境造成負面衝擊。

你想知道哪些?AI來解答

AI 助理新聞摘要的系統性錯誤率高達 45%,這將如何影響大眾對資訊的信任?

more

AI 助理在新聞摘要中引用來源的錯誤率為何如此之高?

more

Gemini 在 AI 助理新聞摘要準確性評比中表現最差的原因是什麼?

more

AI 助理的錯誤新聞摘要,為何會連帶影響閱聽眾對新聞提供者的信任?

more

AI 助理的「可靠表象」如何降低用戶查證新聞的本能?

more

你覺得這篇文章有幫助嗎?

likelike
有幫助
unlikeunlike
沒幫助
reportreport
回報問題
view
1
like
0
unlike
0
分享給好友
line facebook link