在 2026 年 2 月底,OpenAI 與美國戰爭部達成協議,允許其 AI 模型部署於機密軍事網路,此舉引發了對 AI 倫理的擔憂。與此同時,Anthropic 創辦人因「良知上無法接受」類似條件而拒絕與戰爭部合作,隨後被川普政府列為「供應鏈風險」並遭到封殺。OpenAI 的協議雖然明訂禁止用於國內大規模監控、自主武器系統及高風險自動化決策,但仍然引發了員工和研究者的批評,認為 OpenAI 為了利益犧牲了道德底線。
Anthropic 被列入黑名單的消息意外觸發了一場消費者運動,Instagram 帳號「QuitGPT」迅速積累大量追蹤者,呼籲「取消並刪除 ChatGPT」的貼文也獲得廣泛支持。這股運動直接反映在市場表現上,Claude 衝上 Apple App Store 美國免費下載榜首,Anthropic 的用戶註冊量創下歷史新高。為了應對突如其來的流量,Claude 短暫出現服務中斷,Anthropic 辦公室外也出現支持者的留言。
Anthropic 與 OpenAI 在 AI 倫理和監管方面的立場存在根本差異。Anthropic 強調法律無法完全涵蓋 AI 的潛在風險,因此需要額外的「道德禁止清單」。OpenAI 則傾向於遵守現有法律框架,允許五角大廈在「任何合法目的」下使用其模型。批評者認為,OpenAI 的做法實際上允許 AI 在法律允許的範圍內放大監控規模和精準度,而 Anthropic 則選擇為堅守道德底線而付出代價,這也使得 Claude 在消費者心目中更具吸引力。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容