OpenAI 執行長 Sam Altman 在 2026 年 2 月底與美國戰爭部達成協議,允許其 AI 模型部署於機密軍事網路,此舉引發了廣泛批評。爭議點在於,數小時前,OpenAI 的競爭對手 Anthropic 因「良知上無法接受」某些條件而拒絕了類似的合作,隨後 Anthropic 被列為「供應鏈風險」。Altman 在支持 Anthropic 的立場後迅速簽署協議,更激化了批評聲浪。
OpenAI 與戰爭部的協議中,明確禁止將 AI 模型用於國內大規模監控、自主武器系統和高風險自動化決策。Altman 強調,公司保有對安全技術的完整控制權,並將部署限制在雲端環境中,由具安全許可的工程師隨時監控。然而,批評者認為 OpenAI 僅以「合法」為界線,未設立獨立的安全標準,實質上允許五角大廈在法律允許的範圍內使用 AI,而 AI 的能力可能放大監控規模和精準度。Anthropic 則堅持在合約中加入更明確的「道德禁止清單」,認為現行法律無法完全規範 AI 的潛在風險。
Anthropic 被列入黑名單後,意外引發了一場「QuitGPT」消費者運動,大量用戶轉向 Anthropic 的 Claude AI 服務,導致 Claude 在 App Store 美國免費下載榜上登頂。這場運動顯示了公眾對於 AI 倫理和安全的高度關注,以及對 OpenAI 倉促決策的反彈。Anthropic 堅守道德底線的立場,贏得了更多用戶的認同和支持,與 OpenAI 形成鮮明對比。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容