OpenAI 與美國戰爭部達成協議,其潛在影響為何? | 數位時代

OpenAI 與美國戰爭部協議的潛在影響

OpenAI 執行長 Sam Altman 於 2026 年 2 月底宣布與美國戰爭部達成協議,允許其 AI 模型部署於機密軍事網路。這項協議允許五角大廈基於「任何合法目的」使用 OpenAI 的模型,引發了關於 AI 倫理和安全性的廣泛討論。同時,競爭對手 Anthropic 因拒絕類似條款而被列為「供應鏈風險」,形成鮮明對比。

協議內容與爭議點

OpenAI 公告中列出三項使用禁區:禁止用於國內大規模監控、禁止操控自主武器系統、禁止高風險自動化決策。Altman 強調公司保有對安全技術棧的完整控制,並將部署限制在雲端環境。然而,批評者認為,OpenAI 將界線劃在「只要合法就行」,未能設立獨立的安全標準。法律學者指出,現行法律可能無法充分約束 AI 的監控能力,AI 可能被用於放大監控的規模和精準度,而這正是 Anthropic 所擔憂的監管真空地帶。

對 Anthropic 的影響與「QuitGPT」運動

Anthropic 被列入黑名單後,反而意外觸發了一場消費者運動。「QuitGPT」運動在社群媒體上迅速蔓延,呼籲使用者取消訂閱 ChatGPT 並轉向 Anthropic 的 Claude。這股力量推動 Claude 登上蘋果 App Store 美國免費下載榜首位,顯示公眾對於 AI 倫理的關注以及對 Anthropic 堅持道德底線的認可。Anthropic 的崛起和 OpenAI 的爭議性協議,突顯了 AI 發展中倫理與商業利益之間的緊張關係。


This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容