OpenAI 與戰爭部簽訂合約,其潛在影響為何? | 數位時代

OpenAI 與美國戰爭部合約的潛在影響

OpenAI 執行長 Sam Altman 於 2026 年 2 月底宣布與美國戰爭部達成協議,允許其 AI 模型部署於機密軍事網路。此舉引發廣泛討論,尤其是在競爭對手 Anthropic 拒絕類似合作後,更顯得意義非凡。OpenAI 在公告中列出三條使用禁區:禁止用於國內大規模監控、禁止操控自主武器系統、禁止高風險自動化決策。Altman 強調公司保有對安全技術棧的完整控制,並將此做法定義為「更廣泛的多層防護」,而非僅依賴合約條款。

Anthropic 的拒絕與「QuitGPT」運動

Anthropic 創辦人兼執行長 Dario Amodei 以「良知上無法接受」為由,拒絕與美國戰爭部合作,隨後被列為「供應鏈風險」。此事件意外觸發一場消費者運動,Instagram 帳號「QuitGPT」迅速積累大量追蹤者,呼籲取消 ChatGPT 的聲浪高漲。結果是,Claude 衝上蘋果 App Store 美國免費下載榜首,Anthropic 的用戶註冊量也創下歷史新高。這場民心向背的轉移,突顯了 OpenAI 與 Anthropic 在政治佈局上的根本差異。

AI 倫理與法律的灰色地帶

OpenAI 與 Anthropic 的主要爭議點在於如何劃定 AI 使用的「紅線」。Anthropic 認為現行法律無法完全規範 AI 的能力,因此需要額外的「道德禁止清單」。而 OpenAI 則傾向於將現有法律作為護身符,允許五角大廈在「任何合法目的」下使用其模型。《麻省理工科技評論》指出,OpenAI 的界線劃在「只要合法就行」,而非設立獨立的安全標準。這使得 AI 可能被用於擴大監控規模和精準度,卻未受到合約的有效約束。最終,五角大廈可能仍然可以在所有「法律允許」的情境下使用 AI。


This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容