OpenAI 與戰爭部達成協議,部署 AI 模型於機密網路,此舉引發哪些疑慮? | 數位時代

OpenAI 與美國戰爭部合作引發的疑慮

OpenAI 執行長 Sam Altman 在 2026 年 2 月底宣布與美國戰爭部達成協議,允許將其 AI 模型部署於機密軍事網路。此舉引發了多方疑慮,特別是與競爭對手 Anthropic 的做法形成鮮明對比。Anthropic 以「良知上無法接受」為由拒絕了類似的合作條件,隨後被列為「供應鏈風險」。OpenAI 的協議明確禁止將 AI 用於國內大規模監控、自主武器系統和高風險自動化決策,並聲稱會透過多層技術防護來確保安全。

道德紅線與法律界限的爭議

OpenAI 的做法引發了關於 AI 倫理界限的爭論。Anthropic 強調,現行法律無法完全跟上 AI 的發展,因此需要更明確的道德禁止清單。OpenAI 則選擇將現有法律作為其安全保障,允許五角大廈在「任何合法目的」下使用其模型。《麻省理工科技評論》指出,OpenAI 的界線僅限於「只要合法就行」,而沒有設立獨立的安全標準。這意味著 AI 可能被用於放大監控規模和精準度,只要這些行為在現行法律框架下是合法的。

消費者反彈與品牌影響

OpenAI 與戰爭部的合作引發了消費者的強烈反彈,「QuitGPT」運動迅速蔓延,呼籲抵制 OpenAI 的產品。與此同時,Anthropic 的 Claude 應用程式登上 App Store 美國免費下載榜首,顯示消費者對堅持道德原則的公司抱持支持態度。《華爾街日報》報導稱,Anthropic 的外部支持者數量持續增加,顯示這場民心向背的轉移也讓外界看見兩家公司在政治佈局上的根本差異。


This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容