OpenAI 與戰爭部達成協議,其安全防護措施為何? | 數位時代

OpenAI 與美國戰爭部協議的安全防護措施

OpenAI 與美國戰爭部達成協議,允許其 AI 模型部署於機密軍事網路。為確保安全,OpenAI 明訂了三條使用禁區:禁止用於國內大規模監控、禁止操控自主武器系統、禁止高風險自動化決策(例如社會信用評分類系統)。

OpenAI 執行長 Sam Altman 強調,公司保有對安全技術棧的完整控制權,所有部署限制在雲端環境、不進入邊緣系統,並派駐具安全許可的工程師隨時介入監控。他將自家做法定性為「更廣泛的多層防護」,而非只依賴單一合約條款。

Anthropic 的拒絕與 QuitGPT 運動

與此同時,OpenAI 的競爭對手 Anthropic 因「良知上無法接受」而拒絕了類似的合作條件,隨即被美國政府列為「供應鏈風險」並遭到封殺。然而,這一事件反而引發了「QuitGPT」運動,大量用戶轉向 Anthropic 的 AI 模型 Claude,導致 Claude 衝上蘋果 App Store 美國免費下載榜首位。

這場運動突顯了公眾對於 AI 倫理和安全的高度關注,以及對於科技公司在軍事領域應用 AI 的擔憂。

法律學者對 OpenAI 合約的質疑

OpenAI 的合約允許五角大廈在「任何合法目的」下使用其 AI 模型,這一點受到了法律學者的質疑。《麻省理工科技評論》指出,OpenAI 把界線畫在「只要合法就行」,而不是再多設一套獨立的安全標準。

由於現行法律可能無法完全涵蓋 AI 的潛在風險,尤其是在監控方面,AI 有能力放大監控的規模和精準度,而這可能超出法律的規範範圍。因此,Anthropic 堅持在合約中加入更明確的「道德禁止清單」,以確保 AI 的使用符合倫理標準。


This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容