在川普總統於 2026 年 2 月底下令聯邦機構立即停用 Anthropic 旗下 Claude AI 後,儘管禁令生效,美國軍方仍在對伊朗的空襲任務中使用該 AI 系統。這一事件突顯了 Claude AI 在軍事應用中的深度整合,以及迅速替換系統的困難。Anthropic 因這項禁令提起訴訟,指控政府的「供應鏈風險」指定前所未有,並堅持其 AI 使用的道德紅線。
Anthropic 與國防部的衝突源於對 AI 使用限制的不同看法。Anthropic 堅持禁止其 AI 技術用於大規模監控美國公民和全自主殺傷性武器,但國防部則希望擁有更全面的使用權限。雙方關係在美軍於委內瑞拉的行動中使用 Claude 後進一步惡化,Anthropic 試圖查詢 Claude 是否涉及交火場景,此舉被五角大廈視為干預軍事決策。
在 Anthropic 禁令宣布後,美國國防部迅速與 OpenAI 的 ChatGPT 和馬斯克旗下的 xAI 的 Grok 模型簽訂合約,作為替代方案。儘管這些新合約也保留了禁止大規模公民監控和自主武器的限制條款,但此舉顯示了國防部在 AI 技術應用上的靈活性和應變能力。未來,這可能推動軍事 AI 技術發展,促使更多科技公司參與軍事領域的 AI 創新,同時也需持續關注道德和安全問題。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容