Anthropic 指控的「供應鏈風險」指定,其法律依據為何,又為何稱其「前所未有」? | 數位時代

Anthropic「供應鏈風險」指定之法律依據與「前所未有」之指控

Anthropic 因其 Claude AI 產品與美國國防部在軍事應用上的分歧,遭指控存在「供應鏈風險」。此爭議的核心在於 Anthropic 堅持禁止將 Claude AI 用於大規模監控美國公民以及全自主殺傷性武器。此舉與國防部希望完全開放軍事用途的立場相左,最終導致川普總統下令聯邦機構停用 Claude AI。

法律依據與指定爭議

Anthropic 認為此「供應鏈風險」指定「前所未有」,並計劃提起訴訟。其法律依據主要針對《美國法典》第 10 篇第 3252 條。Anthropic 解釋,該條款僅能限制 Claude AI 在國防部合約中的使用,不能影響其他承包商(如 Palantir 和 AWS)在各自產品中繼續使用 Claude 服務其他客戶。換言之,國防部可以禁止自身與 Anthropic 簽訂新合約,但無法阻止其他私人企業使用 Claude。

指控「前所未有」之理由

Anthropic 將此指定形容為「打擊報復」,並強調此前從未有美國本土企業公開被貼上此標籤,通常只針對如中國華為等敵對國家的企業。Anthropic 執行長達里奧·阿莫迪強調,公司支持軍事用途,但堅持的兩條紅線是對美國價值的堅守。公司認為,不同意政府的某些做法是美國精神的體現,並自認是愛國者。


This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容