Anthropic 如何發現 Claude AI 涉入委內瑞拉的軍事行動? | 數位時代

Anthropic 如何得知 Claude 可能涉及委內瑞拉交火場景

Anthropic 之所以得知 Claude AI 可能涉及委內瑞拉的交火場景,是因為美軍在該行動中使用了 Claude AI。事後,Anthropic 主動向 Palantir 查詢 Claude 是否牽涉其中。這個舉動隨後被五角大廈視為干預軍事決策,也是導致美國國防部尋求 OpenAI 及 xAI 作為 Claude 替代方案的原因之一。

Anthropic 的 AI 使用限制與國防部期望的衝突

Anthropic 與美國國防部的主要爭議點在於,Anthropic 堅持禁止將其 AI 技術用於大規模監控美國公民和開發全自主殺傷性武器。然而,美國國防部希望擁有完全開放的使用權限,以便在情報分析、目標辨識和作戰模擬等領域中充分利用 AI 技術。

國防部轉向 OpenAI 及 xAI 的考量

由於與 Anthropic 在使用條款上存在根本分歧,美國國防部轉而與 OpenAI 及 xAI 簽約,作為 Claude 的替代方案。雖然 OpenAI 的 ChatGPT 和 xAI 的 Grok 模型也聲明禁止大規模公民監控和自主武器,但在實際操作中,這些條款的解釋和執行可能更具彈性。此外,OpenAI 和 xAI 可能更願意與國防部協商,以達成雙方都能接受的使用協議。


This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容