Caitlin Kalinowski 在 AI 國防用途的界線上,選擇用辭職來表達什麼樣的立場? | 數位時代

Caitlin Kalinowski 辭職事件:在 AI 國防用途上的立場表態

Caitlin Kalinowski,OpenAI 機器人部門的硬體負責人,於 2026 年 3 月 7 日宣布辭職,成為 OpenAI 與國防部合作爭議中層級最高的離職事件。她的辭職並非反對國防合作本身,而是對 OpenAI 在與國防部簽訂合約前,未針對「監控公民」與「自主致命武器」等議題設定明確紅線表達不滿,屬於對公司結構性治理的質疑。Kalinowski 強調,此事關乎原則,而非針對個人,並表達了對 OpenAI 執行長 Sam Altman 及團隊的尊重。

辭職背後的爭議點:OpenAI 與 Anthropic 的對比

OpenAI 與美國國防部簽署合作協議,將 AI 模型導入機密網路,此舉與 Anthropic 形成鮮明對比。Anthropic 由於堅持反監控與自主武器的防線,而被國防部列為供應鏈風險。OpenAI 迅速與國防部完成簽約,但合約公布方式連 OpenAI 執行長 Sam Altman 也坦承有問題,並承諾將修正條款,確保禁止將 AI 用於監控美國公民。儘管如此,Kalinowski 的辭職顯示,OpenAI 內部對此仍存在強烈不滿。

Kalinowski 辭職的意義:AI 國防應用邊界的探討

Kalinowski 的辭職凸顯了 AI 國防應用領域中,企業在道德與商業利益間的掙扎。儘管 OpenAI 聲明已設有明確紅線,不做國內監控,不授權自主武器,但 Kalinowski 的離職表明,OpenAI 在 AI 國防用途的邊界問題上,仍面臨內部的結構性張力。這也引發了關於 AI 公司應如何在國家安全與道德責任之間取得平衡的更廣泛討論。


This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容