Anthropic 的報告揭露,中國駭客利用 Claude AI 進行網路攻擊,自動化程度高達 80%–90%,大幅降低了高階網攻的門檻。駭客透過 AI 將攻擊流程模組化,並以「安全稽核」等話術繞過防護,顯示 AI 時代資安風險的升級。儘管 AI 在網路攻擊中展現了高度自動化能力,但也存在「過度聲稱與幻覺」等缺陷,例如憑證誤讀、資訊誤判等,使得攻擊成果需要人為驗證。
AI 的應用加速了網路攻防的速度,使攻擊者能以更小的成本執行更大規模的攻擊。然而,AI 在攻擊環境中的「幻覺」缺陷,也為防禦方提供了一線生機。防禦方可以利用 AI 的弱點,例如透過對抗性攻擊干擾 AI 的判斷,或利用 AI 的幻覺特性設置陷阱。同時,AI 也可被用於防禦,例如透過威脅偵測、弱點評估、事件回應等方式,提升防禦的效率與準確性。
面對 AI 驅動的網路攻擊,Anthropic 強調應「以 AI 制衡 AI」,強化 AI 安全柵欄,並將 AI 實際導入防守作業中。這意味著需要更強大的模型和平台級防濫用機制,利用 AI 進行編排識別和早期預警,以應對 AI 攻擊。雖然 AI 降低了攻擊門檻,使更多組織能夠發動大規模攻擊,但 AI 的幻覺和過度聲稱也限制了其全面自主性,為防禦方提供了可乘之機。因此,防禦方應積極擁抱 AI,利用 AI 的力量提升自身的防禦能力,以在未來的網路攻防戰中取得優勢。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容