LoRA 等參數微調技術為何無法解決 AI 遺忘的問題?
Answer
LoRA 等參數微調技術無法解決 AI 遺忘問題的原因
LoRA(Low-Rank Adaptation,低秩適應)及其他類似的參數微調技術,例如 QLoRA 和 Adapter,雖然能有效降低微調 AI 模型的成本,但它們主要解決的是「如何更便宜地進行一次性更新」的問題,而非「如何持續學習」。這些技術允許只更新一小部分參數,無需重新訓練整個模型,降低了計算成本,但微調完成後,參數會再次凍結。
LoRA 的局限性
- 非持續學習:LoRA 需要手動收集訓練數據,決定何時進行微調,執行微調流程。一旦微調完成,參數再次凍結,無法實現高度自動化的持續學習。
- 可能遺忘舊知識:當使用新數據微調模型時,可能會忘記部分舊知識。研究人員需要小心設計微調策略,在學習新知識和保留舊知識之間找到平衡。
- 外掛式記憶:現有 AI 產品的「記憶功能」本質上是一種外掛的筆記本系統,模型本身並沒有真正學會。系統會將資訊寫在外部資料庫中,下次對話時先去翻閱筆記本,讓模型「裝熟」,但模型本身沒有改變。
真正的學習與記憶
真正的學習應該是神經連結的改變,大腦物理結構因經歷而重組。下次遇到類似情況,直覺反應會改變,不需要回想,也不用翻筆記本。LoRA 雖然降低了微調成本,但無法讓 AI 模型在日常運作中自動鞏固記憶。模型需要外部干預來更新,而不是自己完成記憶鞏固的過程。