LoRA(Low-Rank Adaptation,低秩適應)及其他類似的參數微調技術,例如 QLoRA 和 Adapter,雖然能有效降低微調 AI 模型的成本,但它們主要解決的是「如何更便宜地進行一次性更新」的問題,而非「如何持續學習」。這些技術允許只更新一小部分參數,無需重新訓練整個模型,降低了計算成本,但微調完成後,參數會再次凍結。
真正的學習應該是神經連結的改變,大腦物理結構因經歷而重組。下次遇到類似情況,直覺反應會改變,不需要回想,也不用翻筆記本。LoRA 雖然降低了微調成本,但無法讓 AI 模型在日常運作中自動鞏固記憶。模型需要外部干預來更新,而不是自己完成記憶鞏固的過程。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容