由 Mira Murati 領導的 Thinking Machines Lab 最近發表的研究指出,即使將 AI 模型中的所有隨機性因素移除,AI 在回答問題時仍然可能出現不確定性。這項發現挑戰了傳統觀念,即透過將溫度設定為 0 即可完全消除 AI 回答的隨機性。該實驗室的研究強調,即便在理想條件下,AI 的輸出結果仍可能因其他因素而產生變異,這對需要高度精確性和可靠性的應用領域,如科學研究和商業決策,構成了嚴峻挑戰。
Thinking Machines Lab 的研究揭示了浮點數的非結合律在 AI 回答隨機性中扮演的角色。在電腦中,數值以浮點數格式儲存,這種格式雖然可以表示廣泛的數值範圍,但其固有的精度限制使得計算結果可能因計算順序的不同而產生微小差異。在複雜的 AI 模型中,這些微小的差異經過多次運算後會累積,進而影響 AI 的最終輸出。這意味著即使 AI 模型具有相同的輸入和參數,由於浮點數運算的特性,其結果也可能略有不同。
GPU 的平行運算也被 Thinking Machines Lab 認為是影響 AI 回答一致性的關鍵因素。現代 AI 模型廣泛使用 GPU 加速運算,GPU 具有大量的計算核心,可以同時處理多個任務。然而,GPU 的平行運算也可能引入計算順序的不確定性。當多個計算核心同時工作並將結果匯總時,由於硬體和軟體的限制,結果的匯總順序可能每次都有所不同。這種順序上的變化會影響最終結果,導致 AI 在相同輸入下產生略有不同的回答。因此,即使將 AI 模型的溫度設定為 0,也無法完全消除這種隨機性。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容