在 AI 領域,除了 Transformer 之外,還有哪些潛在的技術發展方向值得關注? | 數位時代

AI 領域中值得關注的 Transformer 替代技術發展方向

在人工智慧(AI)領域,雖然 Transformer 模型目前佔據主導地位,但業界已開始關注其他可能突破性技術方向。其中一個重要的趨勢是受到生物系統和自然演化啟發的 AI 設計,例如 Google 與日本 AI 新創公司 Sakana AI 的合作就突顯了這一點。Sakana AI 致力於探索全新的架構,並提出了進化模型融合(Evolutionary Model Merging)、AB-MCTS 多模型協作演算法等技術,這反映了對 Transformer 模型的局限性以及對混合架構潛力的認識。

Transformer 的局限性與對替代方案的需求

Transformer 模型在處理序列資料方面表現出色,尤其是在自然語言理解和生成方面,但它也存在一些固有的局限性。例如,Transformer 模型在長期推理和持續學習方面存在困難,難以像人類一樣累積經驗並自我修正。此外,Transformer 模型依賴擴展定律(Scaling Law)來提升性能,這需要大量的能源和運算資源,隨著模型日漸龐大,運算需求正指數級上升。這些限制促使業界開始思考,是否僅僅依靠擴大 Transformer 模型就能實現通用人工智慧(AGI)。

Google 對 Sakana AI 的投資及戰略意義

Google 對 Sakana AI 的投資被視為是在 Transformer 之外的道路上「押注」。Google 意識到,目前的 Transformer 技術可能不足以達到通用人工智慧,而 Sakana AI 的技術可能帶來突破。此外,Sakana AI 與日本政府、財團、大型企業關係密切,這有助於 Google 進軍日本市場。Google 與 Sakana AI 的合作關係顯示,儘管 Google 仍認為大型語言模型是邁向通用人工智慧的重要技術,但不再是唯一的技術,而是開始對未來可能需要的架構提前佈局。


This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容