在使用 AI 服務時,許多人都會遇到 AI 回覆過於冗長的問題。AI 傾向於產生大量的文字,包含許多前言、分析和總結,但對按量付費的 API 使用者來說,這些不必要的文字都會轉化為成本。由於 API 費用是按照 token 數量計算,AI 產生的文字越多,使用者需要支付的費用就越高。因此,如何減少 AI 的冗長回覆,降低 token 使用量,成為 API 使用者關注的重點。
為了解決 AI 回覆冗長的問題,社群中出現了一種名為「山頂洞人 Prompt」的技巧。其核心原理是在 Claude Code 的系統指令中加入一組規則,強制 AI 以最簡短的句子回覆。例如,指示 AI 在使用工具後只回報結果,不描述過程;除非主動詢問,否則不解釋其行為。一個具體的例子是:「Me tool first. Me result first. Me no explain. Me stop.」,透過這些規則,AI 在回覆時會避免不必要的解釋和總結,從而減少輸出 token 的數量。
儘管「山頂洞人 Prompt」可以有效減少 AI 的輸出 token 數量,但實際的成本節省效果並非如標題所說的 75%。API 費用由輸入 token 和輸出 token 兩部分組成,而輸出 token 的價格通常是輸入 token 的 4 到 8 倍。雖然壓縮輸出長度可以節省部分費用,但 AI 在每一輪對話中都會重新讀取整段聊天記錄,使得輸入成本成為一個不可忽視的因素。因此,即使輸出 token 減少了 50% 到 75%,總帳單的降幅可能只有 10% 到 20%。
值得注意的是,使用「山頂洞人 Prompt」可能會對 AI 的推理品質產生負面影響。在 prompt 工程的實務中,角色設定會影響模型的推理行為。如果指示 AI 扮演一個不太聰明的角色,其推理品質可能會隨之下降。對於簡單的任務,這種影響可能微乎其微,但如果需要 AI 進行複雜的推理、架構設計或多步驟分析,過度壓縮回覆可能會導致 AI 跳過關鍵的中間步驟,從而影響最終結果的準確性。因此,在使用這類 Prompt 時,需要在成本節省和推理品質之間取得平衡。
並非所有使用者都需要使用「山頂洞人 Prompt」來節省 token。對於 API 按量付費的開發者,尤其是在高頻呼叫的自動化場景中,這種方法可以長期累積可觀的金額。而對於 Claude Code 的重度使用者,精簡回覆意味著在有限的用量上限內可以完成更多任務。然而,對於一般 ChatGPT 或 Claude 網頁版的訂閱用戶,由於訂閱方案是固定月費,節省 token 並不會直接減少支出。對於追求更有效率的成本節省,Prompt 快取和 Batch API 可能是更值得研究的方向。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容