所有使用過 AI 服務的使用者都有一個共同的困擾,那就是 AI 往往會給出冗長的回覆。這些看似詳盡的回答,實際上正在消耗使用者的成本,特別是對於那些採用按量計費 API 的使用者而言,每一字每一句都在增加支出。AI 服務的費用結構通常分為兩種:輸入 Token 和輸出 Token,前者代表使用者傳送給 AI 的內容,後者則是 AI 回覆的內容。
在 AI 的計費模式中,輸出 Token 的成本通常遠高於輸入 Token。以 Claude Sonnet 4.6 為例,輸入的價格為每百萬 Token 3 美元,而輸出則高達 15 美元,是輸入的 5 倍。Claude Opus 4.6 的輸入和輸出價格分別為 5 美元和 25 美元,同樣存在 5 倍的差距。GPT-4o 的輸入價格為 2.5 美元,輸出為 10 美元,是輸入的 4 倍。Gemini 2.5 Pro 的輸入價格為 1.25 美元,輸出為 10 美元,差距達到 8 倍。因此,AI 回覆的長度直接影響使用成本,縮短輸出內容成為降低成本的有效方法。
為了解決 AI 回覆冗長的問題,社群中出現了一種名為「山頂洞人 Prompt」的技巧。這種方法的核心在於,透過在 Claude Code 的系統指令中加入特定規則,強制 AI 以最簡短的句子進行回覆。例如,原始 Prompt 指示 AI:「用非常短的語句來傳達訊息,盡可能使用 2-4 個字的短語,除非明確要求,否則不提供解釋,工具回傳後,先給出結果,然後停止。」透過這樣的設定,AI 的回覆風格變得極為精簡。
透過「山頂洞人 Prompt」,AI 在完成搜尋後的回覆從「我已經執行了網頁搜尋工具,以下是找到的結果……」簡化為「搜了。結果:」。在修正 Bug 後,回覆從「我發現問題出在第 42 行,缺少了一個 null check,我已經加上修正……」變為「L42 少 null check。修了。」。雖然每次對話可能只節省 6 到 10 個 Token,但經過 8 到 10 輪對話後,一個任務就能省下 50 到 100 個 Token。雖然單看輸出,確實能省下 50% 到 75% 的成本,但考慮到 AI 會重新讀取整段聊天記錄,輸入成本才是真正的大頭。因此,實際總帳單可能只降低 10% 到 20%。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容