除了 OpenAI,其他大型語言模型開發商是否也有類似的提示詞優化建議? | 數位時代

建立輸出合約

OpenAI 建議開發者應明確規範 AI 的輸出格式、字數限制與特定步驟,避免 AI 自由發揮,以達到最佳的 token 效率。開發者可以指示 AI 只輸出要求的章節,依序輸出,不把提示中的說明視為額外輸出,並確保長度限制只適用於被指定的章節。

強制驗證迴圈

OpenAI 建議在 AI 執行發送、修改或刪除等不可逆的高風險操作前,必須在提示詞中加入自我檢查機制,確認事實根據與格式無誤後才能放行。驗證應包含正確性(輸出是否滿足所有要求)、依據性(事實性陳述是否有提供的上下文或工具輸出支撐)、格式(輸出是否符合要求的結構或樣式)以及安全性與不可逆性。

增加工具持續規則

OpenAI 建議,只要能提升正確性或完整性,模型就必須持續使用工具,絕對不能在另一個呼叫可能改善結果時提前停止,直到任務真正完成且通過驗證迴圈為止。具體來說,只要工具呼叫能實質提升正確性、完整性或依據性,就應繼續使用工具,若再呼叫一次工具可能實質改善結果,不要提前停止,並持續呼叫工具直到任務完成且通過驗證迴圈檢查。


This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容