OpenAI 提供一系列:策略和技術幫助使用者更有效地使用 ChatGPT。 這些方法可以:單獨使用也可組合以獲得更好的結果。 官方給出了6大提示策略(並給出了具體的教程和示例)。主要策略:
1.明確的說明:
準確地告訴 AI 你想要什麼。 例如,如果你想要乙個簡短的答案,只需說“給我乙個簡短的答案”。 這樣,人工智慧就不必猜測你的意圖。 模特無法讀懂你的心思。 如果需要簡短的回答,請明確要求;如果需要專家級的寫作,也要說清楚。 提供清晰的說明,減少對模型猜測的需要。 例:
如何:
在查詢中包含詳細資訊,以獲得更相關的答案。
要求模型採用特定的角色或風格。
使用分隔符清楚地指示輸入的不同部分。
明確指定完成任務所需的步驟。
提供示例以幫助模型理解任務。
指定輸出的所需長度。
2. 提供參考文字:
如果您有關於您正在撰寫的主題的具體資訊或示例,請將其提供給 AI。 這樣,它可以提供更準確和相關的內容。 語言模型可能會建立虛假答案,尤其是在詢問特定主題或要求提供引文和 URL 時。 提供參考文字可以幫助模型提供更準確的答案。
示例:操作方法:引導式模型使用參考文本來回答問題。
要求模型在響應時引用文字。
將複雜任務分解為簡單的子任務
如果你有乙個複雜的主題要寫,試著把它分解成更小的部分。 例如,先寫乙個關於主題的部分,然後寫乙個關於主要思想的部分。 正如在軟體工程中將複雜系統分解為模組化元件一樣,在向語言模型提交任務時也應採用類似的方法。 複雜任務的錯誤率通常高於簡單任務。 複雜任務通常可以重新定義為一系列簡單任務的工作流。 例:
操作方法:使用意向分類來識別與使用者查詢最相關的說明。
對於需要長時間對話的應用,請彙總或過濾以前的對話。
分段總結長文件,並以遞迴方式構建完整摘要。
4.給模型時間“思考”:
有時,讓人工智慧在回答問題之前“思考”可以得到更好的答案。 這就像讓它列出首先解決問題的步驟,然後給出答案。 模型在立即回答問題時可能會犯更多的推理錯誤。 在給出答案之前,要求模型做乙個“思維鏈”可以幫助模型更可靠地推理正確答案。 例:
方法如下:在匆忙得出結論之前,指導模型自行找出解決方案。
使用內部獨白或一系列查詢來隱藏模型的推理過程。
在前面的答案中,詢問模型是否缺少任何內容。
5. 使用外部工具:
有時,人工智慧和其他工具(如資料搜尋工具)的結合可以帶來更好的結果。 使用其他工具的輸出來彌補模型的缺點。 例如,文字檢索系統可以向模型提供相關的文件資訊,執行引擎可以幫助模型執行數學計算並執行。
示例:操作方法:使用基於嵌入式的搜尋進行有效的知識檢索。
使用執行進行更準確的計算或呼叫外部 API。
授予模型對特定特徵的訪問許可權。
6.測試和調整:
嘗試不同的指令和方法,看看哪種效果最好,然後根據結果進行調整。
示例:“使用標準答案評估模型輸出”是確保 AI 模型答案質量的有效方法。
定義標準答案:首先,確定問題的正確答案中應包含哪些已知事實。 這些事實構成了評估人工智慧響應的標準。
模型查詢與事實:使用模型查詢生成答案,然後檢查該答案中包含多少個必需的事實。
評估答案的完整性:根據答案中包含的事實數量評估答案的完整性和準確性。 如果 *** 包含全部或大部分必需的事實,則可以認為答案是高質量的。
此策略對於需要精確度和細節的方案(如科學、技術或學術研究)特別有用。 通過與標準答案的比較,可以有效地監控和提高AI模型的輸出質量。
Prompt Engineering Just-intime 工程策略:
提示示例:
libraries & tools
提示庫和工具:
s 關於高階提示以提高推理能力
openai cookbook: