相信用過ChatGPT、文心一言、新必應等AI模型的朋友,可能也有類似的經歷,那就是AI模型和孩子非常相似,需要善於給出想要的結果。 大模型輸出高質量結果的前提是輸入AI能理解的提示,這肯定是ChatGPT、文心一言等產品使用者的共識。
然而,ChatGPT 和 GPT-4 背後的 OpenAI 的一些員工似乎並不這麼認為。 近日,OpenAI開發者推廣大使Logan Kilpatrick在社交平台上發文稱,“熱點觀點:有很多人認為,要想在未來保持競爭力,就必須掌握提示詞工程技能。 但事實上,提示人工智慧系統和與他人進行有效溝通之間沒有本質區別。 ”
洛根·基爾派屈克(Logan Kilpatrick)進一步解釋說,雖然提示詞工程是乙個越來越受歡迎的專業領域,但2024年真正重要的三項基本技能是閱讀、寫作和口語,隨著人工智慧技術的不斷發展,磨練這些技能將使人類在未來比高度智慧型的機械人更具競爭優勢。
毫無疑問,這是乙個可以被公眾認知顛覆的說法,但這位openai“布道者”的說法有什麼道理嗎?
事實上,洛根·基爾派屈克(Logan Kilpatrick)是真的,但它只適用於有限的場景。 事實上,經過半年多的迭代,OpenAI面向消費市場最先進的產品GPT-4已經能夠在一定程度上理解人類的意圖和動機。 與基於 GPT-3 的相比5 ChatGPT,當使用更多口語化和情感化的內容與GPT-4進行交流時,後者往往可以洞察使用者的需求,然後給出結果,但ChatGPT會無動於衷。
這意味著使用者與 GPT-4 交流和與人類交流之間的差異越來越小,在這種情況下,Logan Kilpatrick 顯然認為提示 AI 和與他人有效交流之間沒有本質區別。
但問題在於,並不是每個人都是ChatGPT Plus的訂閱者,絕大多數人仍然使用免費的ChatGPT或其他大型AI模型,期望後者能夠在自然語言理解(NLP)方面達到GPT-4的水平顯然是不現實的。
更重要的是,隨著 ChatGPT Plus 訂閱量的持續增長,GPT-4 不可避免地會受到效能下降的影響。 此前,在 2023 年夏天,史丹福大學的研究人員發現,與 3 月相比,6 月版的 GPT-4 在解決數學問題、回答敏感問題、**生成和視覺推理方面表現出一定程度的減少。 指望 GPT-4 繼續保持其當前效能需要 OpenAI 繼續投資於計算能力。
說到提示,有什麼必要學習嗎?當然,沒有。 因為隨著技術的進步,不僅是GPT-4,其他大型AI模型的效能也會不斷螺旋式上公升,這些大型模型遲早會讓使用者達到與真人聊天類似的效果。 但如果你真的不懂提示詞,掌握一點與AI交流的小技巧,也許現在的AI應用會對你關上大門。
提示的意義在於,當當前的AI模型還不是AI智慧型體,無法獨立設定目標時,它更像是一種高效的工具,而不是智慧型助手。 提示詞是使用 AI 工具獲得所需輸出的有效方法,它們以多種形式組成,無論是自然語言還是**。
從某種意義上說,提示就像是魔法咒語,只有唸出準確的咒語,AI才能釋放出相應的魔法,所以提示詞就是把事物的本質和意義提煉成更短的詞語。
按照集團副總裁、搜尋平台負責人肖揚的話說,是提示詞=任務+角色+上下文+細節補充。 目前,AI大模型給出的答案往往更全面、更體面,沒有提示詞優化,但經過提示詞優化後,答案質量會明顯提高。
比如你告訴大模特,讓它為你做乙個企業官網,效果可能很一般。 但是如果你告訴大模型應用程式讓它成為產品經理,質量會好得多。
此外,目前的大模型往往強調通用性,這意味著在一些特定場景中,大模型的能力無法覆蓋,提示工程發揮作用。 它的作用是設計最佳的提示詞來指導AI模型,幫助使用者解決各種細分場景中遇到的問題。 更重要的是,今天的熱鏈思維(COT)技術實際上可以看作是提示詞的延伸。
所以這樣看,洛根·基爾派屈克並沒有大驚小怪,但他只能聽他說的話。 如果你對當下AI的應用感興趣,想用AI來提高工作和學習效率,那麼熟練理解和使用提示詞還是非常有必要的。
輕拍周圍烟花的氣味