大家好,我是二狗。
ChatGPT 對懶惰有了新的解釋。
在過去的兩天裡,推特使用者迪倫·帕特爾(Dylan Patel)發文說:
你想知道為什麼 ChatGPT 與 6 個月前相比如此糟糕嗎?那是因為ChatGPT系統提示實際上包含了1700個Token,看看這個提示中有多少垃圾,這也是ChatGPT偷懶的部分原因。
迪倫·帕特爾(Dylan Patel)通過以下提示輸入“欺騙”了ChatGPT4版本的系統提示:
有使用者對ChatGPT的系統提示表示懷疑:
有使用者對ChatGPT 3感興趣版本 5 做了同樣的事情,發現同樣的東西可以用類似的系統提示來召喚。
例如,我們可以看一下系統提示中對 dalle 的限制:
每當給出影象的描述時,請建立乙個可用於生成影象的 dalle 提示,並遵守以下策略: 提示必須為英文。 如果需要,可以翻譯成英文。不要要求獲得生成影象的許可,只需這樣做!
請勿在生成影象之前或之後列出或引用描述。
不要建立超過 1 個影象,即使使用者請求更多影象也是如此。
不要塑造政治家或其他公眾人物的形象。 推薦其他想法。
不要用 1912 年之後的最新作品(例如畢卡索、卡洛)創作藝術家、創意專業人士或工作室風格的影象。
只有當藝術家、創意專業人士或工作室的最新作品創作於 1912 年之前(例如梵谷、戈雅)時,您才能命名他們。
關於公眾人物的產生,二狗我請朋友自己試了一下,果然:
有使用者說,原來的提示真的會讓它變得懶惰:
不久前,OpenAI 將 GPT-4 Turbo 預覽模型更新為 GPT-4-0125-Preview,新模型還修復了乙個影響非英文 UTF-8 生成的 bug。
同樣更重要的是 OpenAI 的宣告新模型可以比之前的預覽模型更徹底地完成生成等任務,這將減少模型未完成任務的“懶惰”情況!
蕪湖! 要知道,前段時間,有多少人抱怨gpt-4模型變懶,OpenAI當面正式承認了。
有網友認為,GPT-4可能與季節有關,GPT-4也會像學生一樣有“寒假”,冬天會變得懶洋洋的。
在最近的一篇文章中,加州大學聖克魯茲分校研究人員的新發現可能解釋了 GPT-4 效能下降的根本原因
我們發現,LLM在訓練資料建立日期之前發布的資料集上的表現比在之後發布的資料集上表現得更好。 “他們在”看得見“的任務上做得很好,但在新任務上表現得很糟糕。 這意味著LLM只是基於近似檢索的模仿智慧型方法,主要是在沒有任何理解水平的情況下記住事物。
說白了,LLM的泛化能力“沒有聲稱的那麼強”,造成這一結果的主要原因之一就是任務汙染,這是資料汙染的形式之一。
當時,為了應對GPT-4的偷懶,不少網友給出了乙個神奇的提示:
最後,我希望ChatGPT越來越好用