非內部級聯學習

Mondo 汽車 更新 2024-02-01

非內部產品召回來源是目前主頁上推薦的最重要的召回來源之一。 同時,與向量化召回相比,非內積僅將使用者與專案的匹配度表徵為嵌入內積,非內積召回僅保留專案嵌入,不構建使用者的顯性表示,而是通過評分網路計算使用者與商品的匹配度,大大提高了模型精度的上限,具有很大的優化空間。

:利用點產品關注度與使用者行為和目標產品進行互動,並根據使用者畫像和原創產品表示生成評分。

索引和檢索

指數離線模型訓練完成後,根據專案嵌入的L2距離構建HNSW指數。

搜尋:線上召回期間,會逐層實時搜尋 HNSW 索引,以找到最佳結果。

保證多樣性:在搜尋過程的最後一層,進行類別維度多樣性修剪。

樣品

正樣本:首頁點選和訂單作為正樣本,負樣本:全站點選隨機負抽樣+鍋池均勻負抽樣。

特徵::使用者點選順序、使用者畫像功能、產品端功能等

學習目標:取樣softmax損失用於將正負樣本建模為多分類問題。

非內積召回模型總體擬合能力較好,但當前方案中的原始訓練樣本相對簡單,負樣本量級較小,阻礙了非內積召回能力的發揮。 為了提高回憶和跟進鏈結的一致性,**現在增加了未點選和精細排列的TOP評分樣本,用於級聯學習。 學習目標從原來的點選正樣本和隨機負抽樣多分類問題公升級為點選、未點選、精細排序樣本和隨機負抽樣之間的精細關係融合。 同時,擴大了負樣本量級,提高了模型評分的準確性。

級聯學習旨在引入各種推薦系統環節中的樣本,並使用排序學習方法擬合真實系統分布。 京東搜尋的多目標實踐引入了訂單、點選和樣本之間的級聯[1],有效提公升了效果。 list-mle[2] 是一種廣泛使用的學習排序方法,它給列表中的樣本打分,並優化得分分布,使其與真實排名一致。 Plist Mle[3]求解了連續多目標優化問題,該問題採用線性縮放策略轉化為單目標優化問題。

一批負樣品富集主要有兩種方法:分批和交叉分批。 CBNS[4] 使用 CrossBatch,它不僅維護乙個佇列,儲存前乙個批次的嵌入,而且在每次迭代後將當前批次的嵌入和取樣概率儲存到佇列中,並將最早的嵌入取消佇列,在計算取樣的 softmax 時,可用於批處理和佇列中的負樣本。 SBC [5] 使用批量方法隨機抽樣樣品,其批次大小與陰性樣品相同。 在MNS中[6],採用混合陰性取樣,並使用多種樣本產生陰性樣本。

新增**個未點選、排列精細的得分最高的樣本,用於級聯學習; 同時,擴大了負樣本量級,提高了模型評分的準確性。

樣品優化:新增未點選的樣本,對樣本進行精細排序。 點選陽性樣本:**未點選=1:4; 對每個陽性樣本對應的請求進行精細分選段抽樣,對段進行精細分選,以-900評分,每段抽樣4個樣本。

學習目標優化:

1.原始學習目標:正樣本和負樣本多分類問題。

2.公升級後的學習目標:點選的正樣本、未點選的精細排序樣本和隨機負樣本之間的精細關係融合:

1.點選陽性樣本 ** 未點選“隨機陰性取樣。

2.點選陽性樣本》精細分選TOP>精分選中間>精分選尾>隨機負抽樣。

先前的非內積優化實驗和參考工作[4,5,6]已經驗證了負樣本的富集可以提高模型的準確性。 在模型訓練過程中,同一批次的樣本被隨機抽取為陰性樣本[6],可以大大增加陰性樣本的數量。

優化點:陰性樣本數量從100個擴大到1000個。

採用離線燒蝕實驗驗證了模型在各優化點的評分準確性得到提高。

離線實驗結論:

1.多組消融實驗驗證了引入完整的級聯未點選和精細排列的樣品可以帶來明顯的離線效益,尤其是在階次維度上。

指標: 外頁 uctr +002%(0.8)、點選+053%,UCTR 內頁 +014%,外頁 UCVR+493%(0.00),包括內頁UCVR+417%(0.00),外頁推薦使用者轉化率為+464%(0.00),包括內頁推薦使用者轉化率+367%(0.00)

召回源指標:非內部產品召回線上召回來源**相對+25%,點選率持平,CVR相對+4%。

1.精細排列TOP評分樣本,引入未點選樣本+級聯學習可大幅提公升離線HITRATE指標,線上召回源顯著增加(+25%),點選率持平,CVR顯著提公升。

2.在負樣本富集實驗中,命中率隨著負樣本的增加而增加。 未來,我們將繼續找出負取樣擴充套件的上限。

1] 京東搜尋多目標召回模型實踐

2] listwise approach to learning to rank: theory and algorithm

3] position-aware listmle: a sequential learning process for ranking

4] cross-batch negative sampling for training two-tower recommenders

5] sampling-bias-corrected neural modeling for large corpus item recommendations

6] mixed negative sampling for learning two-tower neural networks in recommendations

作者:京東零售張淑旺。

*:京東雲開發者社群**轉載請註明**。

相關問題答案

    我可以學習習 PMI ACP的非專案管理職位嗎?

    不在專案管理職位的人也可以學習習 PMI ACP。PMI ACP 是敏捷專案管理的認證,敏捷適用於任何行業和領域,而不僅僅是專案管理。因此,即使是那些不從事專案管理崗位的人,也可以通過學習習和掌握敏捷方法來提高自己的專業能力和競爭力。但是,需要注意的是,PMI ACP 認證的准入標準包括對專案經驗和...

    無監督學習中的主成分分析演算法

    主成分分析 PCA 是一種常用的無監督學習演算法,用於資料降維。它可以將高維資料對映到低維空間,同時盡可能保留原始資料的資訊。本文將介紹 PCA 演算法的原理和應用,以及如何使用 Python 實現它。.主成分分析演算法原理。PCA演算法通過在資料中查詢最具代表性的特徵向量,將原始資料對映到新的低維...

    學習 習 強國 第 229 頁 非四大名著 773 《古代戰爭》問題 86 刪節版

    題庫作者 承載製造。習筆記 天美。從年到年,天共出版了個新題目,其中四部名著題,非四部名著題。本文梳理了 非四大名著 的 古代戰爭 的個問題。.鐵製武器最早出現在戰國時期。a 正確。b 錯。答 B 關鍵詞閱讀輔助 鐵器最早出現在西周晚期,但當時還沒有製成鐵器 鐵製武器最早出現在春秋後期。.在戰國時期...

    學習習強國 P 228 非四大名著 773 《中國書法》問題 42 問題 精簡版

    題庫作者 承載製造。習筆記 天美。從年到年,天共出版了個新題目,其中四部名著題,非四部名著題。本文梳理了 非四大名著 的 中國書法 的個問題。.它在中國書法史上占有重要地位,被後世尊為 書法聖人 a 王羲之。b 由國王提出。答 關鍵詞閱讀輔助 書聖人 王羲之。.東晉書法家創作的 蘭亭序言 被後世視為...

    學習 習 Power P 230 非四大名著 773 問題 86 《古代戰爭》中簡版

    題庫作者 攜帶製造習筆記 天美。從年到年,天共出版了個新題目,其中四部名著題,非四部名著題。本文梳理了 非四大名著 的 古代戰爭 的個問題。.我國歷史上最早的長城是 的 防城 它建於西元前世紀,位於湖北省竹山市至河南省沁陽市一帶。a 楚國。b 秦國。答 關鍵詞閱讀輔助 楚國最早的長城 防城 .戰國時...