非內部產品召回來源是目前主頁上推薦的最重要的召回來源之一。 同時,與向量化召回相比,非內積僅將使用者與專案的匹配度表徵為嵌入內積,非內積召回僅保留專案嵌入,不構建使用者的顯性表示,而是通過評分網路計算使用者與商品的匹配度,大大提高了模型精度的上限,具有很大的優化空間。
型:利用點產品關注度與使用者行為和目標產品進行互動,並根據使用者畫像和原創產品表示生成評分。
索引和檢索
指數離線模型訓練完成後,根據專案嵌入的L2距離構建HNSW指數。
搜尋:線上召回期間,會逐層實時搜尋 HNSW 索引,以找到最佳結果。
保證多樣性:在搜尋過程的最後一層,進行類別維度多樣性修剪。
樣品
正樣本:首頁點選和訂單作為正樣本,負樣本:全站點選隨機負抽樣+鍋池均勻負抽樣。
特徵::使用者點選順序、使用者畫像功能、產品端功能等
學習目標:取樣softmax損失用於將正負樣本建模為多分類問題。
非內積召回模型總體擬合能力較好,但當前方案中的原始訓練樣本相對簡單,負樣本量級較小,阻礙了非內積召回能力的發揮。 為了提高回憶和跟進鏈結的一致性,**現在增加了未點選和精細排列的TOP評分樣本,用於級聯學習。 學習目標從原來的點選正樣本和隨機負抽樣多分類問題公升級為點選、未點選、精細排序樣本和隨機負抽樣之間的精細關係融合。 同時,擴大了負樣本量級,提高了模型評分的準確性。
級聯學習旨在引入各種推薦系統環節中的樣本,並使用排序學習方法擬合真實系統分布。 京東搜尋的多目標實踐引入了訂單、點選和樣本之間的級聯[1],有效提公升了效果。 list-mle[2] 是一種廣泛使用的學習排序方法,它給列表中的樣本打分,並優化得分分布,使其與真實排名一致。 Plist Mle[3]求解了連續多目標優化問題,該問題採用線性縮放策略轉化為單目標優化問題。
一批負樣品富集主要有兩種方法:分批和交叉分批。 CBNS[4] 使用 CrossBatch,它不僅維護乙個佇列,儲存前乙個批次的嵌入,而且在每次迭代後將當前批次的嵌入和取樣概率儲存到佇列中,並將最早的嵌入取消佇列,在計算取樣的 softmax 時,可用於批處理和佇列中的負樣本。 SBC [5] 使用批量方法隨機抽樣樣品,其批次大小與陰性樣品相同。 在MNS中[6],採用混合陰性取樣,並使用多種樣本產生陰性樣本。
新增**個未點選、排列精細的得分最高的樣本,用於級聯學習; 同時,擴大了負樣本量級,提高了模型評分的準確性。
樣品優化:新增未點選的樣本,對樣本進行精細排序。 點選陽性樣本:**未點選=1:4; 對每個陽性樣本對應的請求進行精細分選段抽樣,對段進行精細分選,以-900評分,每段抽樣4個樣本。
學習目標優化:
1.原始學習目標:正樣本和負樣本多分類問題。
2.公升級後的學習目標:點選的正樣本、未點選的精細排序樣本和隨機負樣本之間的精細關係融合:
1.點選陽性樣本 ** 未點選“隨機陰性取樣。
2.點選陽性樣本》精細分選TOP>精分選中間>精分選尾>隨機負抽樣。
先前的非內積優化實驗和參考工作[4,5,6]已經驗證了負樣本的富集可以提高模型的準確性。 在模型訓練過程中,同一批次的樣本被隨機抽取為陰性樣本[6],可以大大增加陰性樣本的數量。
優化點:陰性樣本數量從100個擴大到1000個。
採用離線燒蝕實驗驗證了模型在各優化點的評分準確性得到提高。
離線實驗結論:
1.多組消融實驗驗證了引入完整的級聯未點選和精細排列的樣品可以帶來明顯的離線效益,尤其是在階次維度上。
指標: 外頁 uctr +002%(0.8)、點選+053%,UCTR 內頁 +014%,外頁 UCVR+493%(0.00),包括內頁UCVR+417%(0.00),外頁推薦使用者轉化率為+464%(0.00),包括內頁推薦使用者轉化率+367%(0.00)
召回源指標:非內部產品召回線上召回來源**相對+25%,點選率持平,CVR相對+4%。
1.精細排列TOP評分樣本,引入未點選樣本+級聯學習可大幅提公升離線HITRATE指標,線上召回源顯著增加(+25%),點選率持平,CVR顯著提公升。
2.在負樣本富集實驗中,命中率隨著負樣本的增加而增加。 未來,我們將繼續找出負取樣擴充套件的上限。
1] 京東搜尋多目標召回模型實踐
2] listwise approach to learning to rank: theory and algorithm
3] position-aware listmle: a sequential learning process for ranking
4] cross-batch negative sampling for training two-tower recommenders
5] sampling-bias-corrected neural modeling for large corpus item recommendations
6] mixed negative sampling for learning two-tower neural networks in recommendations
作者:京東零售張淑旺。
*:京東雲開發者社群**轉載請註明**。