深度兴趣网络DIN-SIEN-DSIN

看看阿里如何在淘宝做推荐,实现“一人千物千面”的用户多样化兴趣推荐,首先总结下DIN、DIEN、DSIN:

传统深度学习在推荐就是稀疏到embedding编码,变成稠密向量,喂给NN

DIN引入attention机制,捕获候选商品和用户浏览过的商品之间的关系(兴趣)

DIEN在DIN基础上引入序列概念,将用户历史行为序列纳入到网络内

DSIN将行为序列划分为session,更符合RNN概念

大多推荐场景下数据下都包含如下信息,用户内在属性信息、用户行为信息、商品信息、上下文信息,一个明显不同的不同用户的行为信息差异很大。

深度兴趣网络DIN-SIEN-DSIN

深度学习在推荐系统一般做法:

稀疏向量 -- embedding -- fixed-length稠密向量 --- MLP

深度兴趣网络DIN-SIEN-DSIN

这样做有什么问题?

一个明显的问题是不同用户的行为序列长度是不同的,fixed-length信息表达不全面

用户最终的行为只和历史行为中的部分有关,因此对历史序列中商品相关度应有区分

DIN

根据上述问题,有两个解决思路:

对不同用户尝试不同维度的向量,导致训练困难

如何在有限的维度表示用户的差异化兴趣?

DIN从第二个问题出发,引入局部激活单元,对特定的ad自适应学习用户兴趣表示向量。即同一用户在获选ad不同时,embedding向量不同。

深度兴趣网络DIN-SIEN-DSIN

key idea

使用attention机制捕获ad和用户行为序列商品之间的关系

看结果

深度兴趣网络DIN-SIEN-DSIN

和ad相似度搞得物品拥有更高的权重

不相关物品的相似度低

下面是两个小tricks,对结果提升有帮助:

Mini-batch Aware Regularization

Dice Activation Function

tricks的细节可以参考原论文。

DIEN
DIEN使用了GRU来建模用户行为序列,在DIN基础上考虑序列信息

使用GRU建模序列信息,即用GRU最后时刻的隐状态表示序列

修改GRU为AUGRU

深度兴趣网络DIN-SIEN-DSIN

看下AUGRU部分:
\[ a_{t}=\frac{\exp \left(\mathbf{h}_{t} W \mathbf{e}_{a}\right)}{\sum_{j=1}^{T} \exp \left(\mathbf{h}_{j} W \mathbf{e}_{a}\right)} \]

\[ \begin{aligned}&\tilde{\mathbf{u}}_{t}^{\prime}=a_{t} * \mathbf{u}_{t}^{\prime}\\&\mathbf{h}_{t}^{\prime}=\left(1-\tilde{\mathbf{u}}_{t}^{\prime}\right) \circ \mathbf{h}_{t-1}^{\prime}+\tilde{\mathbf{u}}_{t}^{\prime} \circ \tilde{\mathbf{h}}_{t}^{\prime}\end{aligned} \]

根据attention score控制更新门。

看模型,直观的思考貌似很合理,但是有两个问题:

序列信息包含多长?即短期兴趣还是长期兴趣的问题

序列连续否?不同时期的兴趣不一样,序列间隔过大相关性可能很低

用户是否一定服从严格的序列?先点那个和后点那个的区别大吗

1.DIEN使用过去14天信息行为序列,从RNN角度来说可能短期内行为信息更重要,但长期信息是否引入了噪音?

2.过去14天内用户需求会变。比如第一天买了衣服、可能十天后买的是书

3.用户点击顺序不一定重要,自己想一想好像是

关于使用RNN是否合适,RNN只关心t-1(上一步)和t(当前步),而没有涉及t-1和t之间的时间间隔。没涉及不代表不重要,反而是因为其使用前提就是假定各步骤之间是等间距的,见维基百科。

A time series is a series of data points indexed (or listed or graphed) in time order. Most commonly, a time series is a sequence taken at successive equally spaced points in time"

以上部分内容摘自[3].

DSIN

DSIN进一步做出优化,在每个会话中的行为是相近的,而在不同会话之间差别是很大的,如下图的例子:

深度兴趣网络DIN-SIEN-DSIN

模型架构

深度兴趣网络DIN-SIEN-DSIN

会话分割层

将用户的点击行为按照时间排序,判断每两个行为之间的时间间隔,前后的时间间隔大于30min,就进行切分。

兴趣提取层

用Tansformer编码用户行为序列,简单来说就是输入一个序列,输出一个对应的embedding序列。

引入了偏置编码(Bias encoding),实质上是对序列中位置信息的编码

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zwgyyp.html