前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >IJCAI2023 | 当符号学习遇到推荐系统: 基于概率逻辑推理的序列推荐方法

IJCAI2023 | 当符号学习遇到推荐系统: 基于概率逻辑推理的序列推荐方法

作者头像
张小磊
发布2023-08-22 18:55:51
2680
发布2023-08-22 18:55:51
举报

TLDR: 本文探索了深度学习和符号学习方法的结合,用以增强序列推荐模型的逻辑推理能力。通过解耦特征嵌入和逻辑嵌入,使序列推荐同时受益于相似性匹配(感知能力)和逻辑推理(认知能力)。

论文:arxiv.org/abs/2304.11383 代码:github.com/Huanhuaneryuan/SR-PLR

研究动机

序列推荐算法已被成功应用于多种实际场景,比如电商、广告、短视频等。尽管当前的深度序列推荐算法取得了不错的推荐效果,其大部分算法都是基于相似性匹配的感知模型。最近的神经符号学习方法取得了巨大的进步,因此将神经符号学习的认知推理能力赋能传统的推荐模型,能够让序列推荐算法同时拥有感知和认知的双重能力,进而提升用户的使用体验。

深度学习和符号学习是人工智能领域中经常使用的两种不同方法。前者是基于数据驱动的学习范式。但如果其没有明确的常识性知识和认知推理,这些对数据要求很高的策略通常很难被概括。相反,后者通过使用逻辑运算符(比如与、或、非等)可以高效的来执行语言理解或逻辑推理任务。基于深度学习的序列推荐算法(如SASRec 等)通过计算历史交互表示和目标物品表示之间的相似性来学习物品的表示并生成推荐。然而,与仅仅计算相似度分数不同,基于符号学习的模型更注重基于用户的认知推理过程进行预测。例如,用户在购买笔记本电脑后,可能更喜欢购买键盘,而不是类似的笔记本电脑。

因此,将深度学习擅长的相似性匹配能力和符号学习擅长的认知推理能力相结合,能够合理高效的利用两者的优势。例如,符号学习可以为从深度学习学到的潜在特征提供一个更灵活的逻辑结构。此外,深度学习的引入使符号学习和推理过程的端到端训练成为可能。然而,将神经符号学习集成到序列推荐算法存在两个挑战。首先,近期的逻辑推理模型是基于嵌入特征的。特征描述和逻辑表示被耦合在同一个嵌入中,这使得模型很难区分哪个潜在特征对特征表示或逻辑推理有贡献。其次,他们大多假设用户的偏好是静态的,并以确定的方式嵌入用户和物品。这种方式忽略了用户的品味充满不确定性,并在不断变化,这就造成了不恰当的推荐。

所提方法

本文旨在利用逻辑推理能力来增强基于深度学习的序列推荐模型,并提出了一个名为概率逻辑推理的序列推荐的通用框架。具体结构可参考下图。在本框架中,特征表示(Feature representation)和逻辑表示(logic representation)在不同的网络中是解耦的,这使得该模型可以从相似性匹配和逻辑推理中双重获益。

具体来说,对于特征部分,以基于深度学习的序列推荐方法(如SASRec、GRU4Rec等)为骨干模型,学习序列的强大潜在表征。该部分包含嵌入层和特征编码模块。对于嵌入层,将物品的ID信息嵌入到物品嵌入矩阵

\mathbf{M}\in R^{|\mathcal{V}\times d|}

中,其中

d

为嵌入维度,

\mathcal{V}

为物品集合。给定用户

u

的历史交互序列

\mathcal{V}_u

,其初始嵌入

\mathbf{e}^u

\mathbf{e}^u=\{\mathbf{m}_1,\mathbf{m}_2,\cdots,\mathbf{m}_3\}

,其中

\mathbf{m}_k\in R^d

表示序列中第

k

个物品的嵌入。特征编码模块将用户的历史序列编码为用户特征表示

\mathbf{H}_f^u=f_{\theta}(\mathbf{e}^u)

对于逻辑部分,分为三个步骤,即概率逻辑嵌入、概率逻辑算子以及概率推理。对于概率逻辑嵌入部分,本文提到了两个转移矩阵(

\mathbf{W}_{\alpha}

\mathbf{W}_{\beta}

),将原始特征嵌入转换为几个独立的Beta分布来表示历史物品。

其中Beta分布是定义在[0,1]上的连续概率分布,其概率密度函数为

p_{[(\alpha,\beta)]}(x)=\frac{1}{B(\alpha, \beta)} x^{\alpha-1}(1-x)^{\beta-1}

。对于

\mathbf{v}_i=[(\mathbf{\alpha}_i,\mathbf{\beta}_i)]=\left[\left(\alpha_{i, 1}, \beta_{i, 1}\right),\left(\alpha_{i, 2}, \beta_{i, 2}\right), \cdots,\left(\alpha_{i, d}, \beta_{i, d}\right)\right]

的每个维度用独立的

\beta

分布而不是单个值来表征不确定性。注意,假设物品表示遵循Beta分布而不是高斯分布,因为目标是保证这些Beta嵌入上的概率逻辑算子是封闭的。

对于概率逻辑算子部分,对这些分布进行两个封闭的概率逻辑运算(即AND,NOT),用KL散度来推断出目标物品的分布。

其中,概率否(NOT)算子

\mathcal{N}({\mathbf{v}_i})

为逻辑表示

\mathbf{v}_i

的倒数:

可以看出,

\mathcal{N}

自然满足否的性质,即

\mathcal{N}(\mathcal{N}(v_i)) = v_i

.此外,如上图所示,算子

\mathcal{N}

可以将高概率密度反向到低密度,使得

\mathcal{N}(v_i)

可以表示用户不喜欢的物品

v_i

对于概率合(AND)算子,给定用户历史交互序列

\mathcal{V}_u=\left\{v_1, v_2, \cdots, v_m\right\}

和其对应的逻辑嵌入

\mathbf{v}_1=\left[\left(\boldsymbol{\alpha}_1, \boldsymbol{\beta}_1\right)\right], \mathbf{v}_2=\left[\left(\boldsymbol{\alpha}_2, \boldsymbol{\beta}_2\right)\right], \cdots, \mathbf{v}_m=\left[\left(\boldsymbol{\alpha}_m, \boldsymbol{\beta}_m\right)\right]

,具体的概率合算子

\mathcal{C}(\mathbf{v}_1,\mathbf{v}_2,\cdots,\mathbf{v}_m)

定义为:

其中,

\sum

\odot

为按位求和/乘积,

\mathbf{w}_i

通过注意力机制来学习不同物品的重要性。显然,所定义的概率合算子满足

\mathcal{C}(\mathbf{v}_1,\mathbf{v}_1,\cdots,\mathbf{v}_1)=\mathbf{v}_1

的性质。

对于逻辑推理部分,利用成对损失来优化该逻辑网络的参数:

其中,

\mathbf{v}^-

为负样本

v^-

的嵌入。

最后,从传统的序列方法中获得的特征表示

\mathbf{H}_f^u

与从输出Beta分布中采样的逻辑表示

\mathbf{H}_l^u

相连接,以进行预测。

其中,

\mathbf{E}=\frac{\alpha}{\alpha+\beta}

。推荐任务的损失函数为交叉熵损失:

因此,总的损失函数为推荐任务的交叉熵损失和逻辑优化的KL损失,即:

实验效果

本文在三个数据集上对多个基线方法和基于逻辑的推荐算法进行了对比,实验结果展示了本方法的优越性。

随后,在多个数据集上测试了本方法所提出的不同子模块,验证了所提出方法的有效性。

本文参与?腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2023-06-27,如有侵权请联系?cloudcommunity@tencent.com 删除

本文分享自 机器学习与推荐算法 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与?腾讯云自媒体分享计划? ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 研究动机
  • 所提方法
  • 实验效果
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
http://www.vxiaotou.com