AI大模型学习
原创AI博客
大模型技术资讯
大模型评测排行
大模型评测排行榜
大模型数学推理能力排行榜
大模型代码编程能力排行榜
大模型图片编辑能力排行榜
LMSys ChatBot Arena排行榜
Berkeley大模型工具使用能力排行榜
大模型综合能力排行榜(旧)
大模型编程能力排行榜(旧)
OpenLLMLeaderboard中国站
AI大模型大全
最新大模型列表
大模型部署教程
大模型对比工具
大模型评测基准
大模型评测基准
SWE Bench Verified
ARC-AGI-2
AIME 2025
FrontierMath-Tier4
MMMU
AI Agents列表
AI资源仓库
AI领域与任务
AI研究机构
AI数据集
AI开源工具
数据推荐
国产AI大模型生态全览
AI模型概览图
AI模型月报
AI基础大模型
AI工具导航
AI大模型工具导航网站
在线聊天大模型列表
Explicit factor models for explainable recommendation based on phrase-level sentiment analysis
Vanessa He
ACM
2014-07
3679
2017/10/16 09:46:29
隐向量模型(Latent Factor Models,LFM),比如说矩阵分解(Matrix Factorization,MF),因其在推荐精度上有较好的表现,所以受到了学术界以及工业界的广泛关注,但是,应用这样算法的推荐系统在实践应用上存在着一些重要的问题:(1)很难知道用户是如何评价产品各方面不同的属性,从而得到的单一评分?这样就很难针对有特殊需求的用户进行推荐。(2)很难给出直观解释关于为什么一个产品被推荐,更难解释关于一个产品为什么不被推荐?因为缺乏解释性,那么在推荐系统应用时就会削弱推荐系统说服用户和帮用户更好决策的能力。这么看来,解释性和预测精度二者变得水火不容了,于是,本文便考虑能不能在两者上有解决方案? 大部分电子商务网站和评论服务类网站给用户提供了自由评论的平台,而这些文本评论中包含了用户对产品特征的情感、态度和偏好等丰富的信息,这为解释性的推荐提供了研究视角。不同的用户可能会关心产品的不同方面特征,而研究发现用户的文本评论也往往涉及不同的特征,比如说,尽管有的用户给相同的产品相同的评分,但是有的关心手机屏幕,有的关心电池生命等。从文本中抽取显式产品特征和相应的用户观点不仅仅能帮助理解不同用户的偏好,也可以帮助了解为什么或怎样一个产品被推荐或不被推荐给某用户,从而实现更好的推荐和更好的解释性。 基于以前的研究分析,本文提出一种新的显特征模型(Explicit Factor Model,EFM)来实现精度和解释性协调问题。如图1所示,首先,通过短语级情感分析文本评论语料库产生一个情感词典,其中的每个条目都是(F,O,S)这样的三元组,并且特征词F用于构建显特征空间,比如说,评论“The service rendered from the seller is excellent, but the battery life is short”,(F,O,S)形式的(service, excellent, +1)和(battery life, short, ??1)可以通过短语级的情感分析抽取出来,其中,F表示描述产品属性的特征词或短语,O表示用表达户对特征态度的观点词或短语,S表示观点词的情感值(可以是正向的,也可以是负向的);然后,用户关注的特征和产品在特征上的质量被集成入一个统一的分解模型中,这一模型之后将被用于产生个性化推荐和相关解释。这一应用举例来看,系统将会区分一个用户可能会关心内存、耳机和服务,因此,在这些特征上表现较好的产品将会被推荐给用户。  本文主要的研究思路主要是根据图1而来,下面来看看研究的主要内容: 介绍研究内容之前,表1中已列出研究中主要的符号表示,其中,L通过对用户评论的短语级情感分析得到,矩阵X和Y通过将用户评论与产品词典的匹配而构建的。  ### **一、构建情感词典(Sentiment Lexicon Construction)** 本文情感词典的建立主要参考先进的优化研究成果,这一过程也不是本文研究的核心,因此,想要详细了解其过程的,请参考相关文献【1】【2】。大致主要分为以下三步: 1、使用分析工具从文本评论语料库中中抽取特征词集F; 2、抽取观点词集O,并尽可能与特征词组成词对(F,O); 3、标注特征-观点对(F,O)的情感极性,并被赋予情感值S,于是构建成了最终的情感词典条目(F,O,S)。 ### **二、特征-观点对匹配(Feature-Opinion Pair Mapping)** 鉴于情感词典L和一条评论文本,我们便可以产生一组特征-情感对(F,S'),其中,S'表示评论者对于产品的某个特征的情感值。  举例来看,如图2所示,每个阴影块表示一个用户关于一个产品的评论,其中包含数字评分和一段文本评论。基于此,我们首先需要弄清用户在文本所提到的词典中的条目,同时还要弄清其情感极性是否包含负向极性词,如“not”或“hardly”;然后,产生一组特征-情感对来表示文本评论,举例如(screen, +1)和(earphone, -1)。 为了普适性,本文采用相关文献【1】【2】的方法,算法在语句级水平上通过语法分析将评论文本语句分成树结构,并且应用一个基于规则的有限匹配机器方法来匹配特征-观点对,从而获得词典条目(screen, perfect, +1)和(earphone, good, +1)。然后,负向极性词用来进一步修正该条目中的情感值,即:  ### **三、用户-特征关注矩阵(User-Feature Attention Matrix)** 假定不同用户关注不同产品特征,并且他们往往会在评论中频繁评论自己关心的特征。因此,本文构建一个用户-特征关注矩阵X,其中每个元素都衡量了用户对产品特征的关注程度。 F={F
1
、F
2
、···、F
p
}表示产品显特征集,U={u
1
、u
2
、···、u
m
}表示m个用户。为了产生矩阵,我们考虑用户u
i
发表的所有评论,并抽取所有的(F,S')。如果特征F
j
被用户u
i
提及了t
ij
次,那么就定义用户-特征关注矩阵X如下:  上式将t
ij
规范到[1,N]范围内,N在真实世界中通常是指五分或五星的评价,于是N=5。 ### **四、产品-特征质量矩阵(Item-Feature Quality Matrix)** 同理,也需要构建产品-特征质量矩阵Y,其中每个元素衡量了产品在每个特征上的质量状况。 P={p
1
、p
2
、···、p
n
}表示n个产品,对于每个产品p
i
,我们利用其所有相关评论,抽取出相应的(F,S')对。如果特征F
j
被产品p
i
提及了k次,在这k次提及中的平均情感值被定义为s
ij
,那么就定义产品-特征质量矩阵Y如下:  通过s
ij
和k分别描述了产品p
i
的特征F
j
的情感倾向和流行度。同样,上式将s
ij
规范到[1,N]范围内。 ### **五、显-隐特征集成(Integrating Explicit and Implicit Features)** 下面将来揭示如何集成这些成一个分解模型,同时满足精度和解释性的推荐目标。 与用户-产品评分矩阵A的分解模型类似,我们建立了用户-特征关注矩阵X和产品-特征质量矩阵Y,于是便可以基于用户-特征和产品-特征关系观测来估计用户、特征和产品之间的隐表示。如下所示:  其中,λ
x
和λ
y
是正则化系数,r表示显特征数。 假定一个用户对一个产品的总评分(矩阵A中一个元素)是基于产品不同特征的观点的。在此假设下,我们利用隐表示U
1
和U
2
来估计评分矩阵,U
1
和U
2
分别刻画了在显特征上的用户关注和产品质量。然而,我们也承认这些显特征并不能完全解释评分,且一个用户在做决定时可能会考虑其他的隐藏特征。因此,我们也引入r'隐特征H
1
和H
2
,并用P=[U
1
,H
1
]和Q=[U
2
,H
1
]来对评分矩阵A来建模:  综合等式(4)和(5),我们可以集成显-隐特征构建分解模型如下:  其中,当r=0时,这个模型便变成了传统的关于用户-产品评分矩阵A的隐矩阵分解模型,这便意味着显特征未被用于推荐中。公式(6)的优化求解可被用于推荐和解释。  ### **六、EFM建模学习(Model Learning for EFM)** 受文献【3】驱动,我们引入一种交替最小化算法来确定五个参数U
1
、U
2
、H
1
、H
2
和V的最优解决方案。优化目标函数参数的关键想法就是在优化其中一个参数时,固定其它四个参数。算法不断更新参数,知道收敛或者到达指定的迭代次数。  ### **七、个性化推荐(Personalized Recommendation)** 通过分解模型的优化求解,我们可以估计用户-特征矩阵X、产品-特征质量矩阵Y和用户-产品评分矩阵A中任何一个缺失元素,其中X=U
1
V
T
、Y=U
2
V
T
、A=U
1
U
2
T
+H
1
H
2
T
。基于此,我们可以产生top-k的个性化推荐,也可以提供特征水平下的解释。 #### **1、Top-k推荐(Top-K Recommendation)** 假定一个用户的决定是由几个重要特征决定的,而不是几百个产品特征同时决定。因此,我们使用用户最关心的K个特征来为其产生推荐列表。对于用户u
i
而言,行向量X
i
的k个最大值列数表示为C
i
={c
i1
、c
i2
···c
ik
}。于是,对于用户u
i
而言,产品用户p
j
的排序得分计算如下:  其中,N=max(A
ij
)用户限定第一部分的范围,通常N=5。第一部分是一个基于用户关心的k个最重要产品特征的用户-产品相似性得分。0<α<1是用来权衡基于特征的得分和用户对产品的直接评分。Top-k推荐便是基于R
ij
对产品的排序。 #### **2、个性化的特征水平下的解释(Personalized Feature-Level Explanation)** 本文研究的EFM框架的重要特点就是能够分析在众多特征中,哪个特征在推荐中至关重要。除了推荐产品,本文也研究它的一个不常用场景:当用户查看某产品时,系统告诉用户该产品不值得购买,因为,系统认为用户不应购买这一产品的行为可以获得用户的信任,并帮用户更准确的做出决策。本文实验中提供的解释模板如下:  对于每一个用户u
i
和推荐产品列表p
j
而言,用于解释的特征为F
c
,其中,  当对于不推荐列表而言,则表示为:  由此看来,本文研究工作便集中于解释的说服性上。在众多用户最关心特征上,我们选择其中最好的或最差的表现进行对应的推荐。
赏
支付宝扫码打赏
如果文章对您有帮助,欢迎打赏鼓励作者
Back to Top