20多年来,eBay一直遵循同一套电商的传统推荐思维,在入门页面、产品搜索页面、价格对比字段、同类产品字段、交叉销售字段、广告产品字段,甚至所谓的“个性化推荐”字段进行推荐。
这套传统做法是产品相似度的推荐,以客户选择或被选择的“主产品”为比较基准,将特征与不同的“候选推荐产品”进行比较,然后根据相似度进行排名,向客户推荐最相似的产品。
多年来,eBay不断加强其推荐技术,例如从比较单词出现频率的TF-IDF计算相似度,到使用NLP模型比较产品标题之间的语义。 他们还不断添加不同维度的产品功能,以进一步比较产品不同方面的相似性。 此外,主产品会根据推荐场景替换为其他信息,如产品搜索条件、客户最近查看的产品等。
在加强推荐技术的同时,eBay不惜投入大量的时间、人力、硬件成本,反复进行大规模、小粒度的测试和优化。 他们经常为单个功能执行数千次实验,或训练多个版本的 AI 模型,只是为了使产品推荐尽可能相关。 例如,为了增强相似度推荐系统对产品描述的理解能力,他们使用了超过30亿个产品标题,训练了两个专有的NLP模型,并在投入实际使用之前再次对其进行微调。
这些做法或多或少带来了结果。 然而,无论这些技术如何演进,归根结底都是比较产品之间特征的相似性,并假设相似性高于相关性,相关性高于客户购买意愿。
训练拥有 30 亿个产品标题的独家 NLP 模型,以加强语义相似性理解
25年来,eBay一直在尝试各种产品相似性建议。 最常比较的产品功能是产品标题。 多年来,他们比较产品标题的方法也一直很传统,使用已经存在了 50 年的 TF-IDF 等统计方法,以及语义交集串联集比较的 Faljakar 相似系数来计算产品名称的相似度。
直到 2020 年代,eBay 才开始转向 NLP 模型来嵌入向量比较。 他们采用了BERT家族模型,这是当时的主导模型。 在对BERT模型的优化版本Roberta进行实验后,他们发现使用NLP模型推断相似性的效果明显高于传统的统计方法。 为了使相似性推断尽可能准确,他们使用了自己的 30 亿个历史产品名称和 2维基百科上500,000,000,000个英语、德语、法语、意大利语和西班牙语句子作为训练数据,并自行构建专属BERT模型。 然后,为了节省计算成本,eBay通过知识蒸馏模型压缩方法和ebert作为教师网络,训练了一个轻量级的学生网络microbert。
为了进一步提高Microbert模型的相似性推断效果,eBay增加了商品的共点击数据,并利用infonce损失函数对模型进行微调,以缩短同类产品之间的嵌入向量距离。 微调后的模型称为 Siamese Microbert,用于将其放入实际推荐场景中。
然而,即使使用了流行的BERT模型,甚至尝试了多种优化和改进方法,eBay在产品标题数据上训练的模型仍然是传统产品相似性思维的推荐结果。
在比较多模态产品功能时,将**与文本嵌入向量集成
在用文字比较产品的相似度后,eBay开始尝试结合**相似度来比较产品。
过去,虽然他们使用AI模型来生成**和文本模态嵌入向量,但它们是独立存储和处理的,很难一起使用。 在实践中,推荐系统仍然使用产品标题的文本嵌入向量作为推荐的主要依据。 只推荐从商品标题文字的相似性来看,可能会发生文字描述接近,但**不相似,甚至质量低下,**不一致,让客户失去兴趣。
为了有效地将向量应用于推荐,他们将图形和文本向量投影到同一个向量空间中,将它们集成到一个多模态嵌入向量中,然后比较相似性。 他们使用 Transh 知识图谱模型将嵌入向量投影到同一个超平面上,以确保嵌入向量代表相同的乘积。 然后,利用三重损失函数对类似商品的嵌入向量进行最小化; 完成这些过程后,eBay 可以使用产品**和文本嵌入向量来比较产品的相似性。
他们使用连体双塔模型进行两个嵌入向量比较,根据相似度计算主产品与推荐产品同时被点击的概率,相似度越高,客户点击推荐产品的概率越高。
第一种是比较产品本身的**和文本嵌入向量之间的距离,以排除因**不一致而削弱相似性。 第二次,主产品与推荐产品,每个**嵌入向量进行相似度对比。
此后,eBay的推荐模式从文字推荐发展到多模态,将文字与**的产品特性相结合,对比商品的相似度。 虽然ebay推荐技术已经向前迈进了一大步,但它仍然专注于产品相似度,以及通过产品相似度做不到的事情,即使使用**组合文本,也仍然做不到。
将客户行为转化为产品功能,将产品信息投射到同一个向量空间中
eBay并非没有意识到客户数据的重要性,也曾利用客户数据解决没有主力产品的推荐比较,只是他们受到产品相似度思维框架的限制,即使拿到客户数据,他们仍然用它来强化产品相似度,并没有真正充分发挥客户数据中多样化兴趣维度的价值。
例如,在eBay首页的“与您最近的浏览量相似”等字段中,有时客户浏览过的主要产品信息尚未获得。 eBay采用所谓的“以客户为导向”的排名模式,该模式分为“深度”和“广度”两部分。 在深度上,eBay将客户浏览和搜索的产品,以及这些行为的频率和顺序,转化为相应的产品特征,作为“客户向量”,作为一般推荐场景中的主要产品角色进行对比。
此外,在广度方面,eBay通过记忆常见的产品销售和客户行为特征来创建一般推荐(而不是个性化)信息,例如热门产品、相关产品和客户习惯。 结合这两种架构的输出数据,该模型可以根据过去的客户行为推荐产品,当他们没有点击主产品时。
虽然他们利用客户行为数据创建了一个“客户向量”来推荐产品,但这个“客户向量”只是从客户行为中提取了一系列产品特征,并用于比较与推荐产品的相似度,仍然没有脱离以产品相似度为推荐依据的精神。
产品相似性范式限制了思维和推荐效应
eBay对产品相似性的重视根深蒂固,每当谈到优化他们的推荐方法时,他们首先想到的是,“我如何加强相似性推断? ”
例如,他们有一个收费的相似度产品推荐广告版面,使用梯度提升树来训练其背后的推荐模型,使用多种排序算法,包括受欢迎程度、产品质量和相似度,以提高广告转化率,放大受欢迎程度对排名的影响。
因此,通过此页面推荐的产品可能会出现与主产品有很大差异的产品,例如出现的**观看页面**,外观与主产品相去甚远。
当eBay团队发现这个问题时,他们直接选择增加产品相似度的权重,而不是进一步研究和微调模型中不同因素的权重。 他们错误地认为,简单地调整相似性将使推荐的产品更具相关性,更有可能引起消费者购买。
他们甚至刻意排除了人气的影响,微调了新模型,过滤了旧模型的结果。 新模式删除了与受欢迎程度相关的所有排序函数,并添加了具有购买概率的目标函数,从而为具有高相似度分数的产品赋予更高的权重。 但是,应用新模型后,推荐结果并没有像预期的那样提高客户的购买率,只有部分产品有效。
这个结果反映出还有其他影响因素需要考虑,但当eBay团队发现推荐机制有误时,他们习惯于将产品相似度视为灵丹妙药,他们首先从这个角度思考解决方案。
eBay完善推荐机制的方法,不是“哪个推荐元素错了”的实验,而只是关注“如何加强相似度权重,加强多少”。 这种对产品相似性的过分强调限制了其工程团队的思维空间。
多年来,eBay不断完善其推荐机制,确实有效改进了基于相似度的推荐方式。 然而,Nitzan Mekel-Bobr**承认,没有必要对旧的做法进行现代化改造,以打破eBay推荐机制面临的瓶颈。 即使相似性推荐做到极致,这种思维一开始就无法处理的推荐场景仍然无法处理。
他认为,eBay机制要想取得突破,就必须从根本上改变思路。 首先,在定义产品相关性时,有必要超越 25 年来对相似性的痴迷,并考虑更多因素。
不仅如此,他们还必须跳出平台思考,否则,当客户感兴趣的产品不被平台视为同一品类时,即使相关性对普通大众来说是显而易见的,产品相似度推荐系统仍然无法推荐。 新思维要从客户的角度出发,尝试了解客户对自己产品的看法,根据每个客户的兴趣调整产品类别和解决方案,从而实现超个性化的产品推荐。