阿里2014大数据竞赛:品牌点击率预测

1.    问题介绍与评估指标

开放数据:天猫用户在4月-8月的品牌行为数据,对品牌的点击、购买、收藏、加入购物车等。(一共5个月的数据)

预测数据:同样这些用户在9月购买的品牌。

提供的数据形式如下:

     

具体内容,请戳比赛介绍

2.    天猫推荐算法

在阿里内部,天猫算法团队将品牌推荐转化为一个点击率预估问题。(注意:这里讨论推荐的目标是为用户展示之后用户会去点击,但是比赛要求的是预测用户是否去购买)

选取(USERi, BRANDj),即用户-品牌组合作为样本,对每个样本建立若干个特征f1/f2/f3…,是否点击作为因变量y(点击标记为1,未点击标记为0),最终对y进行预测得到点击的概率:

    

具体到点击率预估的模型上,使用Learning to Rank的算法,例如LR、Random Forest、GBDT。

上面的做法对于产生过交互的用户-品牌组合,无论是样本选取,还是特征抽取都比较容易,但是还要考虑挖掘从未发生交互的用户-品牌组合进行推荐。这部分“未知”的品牌推荐依靠基于Item的协同过滤:

   

3.    问题分析

但凡学校里上过机器学习相关课程的同学,听到推荐系统之后,第一反应可能就是协同过滤。可是这里用协同过滤做的效果并不好,内部赛的冠军算者(@算者-闫新发)在论坛上提到了两点(夺冠感言:走进业务,提升对世界的认知能力),结合算者的观点和我的想法,可能的理由如下:

    1.   代价不同。我理解是购物的代价比较高,使得用户的很多操作都无法转化为购买,大多数的操作可能都只能是噪音(对于最终的购买行为而言),在有噪音的数据上反复操作(协同过滤的确是算来算去),会让噪音迅速增大。如果说购买预测的准确率本来就很低,协同过滤的准确率可能还远在其下。
    2.   喜好的相似性和购买需求的单一性。用户喜欢逛商城,看衣服,但是用户买衣服的频率是有限制的。而协同过滤用到的打分,其实是就是用户的喜好程度,但是我们无法拿到准确的能反映出品牌需求频率的数据,作进一步的推断就缺少依据了。更有糟糕的情形是,用户对品牌A的喜好程度很高(经常买),品牌A和品牌B的相似度很高,这时候给用户推荐B,用户反而不买账,为什么呢?因为我是品牌A的忠实顾客,而同类商品的转移成本对我来说太高了。
    3.   数据的完善程度。被不止一个用户碰到的品牌数太少,不到50%,绝大多数品牌只与一个用户发生过交互,完全无法和一些典型的协同过滤研究用的数据集相比。

为什么天猫就可以利用协同过滤探索到未知的组合呢?其实上面提到的是点击率的预测,而点击和购买不同,无需考虑代价和需求问题。况且天猫内部必然掌握着更多的数据,多到足以让CF发挥作用。

此路不通,我们自然地想到要在有过交互的组合上做购买率预估。

4.    数据集划分与抽样

训练集/预测集划分

训练集和预测集的划分如下:

X(特征提取)

Y(label/prediction)

训练集

1-92

93-123

预测集

1-123

?(下个月)

即第1-92天的数据作为训练样本,并用来提取特征(X),93-123天的购买情况对前面的样本进行标记(购买的记1,未购买的记为0),在(X,Y)上预测得到购买率预测模型。然后用1-123天的数据作为预测样本,并用来提取特征,应用刚才得到的购买率预测模型,得到下个月的购买率。

这里其实存在一个问题,训练的模型是用前三个月预测第四个月,预测却是在前四个月的样本上预测第五个月的购买,这里的不一致性该如何解决?我们将在后面讨论这个问题。

每天只能提交一次,需要建立相应的线下测试框架:

X(特征提取)

Y(label/prediction)

训练集

1-61

62-92

预测集

1-92

?(93-123)

即根据前三个月预测第四个月的效果,估计前四个月预测第五个月的效果。

按转化行为的样本划分

考虑购买和收藏行为的特殊性,再对数据所以下的划分,比较各自转化为下个月购买的效果:

数据划分

P

R

F1

最近三个月购买过的组合

1.86%

5.58%

2.79%

最近三个月收藏(或购物车)且从没有购买过的组合

0.61%

0.97%

0.76%

最近三个月点击且从没有收藏(或购物车)或者购买过的组合

0.22%

12.88%

0.44%

购买的转化率是最高的,别忘记这是品牌推荐,在现有品牌能满足需求的前提下,用户不会太愿意承担购买新品牌的风险。而收藏的操作成本比点击要高,故用户对于这种品牌的喜好程度更高。至于纯粹的点击行为,则是最难准确预测的部分。

接下来将把全部的样本按照上面分成三类。这样划分的最早我们的准确率总是上不去,原因就是纯粹点击转化做的太差了,于是索性先把购买抽出来做好,后来每种转化途径的准确率都上去了,但是却沿袭了之前的这种样本划分。简单说,就是“历史遗留问题”。后来也没有比较过是不是所有样本放在一起,使用大量稀疏特征会更好(囧)。不过为了下面说明方便,请暂时接受这种划分的设定。

5.    特征提取

特征提取前的预处理:

特征工程重在做细、做实,因此如果在特征提取前不做预处理,个人实在无法接受。譬如考虑购买,很显然在最后一次购买后若干天之后又产生了点击,这里的点击和别的点击次数是不同的,它很有可能预示着一次新的购物行为的开始。因此这样的点击行为应该抽出来单独做成一个特征。而这种序列的提取,用MapReduce最容易实现。

我们组的特征数一直上不去,最终锁定在25-30,曾经接受@give学姐的建议,尝试将特征扩大到200维,可是效果也一直不好。特征提取是个考验细节工作的活,估计某个关键细节没做好。

所有的特征可以分成四大类,下面介绍每类特征的设计思路。

流量特征

流量,就是点击或购买等行为的次数。这也是唯一建立在用户-品牌组合上的特征(其他的特征都只是在用户或品牌的某一个维度上展开)。流量有两个特性,一是不同行为的重要性更不相同,二是按照时间衰减,短期的操作行为和购买的相关性最强。

有两种构造流量特征的方法可以让模型自动学习到时间权重,一种如下图所示:

   

  

最近一周点击次数、上周点击次数、上上周点击次数……

另一种描述方法是按照用户对品牌操作的行为序列进行描述,如最近一次点击次数、最近一次点击时间、最近倒数第二次点击次数、最近倒数第二次点击时间……

用户购买力/品牌销售量

反映用户的购买能力和某个品牌的销售情况。只取相关性最强的最后一个月数据。

时间间隔类特征

一种是转化间隔:某种行为经过多长时间可以转化为购买,例如用户将一个品牌加入收藏之后,倾向于过多长时间来购买这个品牌。反过来也可以在品牌维度上定义转化间隔类的特征。

另一类是反应用户在网站上的活跃度。例如用户回访天猫的平均时间间隔。

可以考虑的汇总指标有平均数和中位数,平均数的效果明显好于中位数。

转化率类特征

反映用户和品牌的某种操作转化为购买的比率。具体的算法可以分为按照次数和按照种类数计算的转化率。

如果只考虑用户单次购买行为的成功率,还可以定义跳出率特征(Bounce Rate)。由于缺少进一步的信息,取用户有操作的每天作为统计上线次数的单位,由此定义  

      跳出率=用户发生购买行为的天数/用户上线的总天数

6.    模型选择

Tree-based Models

阿里的算法工程师曾经做过一个分享《海量数据下的非线性模型探索》,提到在淘宝曾经有一个预测下一天ad的ctr的规则:

这个规则很简单,但是在很长时间里打败了各式各样的线性模型。

此外,在淘汰赛的小数据集上,很多同学都抱怨为什么自己研究了大半天的算法,反而比不上自己拍脑袋想出来的几条规则?

其实这都反映出来,线性模型无法很好地拟合数据。

相对的,基于决策树的算法Random Forest和GBDT在拟合效果上明显好于线性模型,同时两种方法通过集成学习的方式各自避免了过拟合,在数据集跑出了较高的成绩。

决策树的另一个优点是大多数特征不需要太多的后处理,特征选择的工作稍微做的马虎一点效果影响也不大。(我是说相对而言,如果想取得特别好的名次需要好好做特征选择)

Logistic Regression

LR则对特征的要求要“娇惯”得多,首先必须是线性相关的特征。但是有些特征就不是线性相关的,但是又的确对转化率会有影响,这时就需要做预处理了。我们用的处理方法是排序并分箱,从而得到一个偏线性的离散化的特征。

LR的另一个问题是它无法学到特征组合的知识,而有些信息只有通过特征间的组合才能表达出来。例如,比起用用户的购买力作为特征,考虑用户的购买力与这个品牌是否match要更加靠谱,对应的需要将特征进行组合,例如相乘或者相除。

最近在微博上看到很多人在讨论特征离散化的问题,据说,“在工业界,很少直接将连续值作为特征喂给逻辑回归模型,而是将连续特征离散化成一系列0、1特征,交给逻辑回归模型”,还有人特地将讨论的内容整理了一下,感兴趣的同学可以参考:特征离散化、特征组合以及线性模型的非线性基扩展

        

训练中的抽样

这是一个不均衡的预测问题,如果我们把所有的负样本都交给算法,可能模型不管预测什么都是一个negative的结果,大大降低预测的准确度。因此,需要对负样本进行抽样。对于不同的数据划分,我们分别选择1:2、1:5、1:20,此时得到的结果比较均衡。

7.    预测结果融合

从数据出发

前面提到,在训练之前,负样本进行过抽样,因此得到的模型必然会偏向抽样出的数据。这种随机误差是由于统计抽样造成的,解决这个问题简单而有效的方法就是“多次测量取平均值”,即多次(一般4-5次即可)抽样,最后取多个模型预测的平均值。

这种融合方法可以使F1得分上升0.04%左右。

从模型出发

融合多个不同的模型,那么各个模型间的差异要尽可能大,因此这里以线性的LR和非线性的Random Forest来讲一下我们的融合方法。

在融合前期不妨用简答的加权求和看一下效果:

理想情况下,Random Forest可以较好地拟合数据,而LR则可以获得(线性)一致的结果,削弱某些离群点的表现,如下图所示(图片来自More Is Always Better: The Power Of Simple Ensembles):

        

但是上面的两个分类器在使用之前还满足融合的另一个前提,那就是两种方法的效果不能相差太大。这个比赛中,LR的拟合效果完全比不上随机森林,但是随机森林,或者说决策树本身有一个缺点,即只是对历史行为的记忆,缺少推广性。

举例来说,我们的流量特征使用序列的表示方法,考虑特征last_click_date,即用户最后一次点击时间。使用Random Forest,模型实际在训练集上只学到这个特征为1-92时对应的知识,而在预测集上,最后一次点击时间很可能是100甚至更大(前面提到训练集划分产生的问题)。这个时候,随机森林只能把它当做92(训练集上这个特征最大的可能取值)来处理,从而当last_click_date取100和120的预测值是一样的,而事实上二者应该存在区别(尽管这个区别可能很小)。想一下LR的预测过程,你会发现LR就可以较好地处理外推问题。

总之,既然不能在全局上进行融合,就要在局部数据上进行融合。上面提到的此类样本在提交的结果集中约有5万条,在其上进行Random Forest和LR的融合之后,多命中了大约200条(泪,F1只提高了约0.01%)。

8.    一些不成功的尝试

继续挣扎的Item-Based CF

起初基于Item的协同过滤是从“买了又买”(条件概率)入手,后来在这个基础上我们有考虑“买了不买”的行为。如果“买了又买”对应市场上的互补性商品,则“买了不买”则对应市场上的可替代品牌。例如用户在购买品牌A的那一天的只是点击了品牌B,那么A和B可能就是这种关系。

但是做出来的效果差得很远,如果有精确到秒的数据或许会好一些。

专攻辅助的Item-Based CF

按照协同过滤计算条件概率的公式,将这个预测评分也作为一个特征放入到购买率预测模型中,为有交互的组合提供辅助。结果看来,这种特征基本无效。

环比特征

主要从品牌入手,很多品牌可能具有季节性的销售特征。自然考虑到品牌销量的环比变化,结果发现相关性非常之低而且不稳定。或许是因为,时间序列分析无论哪种方法都只能做极短期的预测,一个月实在太长了。

动力学特征

简单说,就是用户从随便点点到确定购买之前,点击的频率(按天为单位)是一个匀加速,甚至加速度匀速增加的匀加速过程。做了一阶差分之后,发现这种行为特征不明显。其实,用户在购买前的各种不同日期点击品牌的行为本来就很少见,抽样上不去,规律自然不明显。

9.    一些没用上但是有趣的结论

购物冲动在一周内的变化

以一周为周期,购物冲动在周三周四附近最强烈。这个结论未经验证,实际来自于比赛初期大家猜这是哪年数据来着。有人指出购物量较少的两天其实是周六、周日,由此反向推出某一天是周几,进一步推出这是哪一年。

我们组一番扯淡之后觉得,周一周二大家都比较忙,周末则活动太丰富(出去玩之类的),反而没时间精力网购,周三可能是一周最迷茫的时候(我实习的时候就有这种感觉),而且这个时候下单,刚好周末的时候能收到快递……你们信或者不信,反正我信了。

每日购买品牌和点击品牌之间的关系

俗话说“货比三家不吃亏”,决定买一个品牌之前多比较一下总归是不错的,这也反映在多数人的购物行为上。下图中的各个顶点为品牌,边表示在购买其中一种品牌的当日也点击了另外一种品牌,边的权重为这种模式出现的次数。可以看到买到好的品牌都聚在图的中心一块,或者说用户会在畅销品牌之间纠结更多时间:

10.  小结

总的来说,整个比赛的工作量应该是80%的数据分析和特征工程,再加上20%的算法选择和融合。整篇总结也在前面着墨较多,希望可以为有志往数据分析方向发展的同学提供一些思路。但也只是一些思路,结论切勿盲目套用,具体问题仍应具体分析。

冠军感言:
 

一、同为推荐,大不同!

     不知道同学们是否经常在天猫购物,但是相信大家一定听过音乐,看过电影,读过新闻和小说。大家在享受各种娱乐信息的时候,正在被网站的后台悄悄地记录着你的信息,分析着你的偏好,然后向你推荐越来越喜欢的内容。整个过程也许你并没有明显的感知,但是你会慢慢上瘾,喜欢上它,比如爱上虾米。这其实都是推荐算法的功劳。现在,你们也有机会用自己的算法让大家爱上购物。但是,音乐推荐、视频推荐、新闻推荐和品牌推荐的不同之处还是要注意的,要去思考的。

     不都是推荐么?有什么不同的呢?其实,还是有很多不同点的,我觉得没有一个人能把所有的不同点罗列清楚,暂且和大家分享一下我想到的一些点,没有什么逻辑,主要是抛砖引玉,希望大家能跟帖谈谈你们认为的不同点。

     1、代价不同。你推荐给我一首歌,不好听,大不了换一首,不好听,再换,最后总能找到自己喜欢的歌。可是购物呢,你推荐我一个服装品牌,我花了半个月的伙食费买了,等待了几天,到货后发现不满意,怎么办?扔掉?太可惜了!穿在身上?天天别扭!退掉?还要再花点邮费!不管结局怎们样,总之不爽。如果是买个家居什么的,不喜欢的话,可能后悔一辈子。所以购物的用户体验周期要远长于音乐、影视推荐。推荐的试错成本很大。

     2、需求的单一性与喜好的相似性。喜欢看动作片,那么相似的动作片我都能看一遍。但是购物就不同了,购物更多的是刚需,喜欢可爱的衣服,一般人也不会把所有喜欢的可爱的衣服都买下来,更多的是每个季节只买一件。家居类的频次就低了,可能一辈子就买一次。不同的类目的需求频率是不一样的。

     还有很多不同的点,这里不再赘述。找不同有什么用?当然是算法选择了,通过上面的2个不同的点,你还会用协同过滤么?

二、活用数据,不要被数据绑架!

     大家一谈到大数据就兴奋,数据就是资产,数据就是财富。

     其实,大就是少,越是真实的业务数据,数据量就越大,可用的信息比例就越少,更多的是噪音数据。

     玩大数据和玩实验室数据有啥不同?夸张点,就是大海捞针试管捉鱼的不同!如果没有找到适合的信号探测方法,很难找到那根你要的针。

     如果你拟合了噪音数据,那就被数据绑架了,所以不要只看数据,更多地从思考一下业务。

     相关与因果

     最近有本书很火,里面提到一个论点,大概意思是:大数据更重视相关,不关心因果。大家不要迷信这些话。我举几个例子:1)你如果看数据,手机和手机配件的相关性一定很大,如果一个人买了手机,你推荐手机配件是合理的,但是如果一个人买了手机配件,你去推荐手机就有点弱智了。2)孕妇装和奶粉的相关性也许很大,但是买了奶粉的人,推孕妇装就不合适了。所以买了又买的又字不是同时的意思,是条件的意思。

     人的消费行为是有规律的,比如:随着收入的增加会越来越重视品牌,在人生的不同阶段会买不同类目的商品等等;人的消费有心理学现象的,比如:从众购买,容易受限时秒杀等活动影响等。

     信号与噪声

     信息就像能量一样,总会衰减,最终退化成毫无意义的噪声。我昨天点击了某个品牌,说明可能想买,但是如果是上个月点击的,和现在会不会买基本上没有多大关系了。

     对品牌A点击了1次,对品牌B点击了10次,是更喜欢品牌B,还是犹豫不决?需要通过数据去分析,要结合其它指标对判定。

     点击了某个品牌是想买,还是过来看看卖家是否发货?或者没到货前,再品味一下?

     所以,真实的业务数据处处都是噪声。

     活用数据,设计有业务含义的特征体系,是构造鲁棒模型的基础!

  


自我介绍:

算者:ADD大赛内部赛冠军拓扑队队长。阿里巴巴商务智能部数据分析专家。曾就职于中科院自动化所复杂系统与智能科学实验室、光大银行总行、百度;

冠军队其它成员:

楚蛮:学习于中科院计算所感知课题组,曾就职于雅虎北京研究院,百度等公司,现在在阿里巴巴聚划算数据挖掘岗位;

小法:曾就职神州数码、百度、现就职于阿里妈妈事业部,从事项目工程相关工作,平时喜欢打球、dota。

猜你喜欢

转载自blog.csdn.net/weixin_41770169/article/details/82585878