item2vec

其实item2vec 是word2vec的演化版,需要将一个人的浏览记录当做一段文字,记录中的每一个item 当做一个词, 这样就可以得到item与item之间的相似度。
使用这种方式有个前提,item必须很庞大,如果item很小,估计效果就很不理想。

Embedding在数学上表示一个maping, f: X -> Y, 也就是一个function,其中该函数是injective(就是我们所说的单射函数,每个Y只有唯一的X对应,反之亦然)和structure-preserving (结构保存,比如在X所属的空间上X1 < X2,那么映射后在Y所属空间上同理 Y1 < Y2)。那么对于word embedding,就是将单词word映射到另外一个空间,其中这个映射具有injective和structure-preserving的特点。

也就是说,如果推荐的候选集很小(比如是供应商,供应商一般不会很大),此方法应该会失效。

参考:https://www.zhihu.com/question/32275069/answer/80188672

猜你喜欢

转载自blog.51cto.com/12597095/2106929
今日推荐