Spark 2.1.0 入门:协同过滤算法

一、方法简介

​ 协同过滤是一种基于一组兴趣相同的用户或项目进行的推荐,它根据邻居用户(与目标用户兴趣相似的用户)的偏好信息产生对目标用户的推荐列表。

关于协同过滤的一个经典的例子就是看电影。如果你不知道哪一部电影是自己喜欢的或者评分比较高的,那么通常的做法就是问问周围的朋友,看看最近有什么好的电影推荐。而在问的时候,肯定都习惯于问跟自己口味差不多的朋友,这就是协同过滤的核心思想。因此,协同过滤是在海量数据中挖掘出小部分与你品味类似的用户,在协同过滤中,这些用户成为邻居,然后根据他们喜欢的东西组织成一个排序的目录推荐给你(如下图所示)。

基于用户的协同过滤推荐机制的基本原理基于用户的协同过滤推荐机制的基本原理

协同过滤算法主要分为基于用户的协同过滤算法和基于项目的协同过滤算法。MLlib当前支持基于模型的协同过滤,其中用户和商品通过一小组隐语义因子进行表达,并且这些因子也用于预测缺失的元素。Spark MLlib实现了 交替最小二乘法 (ALS) 来学习这些隐性语义因子。

二、隐性反馈 vs 显性反馈

显性反馈行为包括用户明确表示对物品喜好的行为,隐性反馈行为指的是那些不能明确反应用户喜好的行为。在许多的现实生活中的很多场景中,我们常常只能接触到隐性的反馈,例如页面游览,点击,购买,喜欢,分享等等。

基于矩阵分解的协同过滤的标准方法,一般将用户商品矩阵中的元素作为用户对商品的显性偏好。在 MLlib 中所用到的处理这种数据的方法来源于文献: Collaborative Filtering for Implicit Feedback Datasets 。 本质上,这个方法将数据作为二元偏好值和偏好强度的一个结合,而不是对评分矩阵直接进行建模。因此,评价就不是与用户对商品的显性评分,而是与所观察到的用户偏好强度关联起来。然后,这个模型将尝试找到隐语义因子来预估一个用户对一个商品的偏好。

示例

​ 下面的例子中,我们将获取MovieLens数据集,其中每行包含一个用户、一个电影、一个该用户对该电影的评分以及时间戳。我们使用默认的ALS.train() 方法,即显性反馈(默认implicitPrefs 为false)来构建推荐模型并根据模型对评分预测的均方根误差来对模型进行评估。

1. 导入需要的包:

 
  1. import org.apache.spark.ml.evaluation.RegressionEvaluator
  2. import org.apache.spark.ml.recommendation.ALS

scala

2. 根据数据结构创建读取规范:

​ 创建一个Rating类型,即[Int, Int, Float, Long];然后建造一个把数据中每一行转化成Rating类的函数。

 
  1. scala> case class Rating(userId: Int, movieId: Int, rating: Float, timestamp: Long)
  2. defined class Rating
  3.  
  4. scala> def parseRating(str: String): Rating = {
  5. | val fields = str.split("::")
  6. | assert(fields.size == 4)
  7. | Rating(fields(0).toInt, fields(1).toInt, fields(2).toFloat, fields(3).toLong)
  8. | }
  9. parseRating: (str: String)Rating

scala

3. 读取数据:

​ 导入implicits,读取MovieLens数据集,把数据转化成Rating类型;

 
  1. scala> import spark.implicits._
  2. import spark.implicits._
  3.  
  4. scala> val ratings = spark.sparkContext.textFile("file:///usr/local/spark/data/mllib/als/sample_movielens_ratings.txt").map(parseRating).toDF()
  5. ratings: org.apache.spark.sql.DataFrame = [userId: int, movieId: int ... 2 more fields]

scala

​ 然后,我们把数据打印看一下:

 
  1. scala> ratings.show()
  2. +------+-------+------+----------+
  3. |userId|movieId|rating| timestamp|
  4. +------+-------+------+----------+
  5. | 0| 2| 3.0|1424380312|
  6. | 0| 3| 1.0|1424380312|
  7. | 0| 5| 2.0|1424380312|
  8. | 0| 9| 4.0|1424380312|
  9. | 0| 11| 1.0|1424380312|
  10. | 0| 12| 2.0|1424380312|
  11. | 0| 15| 1.0|1424380312|
  12. | 0| 17| 1.0|1424380312|
  13. | 0| 19| 1.0|1424380312|
  14. | 0| 21| 1.0|1424380312|
  15. | 0| 23| 1.0|1424380312|
  16. | 0| 26| 3.0|1424380312|
  17. | 0| 27| 1.0|1424380312|
  18. | 0| 28| 1.0|1424380312|
  19. | 0| 29| 1.0|1424380312|
  20. | 0| 30| 1.0|1424380312|
  21. | 0| 31| 1.0|1424380312|
  22. | 0| 34| 1.0|1424380312|
  23. | 0| 37| 1.0|1424380312|
  24. | 0| 41| 2.0|1424380312|
  25. +------+-------+------+----------+
  26. only showing top 20 rows

scala

3. 构建模型

​ 把MovieLens数据集划分训练集和测试集

 
  1. scala> val Array(training, test) = ratings.randomSplit(Array(0.8, 0.2))
  2. training: org.apache.spark.sql.Dataset[org.apache.spark.sql.Row] = [userId: int, movieId: int... 2 more fields]
  3. test: org.apache.spark.sql.Dataset[org.apache.spark.sql.Row] = [userId: int, movieId: int ... 2 more fields]

scala

​ 使用ALS来建立推荐模型,这里我们构建了两个模型,一个是显性反馈,一个是隐性反馈

 
  1. scala> val alsExplicit = new ALS().setMaxIter(5).setRegParam(0.01).setUserCol("userId"). setItemCol("movieId").setRatingCol("rating")
  2. alsExplicit: org.apache.spark.ml.recommendation.ALS = als_05fe5d65ffc3
  3.  
  4. scala> val alsImplicit = new ALS().setMaxIter(5).setRegParam(0.01).setImplicitPrefs(true). setUserCol("userId").setItemCol("movieId").setRatingCol("rating")
  5. alsImplicit: org.apache.spark.ml.recommendation.ALS = als_7e9b959fbdae

scala

​ 在 ML 中的实现有如下的参数:

  • numBlocks 是用于并行化计算的用户和商品的分块个数 (默认为10)。
  • rank 是模型中隐语义因子的个数(默认为10)。
  • maxIter 是迭代的次数(默认为10)。
  • regParam 是ALS的正则化参数(默认为1.0)。
  • implicitPrefs 决定了是用显性反馈ALS的版本还是用适用隐性反馈数据集的版本(默认是false,即用显性反馈)。
  • alpha 是一个针对于隐性反馈 ALS 版本的参数,这个参数决定了偏好行为强度的基准(默认为1.0)。
  • nonnegative 决定是否对最小二乘法使用非负的限制(默认为false)。

​ 可以调整这些参数,不断优化结果,使均方差变小。比如:imaxIter越大,regParam越 小,均方差会越小,推荐结果较优。

接下来,把推荐模型放在训练数据上训练:

 
  1. scala> val modelExplicit = alsExplicit.fit(training)
  2. modelExplicit: org.apache.spark.ml.recommendation.ALSModel = als_05fe5d65ffc3
  3.  
  4. scala> val modelImplicit = alsImplicit.fit(training)
  5. modelImplicit: org.apache.spark.ml.recommendation.ALSModel = als_7e9b959fbdae

scala

4. 模型预测

​ 使用训练好的推荐模型对测试集中的用户商品进行预测评分,得到预测评分的数据集

 
  1. scala> val predictionsExplicit = modelExplicit.transform(test)
  2. predictionsExplicit: org.apache.spark.sql.DataFrame = [userId: int, movieId: int ... 3 more fields]
  3.  
  4. scala> val predictionsImplicit = modelImplicit.transform(test)
  5. predictionsImplicit: org.apache.spark.sql.DataFrame = [userId: int, movieId: int ... 3 more fields]

scala

​ 我们把结果输出,对比一下真实结果与预测结果:

 
  1. scala> predictionsExplicit.show()
  2.  
  3. +------+-------+------+----------+------------+
  4. |userId|movieId|rating| timestamp| prediction|
  5. +------+-------+------+----------+------------+
  6. | 13| 31| 1.0|1424380312| 0.86262053|
  7. | 5| 31| 1.0|1424380312|-0.033763513|
  8. | 24| 31| 1.0|1424380312| 2.3084288|
  9. | 29| 31| 1.0|1424380312| 1.9081671|
  10. | 0| 31| 1.0|1424380312| 1.6470298|
  11. | 28| 85| 1.0|1424380312| 5.7112412|
  12. | 13| 85| 1.0|1424380312| 2.4970412|
  13. | 20| 85| 2.0|1424380312| 1.9727222|
  14. | 4| 85| 1.0|1424380312| 1.8414592|
  15. | 8| 85| 5.0|1424380312| 3.2290685|
  16. | 7| 85| 4.0|1424380312| 2.8074787|
  17. | 29| 85| 1.0|1424380312| 0.7150749|
  18. | 19| 65| 1.0|1424380312| 1.7827456|
  19. | 4| 65| 1.0|1424380312| 2.3001173|
  20. | 2| 65| 1.0|1424380312| 4.8762875|
  21. | 12| 53| 1.0|1424380312| 1.5465991|
  22. | 20| 53| 3.0|1424380312| 1.903692|
  23. | 19| 53| 2.0|1424380312| 2.6036916|
  24. | 8| 53| 5.0|1424380312| 3.1105173|
  25. | 23| 53| 1.0|1424380312| 1.0042696|
  26. +------+-------+------+----------+------------+
  27. only showing top 20 rows
  28.  
  29.  
  30. scala> predictionsImplicit.show()
  31.  
  32. +------+-------+------+----------+-----------+
  33. |userId|movieId|rating| timestamp| prediction|
  34. +------+-------+------+----------+-----------+
  35. | 13| 31| 1.0|1424380312| 0.33150947|
  36. | 5| 31| 1.0|1424380312|-0.24669354|
  37. | 24| 31| 1.0|1424380312|-0.22434244|
  38. | 29| 31| 1.0|1424380312| 0.15776125|
  39. | 0| 31| 1.0|1424380312| 0.51940984|
  40. | 28| 85| 1.0|1424380312| 0.88610375|
  41. | 13| 85| 1.0|1424380312| 0.15872183|
  42. | 20| 85| 2.0|1424380312| 0.64086926|
  43. | 4| 85| 1.0|1424380312|-0.06314563|
  44. | 8| 85| 5.0|1424380312| 0.2783457|
  45. | 7| 85| 4.0|1424380312| 0.1618208|
  46. | 29| 85| 1.0|1424380312|-0.19970453|
  47. | 19| 65| 1.0|1424380312| 0.11606887|
  48. | 4| 65| 1.0|1424380312|0.068018675|
  49. | 2| 65| 1.0|1424380312| 0.28533924|
  50. | 12| 53| 1.0|1424380312| 0.42327875|
  51. | 20| 53| 3.0|1424380312| 0.17345423|
  52. | 19| 53| 2.0|1424380312| 0.33321634|
  53. | 8| 53| 5.0|1424380312| 0.10090684|
  54. | 23| 53| 1.0|1424380312| 0.06724724|
  55. +------+-------+------+----------+-----------+
  56. only showing top 20 rows

scala

5. 模型评估

​ 通过计算模型的均方根误差来对模型进行评估,均方根误差越小,模型越准确:

 
  1. scala> val evaluator = new RegressionEvaluator().setMetricName("rmse").setLabelCol("rating"). setPredictionCol("prediction")
  2. evaluator: org.apache.spark.ml.evaluation.RegressionEvaluator = regEval_bc9d91ae7b1a
  3.  
  4. scala> val rmseExplicit = evaluator.evaluate(predictionsExplicit)
  5. rmseExplicit: Double = 1.6995189118765517
  6.  
  7. scala> val rmseImplicit = evaluator.evaluate(predictionsImplicit)
  8. rmseImplicit: Double = 1.8011620822359165

scala

​ 打印出两个模型的均方根误差 :

 
  1. scala> println(s"Explicit:Root-mean-square error = $rmseExplicit")
  2. Explicit:Root-mean-square error = 1.6995189118765517
  3.  
  4. scala> println(s"Implicit:Root-mean-square error = $rmseImplicit")
  5. Implicit:Root-mean-square error = 1.8011620822359165

scala

​ 可以看到打分的均方差值为1.69和1.80左右。由于本例的数据量很少,预测的结果和实际相比有一定的差距。

猜你喜欢

转载自blog.csdn.net/oZuoLuo123/article/details/86549628