这篇文章主要介绍spark mllib中如何实现基于ALS计算,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!
/** * 协同过滤算法,基于 (交替最小二乘法) ALS 计算 * 人以群分,物以类聚, * ALS是统计分析中最常用的一种逼近计算算法. * 输入数据集 Ratings 是 ALS 固定输入格式, * Ratings [Int, Int, Double] 即[用户名,物品名,评分] */ package spark.collaborativeFiltering import org.apache.spark.mllib.recommendation.{ALS, Rating} import org.apache.spark.{SparkConf, SparkContext} object sparkALS { def main(args: Array[String]) { val conf = new SparkConf().setAppName("ALS").setMaster("local") val sc= new SparkContext(conf) val data = sc.textFile("./src/main/spark/collaborativeFiltering/ul.txt") val ratings = data.map(_.split(" ") match { case Array(user, item, rate) => Rating(user.toInt, item.toInt, rate.toDouble)//将数据集转化为专用的 Rating }) val rank = 2 // 模型中隐藏因子数 val numInterations = 5 //算法迭代次数 val model = ALS.train(ratings, rank, numInterations, 0.01) // 进行模型训练 val result = model.recommendProducts(2, 1)//为用户 2 推荐一个商品 result.foreach(println) //Rating(2,15,3.9713808775549495),为用户 2 推荐一个编号 15 的商品,预测评分 3.97 与实际的 4 接近. } }
1 11 2 1 12 3 1 13 1 1 14 0 1 15 1 2 11 1 2 12 2 2 13 2 2 14 1 2 15 4 3 11 2 3 12 3 3 13 1 3 14 0 3 15 1 4 11 1 4 12 2 4 13 2 4 14 1 4 15 4 5 11 1 5 12 2 5 13 2 5 14 1 5 15 4
以上是“spark mllib中如何实现基于ALS计算”这篇文章的所有内容,感谢各位的阅读!希望分享的内容对大家有帮助,更多相关知识,欢迎关注亿速云行业资讯频道!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。