温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

怎么解析SPARK foreach循环中的变量问题

发布时间:2021-12-17 10:32:01 来源:亿速云 阅读:360 作者:柒染 栏目:大数据

怎么解析SPARK foreach循环中的变量问题,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。

原因

在spark算子中引用的外部变量,其实是变量的副本,在算子中对其值进行修改,只是改变副本的值,外部的变量还是没有变。
通俗易懂的讲就是foreach里的变量带不出来的,除非用map,将结果作为rdd返回

解决方案:

1、使用广播变量

object foreachtest {
  def main(args: Array[String]): Unit = {
 
    val conf = new SparkConf()
    conf.setMaster("local[1]")
    conf.setAppName("WcAppTask")
    val sc = new SparkContext(conf)
    sc.setLogLevel("WARN")
    val fileRdd = sc.parallelize(Array(("imsi1","2018-07-29 11:22:23","zd-A"),("imsi2","2018-07-29 11:22:24","zd-A"),("imsi3","2018-07-29 11:22:25","zd-A")))
    val result = mutable.Map.empty[String,String]
  val resultBroadCast: Broadcast[mutable.Map[String, String]] =sc.broadcast(result)
    fileRdd.foreach(input=>{
      val str = (input._1+"/t"+input._2+"/t"+input._3).toString
      resultBroadCast.value += (input._1.toString -> str)
      println(resultBroadCast.value.size) //返回1,2.3
    })
    println(result.size) //返回3
}

2:使用累加器

val accum = sc.collectionAccumulator[mutable.Map[String, String]]("My Accumulator")
fileRdd.foreach(input => {
  val str = input._1 + "/t" + input._2 + "/t" + input._3
  accum.add(mutable.Map(input._1 -> str))
})
println(accum.value.size())

3:累加变量 longAccumulator

val longaa= sc.longAccumulator("count")
fileRdd.foreach(input=>{
  val str = (input._1+"/t"+input._2+"/t"+input._3).toString
  longaa.add(1L)
})
println(longaa.count) //返回3

关于怎么解析SPARK foreach循环中的变量问题问题的解答就分享到这里了,希望以上内容可以对大家有一定的帮助,如果你还有很多疑惑没有解开,可以关注亿速云行业资讯频道了解更多相关知识。

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI