object H extends App{ val conf=new SparkConf().setMaster("local[2]").setAppName("hello") val ss=new StreamingContext(conf,Seconds(5)) val kafkaParams=Map[String,String]("metadata.broker.list"->"myhadoop1:9092") ss.checkpoint("hdfs://myhadoop1:8020/data") val topic=Set[String]("wordcount1") //kafka val lines=KafkaUtils.createDirectStream[String,String,StringDecoder,StringDecoder](ss,kafkaParams,topic) lines.flatMap(_._2.split(" ")).map((_,1)).updateStateByKey((seqs:Seq[Int],option:Option[Int])=>{ var oldValue=option.getOrElse(0) for(seq<-seqs){ oldValue+=seq } Option[Int](oldValue) }).print() ss.start() ss.awaitTermination() }
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。