温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

spark 流式去重的示例分析

发布时间:2021-12-16 21:17:54 阅读:135 作者:柒染 栏目:大数据
开发者测试专用服务器限时活动,0元免费领,库存有限,领完即止! 点击查看>>

本篇文章为大家展示了spark 流式去重的示例分析,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。

大数据去重本身很蛋疼,针对个别数据去重更是不可理喻但是spark的Structured Streaming就很容易能实现这个功能。

数据从采集到最终处理结束是会存在一条数据在某一个点被重复接收处理的情况。如 kafka支持的是至少一次写语义,也即是当写数据到kafka的时候,有些记录可能重复,例如如果消息已经被broker接收并写入文件但是并没有应答,这时生产者向kafka重发一个消息,就可能重复。由于kafka的至少一次的写语义,structured streaming不能避免这种类型数据重复。所以一旦写入成功,可以假设structured Streaming的查询输出是以至少一次语义写入kafka的。一个可行去除重复记录的解决方案是数据中引入一个primary(unique)key,这样就可以在读取数据的时候实行去重。

structured streaming是可以使用事件中的唯一标识符对数据流中的记录进行重复数据删除。这与使用唯一标识符列的静态重复数据删除完全相同。该查询将存储来自先前记录的一定量的数据,以便可以过滤重复的记录。与聚合类似,可以使用带有或不带有watermark 的重复数据删除功能。

A),带watermark:如果重复记录可能到达的时间有上限,则可以在事件时间列上定义watermark,并使用guid和事件时间列进行重复数据删除。

B),不带watermark:由于重复记录可能到达时间没有界限,所以查询将来自所有过去记录的数据存储为状态。

源代码,已测试通过~

package bigdata.spark.StructuredStreaming.KafkaSourceOperatorimport org.apache.spark.SparkConfimport org.apache.spark.sql.SparkSessionimport org.apache.spark.sql.functions.get_json_objectimport org.apache.spark.sql.streaming.{OutputMode, Trigger}object KafkaDropDuplicate {  def main(args: Array[String]): Unit = {    val sparkConf = new SparkConf().setAppName(this.getClass.getName).setMaster("local[*]")      .set("yarn.resourcemanager.hostname", "mt-mdh.local")      .set("spark.executor.instances","2")      .set("spark.default.parallelism","4")      .set("spark.sql.shuffle.partitions","4")      .setJars(List("/opt/sparkjar/bigdata.jar"        ,"/opt/jars/spark-streaming-kafka-0-10_2.11-2.3.1.jar"        ,"/opt/jars/kafka-clients-0.10.2.2.jar"        ,"/opt/jars/kafka_2.11-0.10.2.2.jar"        ,"/opt/jars/spark-sql-kafka-0-10_2.11-2.0.2.jar"))    val spark = SparkSession      .builder      .appName("StructuredKafkaWordCount")      .config(sparkConf)      .getOrCreate()    import spark.implicits._    val df = spark      .readStream      .format("kafka")      .option("kafka.bootstrap.servers","mt-mdh.local:9093")      .option("subscribe", "jsontest")      .load()    val words = df.selectExpr("CAST(value AS STRING)")    val fruit = words.select(      get_json_object($"value", "$.time").alias("timestamp").cast("long")      , get_json_object($"value", "$.fruit").alias("fruit"))    val fruitCast = fruit      .select(fruit("timestamp")        .cast("timestamp"),fruit("fruit"))      .withWatermark("timestamp", "10 Seconds")      .dropDuplicates("fruit")      .groupBy("fruit").count()    fruitCast.writeStream      .outputMode(OutputMode.Complete())      .format("console")      .trigger(Trigger.ProcessingTime(5000))      .option("truncate","false")      .start()      .awaitTermination()  }}

上述内容就是spark 流式去重的示例分析,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注亿速云行业资讯频道。

亿速云「云服务器」,即开即用、新一代英特尔至强铂金CPU、三副本存储NVMe SSD云盘,价格低至29元/月。点击查看>>

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

原文链接:https://my.oschina.net/u/4590259/blog/4567450

AI

开发者交流群×