这篇文章给大家介绍spark中怎么实现二次排序,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。
import org.apache.spark._
import SparkContext._
object SecondarySort {
def main(args: Array[String]) {
val sparkConf = new SparkConf().setAppName(" Secondary Sort ")
sparkConf.set("mapreduce.framework.name", "yarn");
sparkConf.set("spark.rdd.compress", "true");
sparkConf.set("spark.serializer","org.apache.spark.serializer.KryoSerializer");
sparkConf.set("spark.storage.memoryFraction", "0.5");
sparkConf.set("spark.akka.frameSize", "100");
sparkConf.set("spark.default.parallelism", "1");
val sc = new SparkContext(sparkConf)
val file = sc.textFile("hdfs://namenode:9000/test/secsortdata")
val rdd = file.map(line => line.split("\t")).
map(x => (x(0),x(1))).groupByKey().
sortByKey(true).map(x => (x._1,x._2.toList.sortWith(_>_)))
val rdd2 = rdd.flatMap{
x =>
val len = x._2.length
val array = new Array[(String,String)](len)
for(i <- 0 until len) {
array(i) = (x._1,x._2(i))
}
array
}
sc.stop()
}
}
关于spark中怎么实现二次排序就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。
亿速云「云服务器」,即开即用、新一代英特尔至强铂金CPU、三副本存储NVMe SSD云盘,价格低至29元/月。点击查看>>
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。
原文链接:https://my.oschina.net/ssrs2202/blog/493908