温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Spark的HashPartitioner方式的Python实现是这样的

发布时间:2021-11-15 23:44:49 阅读:252 作者:柒染 栏目:云计算
Python开发者专用服务器限时活动,0元免费领,库存有限,领完即止! 点击查看>>

这篇文章给大家介绍Spark的HashPartitioner方式的Python实现是这样的,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。

spark中的默认分区方式是org.apache.spark.HashPartitioner,具体代码如下所示:

class HashPartitioner(partitionsIntextends Partitioner {
  require(partitions >= 0, s"Number of partitions ($partitions) cannot be negative.")

  def numPartitionsInt = partitions

  def getPartition(keyAny): Int = key match {
    case null => 0
    case _ => Utils.nonNegativeMod(key.hashCode, numPartitions)
  }

  override def equals(otherAny): Boolean = other match {
    case hHashPartitioner =>
      h.numPartitions == numPartitions
    case _ =>
      false
  }

  override def hashCodeInt = numPartitions
}

如果想要在Python中获取一个key的分区,只需要实现hashCode,然后取模。

hashCode的实现方式如下:

def java_string_hashcode(s):
    h = 0
    for c in s:
        h = (31 * h + ord(c)) & 0xFFFFFFFF
    return ((h + 0x80000000) & 0xFFFFFFFF) - 0x80000000

验证

Scala实现

Spark的HashPartitioner方式的Python实现是这样的

Python实现

Spark的HashPartitioner方式的Python实现是这样的

关于Spark的HashPartitioner方式的Python实现是这样的就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。

亿速云「云服务器」,即开即用、新一代英特尔至强铂金CPU、三副本存储NVMe SSD云盘,价格低至29元/月。点击查看>>

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

原文链接:https://my.oschina.net/u/1049845/blog/681937

AI

开发者交流群×