温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

怎么进行Apache Spark RPC协议中的反序列化漏洞分析

发布时间:2021-12-17 10:42:03 来源:亿速云 阅读:274 作者:柒染 栏目:安全技术

怎么进行Apache Spark RPC协议中的反序列化漏洞分析,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。

前言

在前一阵,Spark官方发布了标题为《CVE-2018-17190: Unsecured Apache Spark standalone executes user code》的安全公告。

公告中指明漏洞影响版本为全版本,且没有标明已修复的版本,只有相关缓解措施。

官方缓解措施如下:在任何未受到不必要访问保护的Spark单机群集上启用身份验证,例如通过网络层面限制。使用spark.authenticate和相关的安全属性。

查询了相关文档,spark.authenticate是RPC协议中的一个配置属性,此参数控制Spark    RPC是否使用共享密钥进行认证。

Spark RPCS

park RPC 是一个自定义的协议。底层是基于netty4开发的,相关的实现封装在spark-network-common.jar和spark-core.jar中,其中前者使用的JAVA开发的后者使用的是scala语言。

协议内部结构由两部分构成header和body,header中的内容包括:整个frame的长度(8个字节),message的类型(1个字节),以及requestID(8个字节)还有body的长度(4个字节)

body根据协议定义的数据类型不同略有差异.

怎么进行Apache Spark RPC协议中的反序列化漏洞分析

RpcRequest消息类型的body大致由两部分构造,前半部分包含通信双方的地址和端口以及名字信息,接下来就是java序列化后的内容ac    ed 00 05开头。

怎么进行Apache Spark RPC协议中的反序列化漏洞分析

消息类型为RpcResponse的body就直接是java反序列后的内容。

怎么进行Apache Spark RPC协议中的反序列化漏洞分析

搭建Spark单独集群服务器

从官网下载,然后通过-h指定IP地址,让端口监听在所有的网卡上./start-master.sh -h 0.0.0.0 -p 70774.

证明服务端存在反序列化过程

spark_exploit.py 通过第一个参数和第二个参数指明远程spark集群的连接信息,第三个参数为JAVA反序列化漏洞payload。

通过调用 build_msg 函数将 payload 构建到消息中再发送给服务端,过程比较简单。

怎么进行Apache Spark RPC协议中的反序列化漏洞分析怎么进行Apache Spark RPC协议中的反序列化漏洞分析

反向操作客户端

evil_spark_server.py    脚本通过继承BaseRequestHandler类完成了一个简单的TCP服务,对发送过来的数据提取出request_id, 然后再调用build_msg,将request_id和payload构成合法的RPC响应数据包发送给客户端。

怎么进行Apache Spark RPC协议中的反序列化漏洞分析

启动服务

怎么进行Apache Spark RPC协议中的反序列化漏洞分析

使用spark客户端进行连接

怎么进行Apache Spark RPC协议中的反序列化漏洞分析

怎么进行Apache Spark RPC协议中的反序列化漏洞分析

通过抓包看请求数据以及阅读相关代码,逐步确定RPC协议中的请求数据。客户端和服务端都使用了JAVA序列化来传输数据,两边都可以进行利用。

当反过头来想利用反序列化来执行系统命令时,查找ysoserial发现除利用低版本jdk构造利用链外,并无其他合适的gadget。

随着时间的推移,各个库中的漏洞都将被修复和升级,已有的gadget将不再起作用。java    反序列化漏洞终将成为历史。

关于怎么进行Apache Spark RPC协议中的反序列化漏洞分析问题的解答就分享到这里了,希望以上内容可以对大家有一定的帮助,如果你还有很多疑惑没有解开,可以关注亿速云行业资讯频道了解更多相关知识。

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI