温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

hadoop中怎么读取protobuf数据

发布时间:2021-08-02 16:16:40 来源:亿速云 阅读:173 作者:chen 栏目:云计算

这篇文章主要介绍“ hadoop中怎么读取protobuf数据 ”,在日常操作中,相信很多人在 hadoop中怎么读取protobuf数据 问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答” hadoop中怎么读取protobuf数据 ”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

在mapreduce中读取protobuf数据时,会遇到一个坑

BytesWritable。当你把byte[]数据保存到BytesWritable后,通过BytesWritable.getBytes()再读到的数据并不一定是原数据,可能变长了很多,这是因为BytesWritable采用了自动内存增长算法,你保存的数据长度为size时,它可能将数据保存到了长度为capacity(capacity>size)的buffer中,这时候,你通过BytesWritable.getBytes()得到的数据最后一些字符是多余的,如果里面保存的是protobuf序列化后的数据,则无法反序列化,这时候可以使用BytesWritable.setCapacity(BytesWritable.getLength())将后面多余空间剔除掉,然后就可以使用protobuf反序列为原始数据。

关键代码如下

conf.setInputFormat(SequenceFileAsBinaryInputFormat.class);
public void map(Object key, BytesWritable values, OutputCollector output,
            Reporter reporter) throws IOException {
    values.setCapacity(values.getLength());// very important !!!
    byte[] data = values.getBytes();
    // more code
}

到此,关于“ hadoop中怎么读取protobuf数据 ”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注亿速云网站,小编会继续努力为大家带来更多实用的文章!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI