温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Hadoop中如何自定义

发布时间:2021-11-24 14:24:01 来源:亿速云 阅读:127 作者:小新 栏目:大数据

小编给大家分享一下Hadoop中如何自定义,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

  1. 自定义计数器

    计数器用来监控,hadoop中job的运行进度和状态。

    如源文件内容为:

    a    b

    c    d    e    f

    g    h    i

    现在需要找出字段数大于3和小于3的记录条数,可以使用计数器来实现,代码如下:

     public void map(LongWritable key, Text value,

     OutputCollector<Text, Text> output, Reporter reporter)

     throws IOException {

     String[] split = value.toString().split("\t");

     if(split.length>3){

     org.apache.hadoop.mapred.Counters.Counter counter = reporter.getCounter("MyCounter", "isLong");

     counter.increment(1);

     }else if(split.length<3){

     org.apache.hadoop.mapred.Counters.Counter counter = reporter.getCounter("MyCounter","isShort");

     counter.increment(1);

     }

2.  hadoop中的自定义数据类型

    hadoop中默认的数据类型有:

  • BooleanWritable:标准布尔型数值

  • ByteWritable:单字节数值

  • DoubleWritable:双字节数值

  • FloatWritable:浮点数

  • IntWritable:整型数

  • LongWritable:长整型数

  • Text:使用UTF8格式存储的文本

  • NullWritable:当<key, value>中的key或value为空时使用

    自定义数据类型的实现:

    1.实现Writable接口,并重写内部write()和readFields()方法,从而完成序列化之后的网络传输和文件输入或输出。

    2.如果该数据类型被作为mapreduce中的key,则该key需要为可比较的,需要实现WriableComparable接口,并重写内部write()和readFields()、compare()方法。

    

    代码如下:

    代码一:

public class Person implements Writable{

long id;

String name;

long age;

@Override

public void readFields(DataInput in) throws IOException {

this.id = in.readLong();

this.name = in.readUTF();

this.age = in.readLong();

}

@Override

public void write(DataOutput out) throws IOException {

out.writeLong(id);

out.writeUTF(name);

out.writeLong(age);

}

        @Override

public String toString() {

return "id:"+id+" name:"+name+" age:"+age;

}

public long getId() {

return id;

}

public String getName() {

return name;

}

public long getAge() {

return age;

}

}

    代码二:基于key的比较

package cn.com.bonc.hadoop;

import java.io.DataInput;

import java.io.DataOutput;

import java.io.IOException;

import org.apache.hadoop.io.WritableComparable;

public class PersonSortByAge implements WritableComparable<PersonSortByAge>{

long id;

String name;

long age;

@Override

public void readFields(DataInput in) throws IOException {

in.readLong();

in.readUTF();

in.readLong();

}

@Override

public void write(DataOutput out) throws IOException {

out.writeLong(id);

out.writeUTF(name);

out.writeLong(age);

}

@Override

public int compareTo(PersonSortByAge o) {

return (int) (this.id - o.id);

}

@Override

public String toString() {

return "id:"+id+" name:"+name+" age:"+age;

}

}

以上是“Hadoop中如何自定义”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI