大橙子网站建设,新征程启航

为企业提供网站建设、域名注册、服务器等服务

Hadoop中如何自定义

小编给大家分享一下Hadoop中如何自定义,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

为庆阳等地区用户提供了全套网页设计制作服务,及庆阳网站建设行业解决方案。主营业务为成都网站设计、网站建设、庆阳网站设计,以传统方式定制建设网站,并提供域名空间备案等一条龙服务,秉承以专业、用心的态度为用户提供真诚的服务。我们深信只要达到每一位用户的要求,就会得到认可,从而选择与我们长期合作。这样,我们也可以走得更远!

  1. 自定义计数器

    计数器用来监控,hadoop中job的运行进度和状态。

    如源文件内容为:

    a    b

    c    d    e    f

    g    h    i

    现在需要找出字段数大于3和小于3的记录条数,可以使用计数器来实现,代码如下:

     public void map(LongWritable key, Text value,

     OutputCollector output, Reporter reporter)

     throws IOException {

     String[] split = value.toString().split("\t");

     if(split.length>3){

     org.apache.hadoop.mapred.Counters.Counter counter = reporter.getCounter("MyCounter", "isLong");

     counter.increment(1);

     }else if(split.length<3){

     org.apache.hadoop.mapred.Counters.Counter counter = reporter.getCounter("MyCounter","isShort");

     counter.increment(1);

     }

2.  hadoop中的自定义数据类型

    hadoop中默认的数据类型有:

  • BooleanWritable:标准布尔型数值

  • ByteWritable:单字节数值

  • DoubleWritable:双字节数值

  • FloatWritable:浮点数

  • IntWritable:整型数

  • LongWritable:长整型数

  • Text:使用UTF8格式存储的文本

  • NullWritable:当中的key或value为空时使用

    自定义数据类型的实现:

    1.实现Writable接口,并重写内部write()和readFields()方法,从而完成序列化之后的网络传输和文件输入或输出。

    2.如果该数据类型被作为mapreduce中的key,则该key需要为可比较的,需要实现WriableComparable接口,并重写内部write()和readFields()、compare()方法。

    

    代码如下:

    代码一:

public class Person implements Writable{

long id;

String name;

long age;

@Override

public void readFields(DataInput in) throws IOException {

this.id = in.readLong();

this.name = in.readUTF();

this.age = in.readLong();

}

@Override

public void write(DataOutput out) throws IOException {

out.writeLong(id);

out.writeUTF(name);

out.writeLong(age);

}

        @Override

public String toString() {

return "id:"+id+" name:"+name+" age:"+age;

}

public long getId() {

return id;

}

public String getName() {

return name;

}

public long getAge() {

return age;

}

}

    代码二:基于key的比较

package cn.com.bonc.hadoop;

import java.io.DataInput;

import java.io.DataOutput;

import java.io.IOException;

import org.apache.hadoop.io.WritableComparable;

public class PersonSortByAge implements WritableComparable{

long id;

String name;

long age;

@Override

public void readFields(DataInput in) throws IOException {

in.readLong();

in.readUTF();

in.readLong();

}

@Override

public void write(DataOutput out) throws IOException {

out.writeLong(id);

out.writeUTF(name);

out.writeLong(age);

}

@Override

public int compareTo(PersonSortByAge o) {

return (int) (this.id - o.id);

}

@Override

public String toString() {

return "id:"+id+" name:"+name+" age:"+age;

}

}

以上是“Hadoop中如何自定义”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注创新互联行业资讯频道!


新闻名称:Hadoop中如何自定义
浏览路径:http://dzwzjz.com/article/ihspsp.html
在线咨询
服务热线
服务热线:028-86922220
TOP