Hadoop 序列化

1.序列化概述
(1) 什么是序列化
    序列化就是把内存中的对象,转换成字节序列(或其他数据传输协议)以便于存储(持久化)和网络传输。
    反序列化就是将收到字节序列(或其他数据传输协议)或者是硬盘的持久化数据,转换成内存中的对象。
(2) 为什么要序列化
     一般来说,“活的”对象只生存在内存里,关机断电就没有了。而且“活的”对象只能由本地的进程使用,不能被发送到网络上的另外一台计算机。 然而序列化可以存储“活的”对象,可以将“活的”对象发送到远程计算机。
(3) 为什么不用Java的序列化
        Java的序列化是一个重量级序列化框架(Serializable),一个对象被序列化后,会附带很多额外的信息(各种校验信息,header,继承体系等),不便于在网络中高效传输。所以,hadoop自己开发了一套序列化机制(Writable),特点如下:
    ① 紧凑:紧凑的格式能让我们充分利用网络带宽,而带宽是数据中心最稀缺的资
    ② 快速:进程通信形成了分布式系统的骨架,所以需要尽量减少序列化和反序列化的性能开销,这是基本的;
    ③ 可扩展:协议为了满足新的需求变化,所以控制客户端和服务器过程中,需要直接引进相应的协议,这些是新协议,原序列化方式能支持新的协议报文;
    ④ 互操作:能支持不同语言写的客户端和服务端进行交互;

2.常用数据序列化类型
常用的数据类型对应的hadoop数据序列化类型
Java类型 Hadoop Writable类型
boolean BooleanWritable
byte ByteWritable
int IntWritable
float FloatWritable
long LongWritable
double DoubleWritable
string Text
map MapWritable
array ArrayWritable

3.自定义bean对象实现序列化接口(Writable)
    自定义bean对象要想序列化传输,必须实现序列化接口,需要注意以下7项。
(1) 必须实现Writable接口
(2) 反序列化时,需要反射调用空参构造函数,所以必须有空参构造
public FlowBean() {
        super();
}
(3) 重写序列化方法
@Override
public void write(DataOutput out) throws IOException {
        out.writeLong(upFlow);
        out.writeLong(downFlow);
        out.writeLong(sumFlow);
}
(4) 重写反序列化方法
@Override
public void readFields(DataInput in) throws IOException {
        upFlow = in.readLong();
        downFlow = in.readLong();
        sumFlow = in.readLong();
}
(5) 注意反序列化的顺序和序列化的顺序完全一致
(6) 要想把结果显示在文件中,需要重写toString(),可用”\t”分开,方便后续用。
(7)如果需要将自定义的bean放在key中传输,则还需要实现comparable接口,因为mapreduce框中的shuffle过程一定会对key进行排序。
@Override
public int compareTo(FlowBean o) {
        // 倒序排列,从大到小
        return this.sumFlow > o.getSumFlow() ? -1 : 1;
}

4.序列化案例实操    
(1) 需求:
    统计每一个手机号耗费的总上行流量、下行流量、总流量
(2) 数据准备
(3) 分析
基本思路:
Map阶段:
    ① 读取一行数据,切分字段
    ② 抽取手机号、上行流量、下行流量
    ③ 以手机号为key,bean对象为value输出,即context.write(手机号,bean);
Reduce阶段:
    ① 累加上行流量和下行流量得到总流量。
    ② 实现自定义的bean来封装流量信息,并将bean作为map输出的key来传输
    ③ MR程序在处理数据的过程中会对数据排序(map输出的kv对传输到reduce之前,会排序),排序的依据是map输出的key
    所以,我们如果要实现自己需要的排序规则,则可以考虑将排序因素放到key中,让key实现接口:WritableComparable。然后重写key的compareTo方法。
(4) 编写mapreduce程序
    ① 编写流量统计的bean对象
public class FlowBean implements Writable {

    private long upFlow;
    private long downFlow;
    private long sumFlow;

    public FlowBean() {
    }

    public void setBean(long upFlow, long downFlow) {
        this.upFlow = upFlow;
        this.downFlow = downFlow;
        this.sumFlow = upFlow + downFlow;
    }

    public long getUpFlow() {
        return upFlow;
    }

    public void setUpFlow(long upFlow) {
        this.upFlow = upFlow;
    }

    public long getDownFlow() {
        return downFlow;
    }

    public void setDownFlow(long downFlow) {
        this.downFlow = downFlow;
    }

    public long getSumFlow() {
        return sumFlow;
    }

    public void setSumFlow(long sumFlow) {
        this.sumFlow = sumFlow;
    }

    @Override
    public String toString() {
        return upFlow + "\t" + downFlow + "\t" + sumFlow;
    }

    //序列化
    @Override
    public void write(DataOutput out) throws IOException {
        out.writeLong(upFlow);
        out.writeLong(downFlow);
        out.writeLong(sumFlow);
    }

    //反序列化
    //注意:序列化顺序一定要跟反序列化一致
    @Override
    public void readFields(DataInput in) throws IOException {
        this.upFlow = in.readLong();
        this.downFlow = in.readLong();
        this.sumFlow = in.readLong();
    }

}
    ② 编写mapper
public class FlowMapper extends Mapper<LongWritable, Text, Text, FlowBean> {

    Text k = new Text();
    FlowBean flowBean = new FlowBean();

    @Override
    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {

        //1.获取一行数据
        String line = value.toString();

        //2.切割数据
        String[] splits = line.split("\t");

        //3.封装对象
        //手机号
        String phoneNum = splits[1];

        //上行流量
        long upFlow = Long.parseLong(splits[splits.length - 3]);

        //下行流量
        long downFlow = Long.parseLong(splits[splits.length - 2]);

//        FlowBean flowBean = new FlowBean(upFlow, downFlow);
        flowBean.setBean(upFlow, downFlow);
        //4.写出去
        k.set(phoneNum);
        context.write(k, flowBean);
    }
}
    ③ 编写reducer
public class FlowReducer extends Reducer<Text, FlowBean, Text, FlowBean> {

    private long upFlow;
    private long downFlow;

    FlowBean flowBean = new FlowBean();

    @Override
    protected void reduce(Text key, Iterable<FlowBean> values, Context context) throws IOException, InterruptedException {

        upFlow = 0;
        downFlow = 0;

        //循环累加流量
        for (FlowBean flowBean : values) {
            upFlow += flowBean.getUpFlow();
            downFlow += flowBean.getDownFlow();
        }

        flowBean.setBean(upFlow, downFlow);

        context.write(key,flowBean);
    }
}
    ④ 编写驱动
public class FlowMapper extends Mapper<LongWritable, Text, Text, FlowBean> {

    Text k = new Text();
    FlowBean flowBean = new FlowBean();

    @Override
    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {

        //1.获取一行数据
        String line = value.toString();

        //2.切割数据
        String[] splits = line.split("\t");

        //3.封装对象
        //手机号
        String phoneNum = splits[1];

        //上行流量
        long upFlow = Long.parseLong(splits[splits.length - 3]);

        //下行流量
        long downFlow = Long.parseLong(splits[splits.length - 2]);

//        FlowBean flowBean = new FlowBean(upFlow, downFlow);
        flowBean.setBean(upFlow, downFlow);
        //4.写出去
        k.set(phoneNum);
        context.write(k, flowBean);
    }
}

猜你喜欢

转载自blog.csdn.net/Luomingkui1109/article/details/80948953