1.序列化概述
(1) 什么是序列化
序列化就是把内存中的对象,转换成字节序列(或其他数据传输协议)以便于存储(持久化)和网络传输。
反序列化就是将收到字节序列(或其他数据传输协议)或者是硬盘的持久化数据,转换成内存中的对象。
(2) 为什么要序列化
一般来说,“活的”对象只生存在内存里,关机断电就没有了。而且“活的”对象只能由本地的进程使用,不能被发送到网络上的另外一台计算机。 然而序列化可以存储“活的”对象,可以将“活的”对象发送到远程计算机。
(3) 为什么不用Java的序列化
Java的序列化是一个重量级序列化框架(Serializable),一个对象被序列化后,会附带很多额外的信息(各种校验信息,header,继承体系等),不便于在网络中高效传输。所以,hadoop自己开发了一套序列化机制(Writable),特点如下:
① 紧凑:紧凑的格式能让我们充分利用网络带宽,而带宽是数据中心最稀缺的资
② 快速:进程通信形成了分布式系统的骨架,所以需要尽量减少序列化和反序列化的性能开销,这是基本的;
③ 可扩展:协议为了满足新的需求变化,所以控制客户端和服务器过程中,需要直接引进相应的协议,这些是新协议,原序列化方式能支持新的协议报文;
④ 互操作:能支持不同语言写的客户端和服务端进行交互;
2.常用数据序列化类型
常用的数据类型对应的hadoop数据序列化类型
Java类型 | Hadoop Writable类型 |
boolean | BooleanWritable |
byte | ByteWritable |
int | IntWritable |
float | FloatWritable |
long | LongWritable |
double | DoubleWritable |
string | Text |
map | MapWritable |
array | ArrayWritable |
3.自定义bean对象实现序列化接口(Writable)
自定义bean对象要想序列化传输,必须实现序列化接口,需要注意以下7项。
(1) 必须实现Writable接口
(2) 反序列化时,需要反射调用空参构造函数,所以必须有空参构造
public FlowBean() {
super();
}
(3) 重写序列化方法
@Override
public void write(DataOutput out) throws IOException {
out.writeLong(upFlow);
out.writeLong(downFlow);
out.writeLong(sumFlow);
}
(4) 重写反序列化方法
@Override
public void readFields(DataInput in) throws IOException {
upFlow = in.readLong();
downFlow = in.readLong();
sumFlow = in.readLong();
}
(5) 注意反序列化的顺序和序列化的顺序完全一致
(6) 要想把结果显示在文件中,需要重写toString(),可用”\t”分开,方便后续用。
(7)如果需要将自定义的bean放在key中传输,则还需要实现comparable接口,因为mapreduce框中的shuffle过程一定会对key进行排序。
@Override
public int compareTo(FlowBean o) {
// 倒序排列,从大到小
return this.sumFlow > o.getSumFlow() ? -1 : 1;
}
4.序列化案例实操
(1) 需求:
统计每一个手机号耗费的总上行流量、下行流量、总流量
(2) 数据准备
(3) 分析
基本思路:
Map阶段:
① 读取一行数据,切分字段
② 抽取手机号、上行流量、下行流量
③ 以手机号为key,bean对象为value输出,即context.write(手机号,bean);
Reduce阶段:
① 累加上行流量和下行流量得到总流量。
② 实现自定义的bean来封装流量信息,并将bean作为map输出的key来传输
③ MR程序在处理数据的过程中会对数据排序(map输出的kv对传输到reduce之前,会排序),排序的依据是map输出的key
所以,我们如果要实现自己需要的排序规则,则可以考虑将排序因素放到key中,让key实现接口:WritableComparable。然后重写key的compareTo方法。
(4) 编写mapreduce程序
① 编写流量统计的bean对象
public class FlowBean implements Writable {
private long upFlow;
private long downFlow;
private long sumFlow;
public FlowBean() {
}
public void setBean(long upFlow, long downFlow) {
this.upFlow = upFlow;
this.downFlow = downFlow;
this.sumFlow = upFlow + downFlow;
}
public long getUpFlow() {
return upFlow;
}
public void setUpFlow(long upFlow) {
this.upFlow = upFlow;
}
public long getDownFlow() {
return downFlow;
}
public void setDownFlow(long downFlow) {
this.downFlow = downFlow;
}
public long getSumFlow() {
return sumFlow;
}
public void setSumFlow(long sumFlow) {
this.sumFlow = sumFlow;
}
@Override
public String toString() {
return upFlow + "\t" + downFlow + "\t" + sumFlow;
}
//序列化
@Override
public void write(DataOutput out) throws IOException {
out.writeLong(upFlow);
out.writeLong(downFlow);
out.writeLong(sumFlow);
}
//反序列化
//注意:序列化顺序一定要跟反序列化一致
@Override
public void readFields(DataInput in) throws IOException {
this.upFlow = in.readLong();
this.downFlow = in.readLong();
this.sumFlow = in.readLong();
}
}
② 编写mapper
public class FlowMapper extends Mapper<LongWritable, Text, Text, FlowBean> {
Text k = new Text();
FlowBean flowBean = new FlowBean();
@Override
protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
//1.获取一行数据
String line = value.toString();
//2.切割数据
String[] splits = line.split("\t");
//3.封装对象
//手机号
String phoneNum = splits[1];
//上行流量
long upFlow = Long.parseLong(splits[splits.length - 3]);
//下行流量
long downFlow = Long.parseLong(splits[splits.length - 2]);
// FlowBean flowBean = new FlowBean(upFlow, downFlow);
flowBean.setBean(upFlow, downFlow);
//4.写出去
k.set(phoneNum);
context.write(k, flowBean);
}
}
③ 编写reducer
public class FlowReducer extends Reducer<Text, FlowBean, Text, FlowBean> {
private long upFlow;
private long downFlow;
FlowBean flowBean = new FlowBean();
@Override
protected void reduce(Text key, Iterable<FlowBean> values, Context context) throws IOException, InterruptedException {
upFlow = 0;
downFlow = 0;
//循环累加流量
for (FlowBean flowBean : values) {
upFlow += flowBean.getUpFlow();
downFlow += flowBean.getDownFlow();
}
flowBean.setBean(upFlow, downFlow);
context.write(key,flowBean);
}
}
④ 编写驱动
public class FlowMapper extends Mapper<LongWritable, Text, Text, FlowBean> {
Text k = new Text();
FlowBean flowBean = new FlowBean();
@Override
protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
//1.获取一行数据
String line = value.toString();
//2.切割数据
String[] splits = line.split("\t");
//3.封装对象
//手机号
String phoneNum = splits[1];
//上行流量
long upFlow = Long.parseLong(splits[splits.length - 3]);
//下行流量
long downFlow = Long.parseLong(splits[splits.length - 2]);
// FlowBean flowBean = new FlowBean(upFlow, downFlow);
flowBean.setBean(upFlow, downFlow);
//4.写出去
k.set(phoneNum);
context.write(k, flowBean);
}
}