HDFS源码解析之HadoopRPC(一)

一、我们应该如何去阅读一个大数据开源框架的源码

1. 阅读源码的思路

1.1 掌握其网络通信架构

我们应该都知道在大数据领域中,包含了很多大数据框架,例如Spark,Hadoop,Kafka,Zookeeper,Flink等,在这些组件当中,他们都是分布式的,我们想要阅读他们源码的时候,必须要明白分布式系统之间,他们是如何交互的,例如Spark之前采用的是akka,现在采用的Netty,kafka采用的是NIO等,也就不一一列举了,我们阅读源码的时候,如果不了解他们内部是如何通信的,那么我们根本无法知道他们的内部是如何工作的,所以掌握其通信架构是必须的,也是必然的

1.2 场景驱动

为什么要说场景驱动这个问题呢,因为我们在阅读一个开源框架源码的时候,例如Hadoop源码几百万行代码,我们一个个类去看的话,我相信,看不了一会,你就放弃了,根本不知道在看一些什么东西,但是场景驱动的方式可以帮助我们更加有效的去阅读,因为我们只关注其中的某一点,例如我就看NameNode启动的流程,DataNode的注册和心跳,这样我们就可以抛弃不看的,不重要的,只看我们需要的地方,这样我们既有兴趣,又能坚持的下来

二、Hadoop RPC

RPC是什么?

RPC(Remote Procedure Call)远程过程调用,用人话说,就是我们编写分布式系统的时候,可以本地调用远端的方法,这样我们编写代码的时候就和编写单机程序没有什么区别.也就是说客户端调用服务端的方法,方法的执行在服务端

1. 环境准备

Maven依赖

<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>2.7.0</version>
</dependency>

2. 代码实现

2.1 协议

/**
 * Copyright (c) 2019 bigdata ALL Rights Reserved
 * Project: learning
 * Package: com.bigdata.hdfs.app
 * Version: 1.0
 *
 * @author qingzhi.wu
 * @date 2020/6/14 20:21
 */
public interface ClientProtocol {
    long versionID = 1234;
    void makeDir(String path);
}

2.2 服务端代码

/**
 * Copyright (c) 2019 bigdata ALL Rights Reserved
 * Project: learning
 * Package: com.bigdata.hdfs.app
 * Version: 1.0
 *
 * @author qingzhi.wu
 * @date 2020/6/14 20:22
 */
public class NameNodeRpcServer implements ClientProtocol {


  public static void main(String[] args) throws IOException {

      RPC.Server server = new RPC.Builder(new Configuration())
              .setBindAddress("localhost")
              .setPort(9999)
              .setProtocol(ClientProtocol.class)
              .setInstance(new NameNodeRpcServer())
              .build();
      System.out.println("服务端启动");
      server.start();

  }
    public void makeDir(String path) {
    System.out.println("服务端: "+path);
    }
}

2.3 客户端

/**
 * Copyright (c) 2019 bigdata ALL Rights Reserved Project: learning Package: com.bigdata.hdfs.app
 * Version: 1.0
 *
 * @author qingzhi.wu
 * @date 2020/6/14 20:26
 */
public class DFSClient {

  public static void main(String[] args) throws IOException {
    ClientProtocol namenode =
        RPC.getProxy(
            ClientProtocol.class,
            1234L,
            new InetSocketAddress("localhost", 9999),
            new Configuration());
    namenode.makeDir("/usr/add");
    System.out.println("已经向服务端发送请求");
  }
}

2.4 测试运行

2.4.1 运行服务端

控制台打印的日志

image-20200704104055268

2.4.2 运行客户端

客户端控制台打印的日志

image-20200704104438869

服务端控制台打印的日志

image-20200704104524392

3. Hadoop RPC 总结

  • 不同进程间的调用,客户端调用服务端的方法,方法的执行是在服务器
  • 协议是什么呢,其实就是一个接口,当然这个接口里面必须有versionID字段(避免版本问题)
  • 服务端是真正实现协议的一方
  • 如何创建一个服务端
      RPC.Server server = new RPC.Builder(new Configuration())
              .setBindAddress("localhost")
              .setPort(9999)
              .setProtocol(ClientProtocol.class)
              .setInstance(new NameNodeRpcServer())
              .build();
  • 客户端如何调用远端的方法
 ClientProtocol namenode =
        RPC.getProxy(
            ClientProtocol.class,
            1234L,
            new InetSocketAddress("localhost", 9999),
            new Configuration());
    namenode.makeDir("/usr/add");

猜你喜欢

转载自blog.csdn.net/weixin_43704599/article/details/107121279