hadoop相关问答知识---期末复习

选择题

2.1 单选题(每题3分)
Google File System对应Hadoop系统下的:C
a) MapReduce
b) Yarn
c) HDFS
d) Hadoop
2) 以下哪个是谷歌三篇大数据论文没有涉及的大数据组件:D
a) HDFS
b) HBase
c) MapReduce
d) Yarn
3) Hadoop不能运行在哪个操作系统上:B
a) FreeBSD
b) Symbian
c) Arch
d) Fedora
4) 2.5.2版本的Hadoop有多少子工程:C
a) 4个
b) 12个
c) 57个
d) 58个
5) 执行hadoop命令hadoop jar ***.jar时的运行的脚本hadoop在哪个工程下:A
a) hadoop-common
b) hadoop-client
c) hadoop-core
d) hadoop-mapreduce
6) 以下哪个不是hadoop脚本的第一个运行参数:D
a) fs
b) jar
c) dfs
d) hdfs
7) hadoop工程属于:A
a) maven工程
b) ant工程
c) gradle工程
d) spring工程
8) 以下哪个不属于hadoop工程的安全机制:D
a) KerberosAuthenticator
b) PseudoAuthenticator
c) TimelineAuthenticator
d) HttpFSAuthenticator
9) core-default.xml在哪个路径下:D
a) $HADOOP_HOME/etc/hadoop
b) $HADOOP_HOME/lib/native
c) $HADOOP_HOME/share/hadoop/common/templates
d) $HADOOP_HOME/share/doc/hadoop/hadoop-project-dist/hadoop-common/
10) hadoop各个组件之间通信使用:A
a) grpc
b) netty rpc
c) tomcat rpc
d) dubbo rpc
11) hadoop进行文件IO时默认的buffersize是:A
a) 4k
b) 8k
c) 64M
d) 128M
12) hadoop的client向server发起连接时默认的最大失败重连次数是:D
a) 5次
b) 15次
c) 30次
d) 45次
13) hadoop的client向server发起连接时默认的连接超时时间是:C
a) 3s
b) 10s
c) 20s
d) 30s
14) hadoop的server的连接队列默认长度是:D
a) 16
b) 32
c) 64
d) 128
15) hdfs连接local filesystem时,默认的数据分片数是:A
a) 1
b) 2
c) 3
d) 4
16) 运行hadoop jar job.jar至少会运行多少个main函数:B
a) 1
b) 2
c) 3
d) 4
17) 和Thread类似,hadoop的applicatin也有运行状态,以下哪项不是hadoop的application的运行状态:C
a) NEW
b) RUNNING
c) BLOCKED
d) FINISHED
18) 已知hadoop客户端提交任务通过yarn_protos.proto内ApplicationSubmissionContextProto消息传递,请问以下哪项不是该消息的字段:C
a) application_id
b) application_name
c) application_type
d) queue
19) HDFS默认分片数最大是:C
a) 128
b) 256
c) 512
d) 1024
20) Yarn的分配给单个容器可申请的最大内存和最多cpu核心数是:B
a) 4 vcores, 4G ram
b) 8 vcores, 8G ram
c) 12 vcores, 12G ram
d) 16 vcores, 16G ram
2.2 多选题(选错或多选均不得分,每题4分)

  1. 以下哪些是hadoop的注解:ABCD
    a) LimitedPrivate
    b) Unstable
    c) Evolving
    d) Public

  2. 以下哪些是hadoop的任务jar包里需要有的内容:ABC
    a) 用户代码
    b) 第三方jar
    c) 配置文件
    d) 任务脚本

  3. 查找代码,下面那些是hadoop.tmp.dir的出现位置:ABCD
    a) RunJar.java: File tmpDir = new File(new Configuration().get(“hadoop.tmp.dir”));
    b) TestConfigurationSubclass.java: assertNotNull(“hadoop.tmp.dir is not set”, properties.getProperty(“hadoop.tmp.dir”));
    c) BenchmarkThroughput.java: localDir = conf.get(“hadoop.tmp.dir”);
    d) TestNoDefaultsJobConf.java: assertTrue(configuration.get(“hadoop.tmp.dir”, null) != null);

  4. 和Thread类似,hadoop的job也有运行状态,以下哪些是hadoop的job的运行状态:AC
    a) DEFINE
    b) WAITING
    c) RUNNING
    d) TERMINATED

  5. 以下哪些是hadoop系统的proto:BD
    a) job_protos.proto
    b) mr_protos.proto
    c) hdfs_protos.proto
    d) yarn_protos.proto

    第三章 简答题
    3.1 请简述Hadoop中六大注解的功能和含义?(5分)

    1. InterfaceAudience 类主要包括三类注解用来强调使用范围:
      a) @InterfaceAudience.Public : 任何工程均可使用
      b) @InterfaceAudience.LimitedPrivate :只有在特定的工程中可以使用,如 Common HDFS MapReduce ZooKeeper HBase
      c) @InterfaceAudience.Private: 只有在Hadoop中可以使用
    2. InterfaceStability类中定义了三种注解,主要用来说明代码的稳定性(即其内容是否会随版本的变化而变化):
      a) @InterfaceStability.Stable : 代码具有较强的稳定性,但随着工程主版本号的变化可能会发生改变
      b) @InterfaceStability.Evolving:随着工程次版本号的变化可能会发生改变
      c) @InterfaceStability.Unstable :代码在任何发布版本中均有可能会发生变化

3.2 请简述运行hadoop jar job.jar的时候,hadoop如何确定jar包内哪个类是main函数所在的主类的?(5分)

				需要在Jar包内的MANIFEST.MF文件内指定Main-Class字段。

3.3 已知Job的ID号生成机制是通过继承ClientProtocol实现的local和Yarn两种方式下完成的,请简述在local和Yarn两种模式下生成Key的方法。(10分)

                Local下使用”job”_”local+随机数”_”第几次job”;
    			Yarn下使用”job”_”集群时间戳”_”第几次job”
 

更多资讯,欢迎关注微信公众号:bunny1312
在这里插入图片描述

发布了16 篇原创文章 · 获赞 10 · 访问量 1万+

猜你喜欢

转载自blog.csdn.net/weixin_43869290/article/details/86436080
今日推荐