hadoop自我检测(面试题)

版权声明:转载标明出处即可 https://blog.csdn.net/tclwh123/article/details/84038242

1、hadoop是个什么东西?

: 回答时,精髓:清晰,明确,不含糊, – 但不求多深多全,不能有明确的错

2、hdfs的用途是什么?

<–描述开放式问题的套路:先勾勒出事物的轮廓、骨架、再逐层填充细节–>
储海量文件、为分布式数据处理做支撑
是一个分布式的文件系统

系统中有多重角色,核心角色是namenode 和datanode
namenode负责管理元数据
datanode负责存储文件块

hdfs的运行机制:写文件、读文件的流程

3、文件在hdfs中是通过什么机制来存放的

分布式存放的

文件不是存在一台机器上,而是存在很多的datanode服务器上
一个文件也会被切成多块,分布在多台datanode上
文件的分块存放位置信息,记录在namenode的元数据中

每一个文件的文件块都可以存储多个副本,副本的数量由上传该文件的客户端决定
每一个文件的切块大小也是由客户端决定

读、写数据流程

4、hdfs的客户端api中上传、下载文件,打开文件的输入输出流的方法?

fs.copyFromLocalFile(src,dest)
fs.copyToLocalFile(src,dest)
int = fs.open()
out = fs.create();

5、hdfs的读写数据流程能描述吗?

写文件流程:
客户端向NN请求上传文件
NN告知是否可以上传
客户端向NN请求上传第一个block
NN告知n台DN机器主机名端口号
客户端挑选最近的一台DN,发出请求
目标DN向后续的n个DN发请求,建立pipeline,并在完成后应答客户端
客户端向目标DN传送文件块的字节数据
目标DN接收字节流,并往后续dn进行发送,后续dn接收并往后续发送
该block的数据发送完成后,客户端继续向NN请求上传第二个block,然后重复上述过程

读文件流程:
客户端向NN请求读文件
NN返回该文件的元数据给客户端
客户端找到第一个block的位置信息(dn)
然后挑选最近的一台dn请求读取一个block块
然后dn发送该block块的字节流给客户端,客户端收取
第一个block收取完成后,挑选第二个block的存储dn中最近的一台,重复上述过程

6、hdfs中动态扩容增加10台datanode的步骤有哪些?

准备10台服务器,安装系统、配置环境、安装jdk
安装hadoop软件包
从原集群中同步hadoop配置文件到这新的10台机器
在这10台机器上,用 hadoop-daemon.sh start datanode 分别启动datanode进程
此时,新的10台机器已加入原集群了

后续:为了方便以后用 start-dfs.sh 自动启动集群时,也把这新家的10台自动启动,则可以修改一下slaves文件,加入这10台

6、namenode是怎么管理元数据的?

首先,namenode会将元数据存储在内存中,同时,也会将元数据序列化在磁盘文件fsimage中
然后,这其中涉及的一个核心问题是:内存中元数据如何与磁盘中fsimage序列化文件保持尽可能一致
namenode会将最新的元数据变动以操作日志的形式写在磁盘日志文件edits中
再然后,secondary namenode会定期将新生成的edits文件下载到本地,跟前一个版本的fsimage进行合并生成新的fsimage,并上传到nameonde替换上一个版本的fsimage

7、写一个mapredcue程序,需要写一些什么类?

自定义mapper
自定义reducer
jobsubmitter 提交job的客户端程序

根据需要:还可以有combiner、partitioner、GroupingComparator、自定义Inputformat、自定义outputformat、自定义bean实现writableComparable接口

8、能否不看模板代码,写出一个wordcount

map(){
   String line =value.toString();
   String[] words = line.split(" ");
   for(String word:words){
		context.write(new Text(word),new IntWritable(1))  
   }
}

reduce(Text key,Iterable<IntWritable> values,Context context){
    int count = 0;
    for(IntWritable value:values){
		count += value.get();
	}
context.write(key,new IntWritable(count));

}
main(){
  Configuration conf = new Configuration();
  Job job = Job.getInstance(conf);
  
  ....
  boolean res = job.waitForCompletion(true);
  System.exit(res?0:1);

}

9、能否不看模板代码,写一个求分组topn的mapreduce程序

基本实现:

map(){
  context.write("分组条件",数据)
}


reduce(){
    // 将这一组数据通过迭代器拿出来,放到一个list中或者treemap中
	// 对数据排序 Collections.sort(list,new Comparator());
	// 然后输出前N条
}

高级实现:

利用GroupingComparator

map(){

  context.write(数据bean,nullWritable)

}

保证分区正确:自定一个partitioner
getPartition(){
   // 根据数据bean中的分组条件字段进行分区

}

保证reduce端分组正确;自定义一个GroupingComparator
// 数据bean中uid相同则看成一组

reduce(){
  //按顺序输出前n个

}

10、能否不看模板代码,写一个数据去重的mr程序

11、能否描述mr程序的运行流程、mr程序提交到yarn的流程?

12、hive是个什么东西?它大体是怎么工作的

hive是一个基于hadoop的数据仓库工具

hive中可以建表,建库,
表、库的定义数据存放在hive的元数据库(mysql)中
hive中的表数据存放在hdfs中
hive对用户提交的查询sql,会翻译成mapreduce程序在yarn上运行

13、hive中的元数据是指什么、存在哪?hive中的表数据又是存放在哪?

14、不看模板,能在hive中建库、建表、建分区表、导入数据

create database db_xx;
create table t_yy(id int,name string,birthday date,age int,price double)
row format delimited fields terminated by '\001';

create table t_zz(id int,name string,birthday date,age int,price double)
partitioned by (dt string)
row format delimited fields terminated by '\001';

load data [local] inpath '/path/data' into table t_zz partition(dt='2017-08-08');

15、不看模板,能在hive中做简单查询、条件查询、join查询、group by查询

16、不看模板,能在hive中应用cast函数、substr函数、from_unixtime函数

17、能通过看百度,在hive中使用to_date(“2017-08-30 17:30:20”,“yyyy-MM-dd HH:mm:ss”)函数

18、不看模板,能在hive中应用row_number() over()函数来求分组topn

select ... 
from 
(
select x,y,row_number() over(partition by sex order by age desc) as rank from t_yy
)  tmp
where tmp.rank < 4;

19、不看模板,能在hive中应用json_tuple()解析json数据

select json_tuple(json,‘movie’,‘rate’,‘timeStamp’,‘uid’) as(movie,rate,ts,uid) from t_json;

20、知道textfile和sequencefile的区别吗?

textfile中存放的是文本数据(文本就是一些字符,有行的概念)
sequencefile是hadoop中开发的一种文件格式,里面存放的是大量key-value的对象序列化数据,文件头部会存key-value的类型权限定名

猜你喜欢

转载自blog.csdn.net/tclwh123/article/details/84038242