好程序员大数据划重点 hadoop常用四大模块文件

1.core-site.xml(工具模块)。包括Hadoop常用的工具类,由原来的Hadoopcore部分更名而来。主要包括系统配置工具Configuration、远程过程调用RPC、序列化机制和Hadoop抽象文件系统FileSystem等。它们为在通用硬件上搭建云计算环境提供基本的服务,并为运行在该平台上的软件开发提供了所需的API

     2.hdfs-site.xml(数据存储模块)。分布式文件系统,提供对应用程序数据的高吞吐量,高伸缩性,高容错性的访问。为Hadoop体系中数据存储管理的基础。它是一个高度容错的系统,能检测和应对硬件故障,用于在低成本的通用硬件上运行。HDFS简化了文件的一致性模型,通过流式数据访问,提供高吞吐量应用程序数据访问功能,适合带有大型数据集的应用程序。

namenode+ datanode + secondarynode

      3.mapred-site.xml(数据处理模块),基于YARN的大型数据集并行处理系统。是一种计算模型,用以进行大数据量的计算。HadoopMapReduce实现,和CommonHDFS一起,构成了Hadoop发展初期的三个组件。MapReduce将应用划分为MapReduce两个步骤,其中Map对数据集上的独立元素进行指定的操作,生成键-值对形式中间结果。Reduce则对中间结果中相同“键”的所有“值”进行规约,以得到最终结果。MapReduce这样的功能划分,非常适合在大量计算机组成的分布式并行环境里进行数据处理。

     4.yarn-site.xml(作业调度+资源管理平台),任务调度和集群资源管理resourcemanager + nodemanager 


猜你喜欢

转载自blog.51cto.com/14249543/2395754