Hadoop框架包括哪几部分?

Hadoop是一个用Java编写的Apache开源框架,允许使用简单的编程模型跨计算机集群分布式处理大型数据集。Hadoop框架工作的应用程序在跨计算机集群提供分布式存储和计算的环境中工作。Hadoop旨在从单个服务器扩展到数千个机器,每个都提供本地计算和存储。

Hadoop框架包括以下四个模块:

HadoopCommon: 这些是其他Hadoop模块所需的Java库和实用程序。这些库提供文件系统和操作系统级抽象,并包含启动Hadoop所需的Java文件和脚本。

HadoopYARN: 这是一个用于作业调度和集群资源管理的框架。

HadoopDistributed File System (HDFS™): 分布式文件系统,提供对应用程序数据的高吞吐量访问。

HadoopMapReduce:这是基于YARN的用于并行处理大数据集的系统。

除了以上四个模块,Hadoop还包括指向可以安装在Hadoop之上或之上的附加软件包的收集,例如Apache Pig,Apache Hive,Apache HBase,Apache Spark等。


猜你喜欢

转载自blog.csdn.net/lmseo5hy/article/details/80282458