【大数据】hadoop五大核心模块_20190205

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/debimeng/article/details/86764835

hadoop五大核心模块

来源:http://hadoop.apache.org/
时间:20190205

原文
Modules
The project includes these modules:
    Hadoop Common: The common utilities that support the other Hadoop modules.
    Hadoop Distributed File System (HDFS™): A distributed file system that provides high-throughput access to application data.
    Hadoop YARN: A framework for job scheduling and cluster resource management.
    Hadoop MapReduce: A YARN-based system for parallel processing of large data sets.
    Hadoop Ozone: An object store for Hadoop.

翻译
模块
该项目包括以下模块:
     Hadoop Common:支持其他Hadoop模块的常用实用程序。
     Hadoop分布式文件系统(HDFS™):一种分布式文件系统,可提供对应用程序数据的高吞吐量访问。
     Hadoop YARN:作业调度和集群资源管理的框架。
     Hadoop MapReduce:基于YARN的系统,用于并行处理大型数据集。
     Hadoop Ozone:Hadoop的对象存储,运行和调度hadoop作业,可以理解为一个工作流调度系统。

猜你喜欢

转载自blog.csdn.net/debimeng/article/details/86764835