让你秒懂hadoop各组件

让你秒懂hadoop各组件

经常在提到大数据处理框架hadoop,但大家对各组件的用途还是很迷糊,在给客户讲方案时觉得hadoop很高深。其实没有这么难,今天我们来简述一下用途。通过本短文的查阅,至少你知道组件的作用、他所处的层次。

hadoop

  • 1、Hadoop是Apache公司的大数据处理套件,是所有大数据组件的总称。目前Hadoop已从1.0发展至3.0时代。
    2、HDFS把所有廉价的pc服务器组成了一个超级大硬盘,且通过多副本保证了数据安全。
    3、MapReduce用于把一个超级大的数据文件分解至不同的廉价pc服务器进行处理,并最终返回数据处理结果。
    4、Yarn用于优化mapreduce的处理框架,是一个资源调度组件,让mapreduce处理更加稳健、高效。
    5、Zookeeper是一个协调组件,很多组件都依赖于它的运行。如选择HA领导、实现Mysql的高可用。它相当于是一个领导角色,负责协调资源的高可用运行。
    6、Sqoop是一个ETL工具,负责各类数据库(Mysql等)与hadoop存储之间的互相倒换。
    7、Hive是一个mapreduce之上的神器,你通过sql命令就可以代替mapreduce的编程。
    8、Spark是MapReduce的升级替换组件,基于内存计算,数据处理速度提高10-100倍。
    9、Kafka是一个队列工具,数据、消息的排队全靠它,有了它的帮助,数据的堵塞问题不再是个事。
    10、Flume是一个前端日志采用工具,部署在web等前端服务器,将日志数据源源不断进行采集。
    11、HBase是数据的海量存储仓库,是一个Nosql数据库,可以保障数据的海量存储。
    12、Pig是另一个简化版的Mapreduce上层处理工具,通过简单的脚本即可生成Mapreduce程序进行快速的数据处理。

更多内容实时更新,请访问公众号。
公众号

获取最高¥1888阿里云产品通用代金券,请点击。

猜你喜欢

转载自blog.csdn.net/qq_29718979/article/details/85919392
今日推荐