大数据技术相关启动命令汇总ING...

目录启动命令

  • 1. hadoop
  • 2. zookeeper
  • 3. hive
  • 4. hbase
  • 5. storm
  • 6. kafka

1.hadoop启动命令

格式化HDFS
    $ hdfs namenode -format
    $ hdfs namenode -format –clusterID itcast   ###clusterID必须与bi的相同  ferderation 
    
启动hdfs
    $ start-dfs.sh

单独启动hadoop中某个节点
    $ hadoop-daemon.sh start namenode

启动hadoop中所有节点
    $ hadoop-daemons.sh start datanode

2.zookeeper  启动命令

启动zookeeper集群
    $ cd /hadoop/zookeeper-3.4.5/bin/
    $ ./zkServer.sh start
    #查看状态:一个leader,两个follower
    $ ./zkServer.sh status

启动journalnode
    $ hadoop-daemon.sh start journalnode
    
单独启动yarn中resourcemanager
    $ yarn-daemon.sh start resourcemanager

 3 .hive 启动命令  

启动hive
    服务端  $ bin/hiveserver2 
    客户端  $ bin/beeline
            $ !connect jdbc:hive2://shizhan01:10000

本地数据导入hive
    $ load data local inpath '/home/hadoop/data.dat' into table table_name partition(datestr='2013-09-18')

扫描二维码关注公众号,回复: 4716208 查看本文章

创建一个表A,该表同表B的定义相同
    > create table tmp_page_views
    > like
    > ods_weblog_origin;

4 . hbase 启动命令

设置hbase双主命令(在某个节点可以是从节点)
    $ local-master-backup.sh start 2
    
动态添加hbase节点
    $ hbase-daemon.sh start regionserver

5. storm 启动命令    

启动storm:在nimbus.host所属的机器上启动 nimbus服务
    $ cd /export/servers/storm/bin/
    $ nohup ./storm nimbus 
启动storm:在其它个点击上启动supervisor服务
    $ cd /export/servers/storm/bin/
    $ nohup ./storm supervisor
启动storm:在nimbus.host所属的机器上启动ui服务
    $ cd /export/servers/storm/bin/
    $ nohup ./storm ui

测试storm命令
    $ bin/storm jar examples/storm-starter/storm-starter-topologies-0.9.5.jar storm.starter.WordCountTopology wordcount

6. kafka 启动命令    

各节点上启动kafka
    $ bin/kafka-server-start.sh  config/server.properties

猜你喜欢

转载自blog.csdn.net/py_tamir/article/details/85391491