目录启动命令
- 1. hadoop
- 2. zookeeper
- 3. hive
- 4. hbase
- 5. storm
- 6. kafka
1.hadoop启动命令
格式化HDFS
$ hdfs namenode -format
$ hdfs namenode -format –clusterID itcast ###clusterID必须与bi的相同 ferderation
启动hdfs
$ start-dfs.sh
单独启动hadoop中某个节点
$ hadoop-daemon.sh start namenode
启动hadoop中所有节点
$ hadoop-daemons.sh start datanode
2.zookeeper 启动命令
启动zookeeper集群
$ cd /hadoop/zookeeper-3.4.5/bin/
$ ./zkServer.sh start
#查看状态:一个leader,两个follower
$ ./zkServer.sh status
启动journalnode
$ hadoop-daemon.sh start journalnode
单独启动yarn中resourcemanager
$ yarn-daemon.sh start resourcemanager
3 .hive 启动命令
启动hive
服务端 $ bin/hiveserver2
客户端 $ bin/beeline
$ !connect jdbc:hive2://shizhan01:10000
本地数据导入hive
$ load data local inpath '/home/hadoop/data.dat' into table table_name partition(datestr='2013-09-18')
创建一个表A,该表同表B的定义相同
> create table tmp_page_views
> like
> ods_weblog_origin;
4 . hbase 启动命令
设置hbase双主命令(在某个节点可以是从节点)
$ local-master-backup.sh start 2
动态添加hbase节点
$ hbase-daemon.sh start regionserver
5. storm 启动命令
启动storm:在nimbus.host所属的机器上启动 nimbus服务
$ cd /export/servers/storm/bin/
$ nohup ./storm nimbus
启动storm:在其它个点击上启动supervisor服务
$ cd /export/servers/storm/bin/
$ nohup ./storm supervisor
启动storm:在nimbus.host所属的机器上启动ui服务
$ cd /export/servers/storm/bin/
$ nohup ./storm ui
测试storm命令
$ bin/storm jar examples/storm-starter/storm-starter-topologies-0.9.5.jar storm.starter.WordCountTopology wordcount
6. kafka 启动命令
各节点上启动kafka
$ bin/kafka-server-start.sh config/server.properties