一:数据上传至hdfs
hadoop fs -moveFromLocal /var/url_data/20150806.txt /url_data/input
二:运行jar包处理数据
hadoop jar /root/run_jar/url_deal.jar
三:移动数据处理结果至hive数据目录下
hadoop fs -mv /data/tmp_data/20150831/part-r-00000 /data/url_deal/2015/08/31
四:删除临时文件
hadoop fs -rmr /data/tmp_data/20150831
五:查看Yarn HA 节点状态
yarn rmadmin -getServiceState rm1
yarn rmadmin -getServiceState rm2
六:Yarn HA节点状态转换命令
yarn rmadmin -transitionToStandby --forcemanual rm2(转换至standby)
yarn rmadmin -transitionToActive --forcemanual rm1 (转换至active)
七:单独启动resourcemanager进程
yarn-daemon.sh start resourcemanager
八:namenode状态查看
hdfs haadmin -DFSHAADMIN -getServiceState nn1
hdfs haadmin -DFSHAADMIN -getServiceState nn2
九:nanmenode节点状态转换
hdfs haadmin -DFSHAADMIN -transitionToStandby --forcemanual nn2(注:yarn 和 namenode 转换不同yarn可同时存在两个standby状态节点,
namenode只能一个为standby状态,两个主节点状态可以来回切换)
十、离开安全模式
hadoop dfsadmin -safemode leave