(1)先配置文件
修改 core-site.xml 如下
修改 hdfs-site.xml 如下:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
dfs.replication 配置的是 HDFS存储时的备份数据(datanode的备份),因为我们刚开始测试,只有一个结点比较好,股设置为1.
(2) 格式化 HDFS
Bin/hdfs namenode -format
格式化是对 HDFS这个分布式文件系统中的 DataNode 进行分块,统计所有分块后的初始元数据的存储在namenode中。(如果服务器再次启动,也需要进行这步,否则启动可能会失败)
(3)启动 NameNode
Sbin/hadoop-daemon.sh start namenode
(4) 启动 DataNode
Sbin /hadoop-daemon.sh start datanode
(5) 启动 SecondaryNameNode
Sbin/hadoop-daemon.sh start secondarynamenode
(6) 使用 jps 命令查看是否启动成功,有结果就成功了。
(7) 然后就可以使用 bin/hdfs dfs —help 里面的命令了,比如 -ls -mkdir 等和 linux 类似的命令。
hdfs dfs -ls /