第4步:在云服务器Ubuntu 16.04.4 LTS中安装Hadoop2.9.2

在阿里云中搭建大数据实验环境

第4步:在云服务器Ubuntu 16.04.4 LTS中安装Hadoop2.9.2

https://www.cnblogs.com/87hbteo/p/7606012.html

一、更新apt

用liuxv用户登录后,先更新apt,能使apt安装以后要使用的软件

sudo apt-get update

二、 安装SSH,配置SSH无密码登陆

1、Ubuntu默认已经安装了SSH client,此外还需安装SSH Server

sudo apt-get install opensh-server

2、安装后,用如下命令登陆本机:

$ssh localhost

3、改成无密码登陆

exit #首先退出刚才的SSH

cd ~/.ssh/

ssh-keygen -t ras #利用ssh-keygen生成密钥

cat .lib_rsa.pub >> ./authorized_keys  #加入授权

再输入ssh localhost即可无密码登陆

三、安装hadoop

1、通过MobaXterm把Hadoop安装包传到/home/liuxv/Downloads中

2、解压到/usr/local中

cd ~

sudo tar -zxf ~/Downloads/hadoop-2.9.1.tar-gz -C /usr/local

cd /usr/local

sudo mv ./hadoop-2.9.1/ ./hadoop

#将文件夹改为hadoop

sudo chown -R liuxv:liuxv ./hadoop

#修改文件权限

3、给Hadoop配置环境变量

sudo vim ~/.bashrc

添加如下代码

export HADOOP_HOME=/usr/local/hadoop
export CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATH
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

然后保存退出,执行

source ~/.bashrc

使配置生效

再查看是否安装成功:

hadoop version

四、Hadoop伪分布式配置

1、首先将jdk的路径添加到、usr/local/hadoop/etc/hadoop/hadoop-env.sh文件中:

添加代码:export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_191

2、修改配置文件core-site.xml和hdfs-site.xml

core-site.xml:

<configuration>
        <property>
             <name>hadoop.tmp.dir</name>
             <value>file:/usr/local/hadoop/tmp</value>
             <description>Abase for other temporary directories.</description>
        </property>
        <property>
             <name>fs.defaultFS</name>
             <value>hdfs://localhost:9000</value>
        </property>
</configuration>

hdfs-site.xml:

<configuration>
        <property>
             <name>dfs.replication</name>
             <value>1</value>
        </property>
        <property>
             <name>dfs.namenode.name.dir</name>
             <value>file:/usr/local/hadoop/tmp/dfs/name</value>
        </property>
        <property>
             <name>dfs.datanode.data.dir</name>
             <value>file:/usr/local/hadoop/tmp/dfs/data</value>
        </property>
</configuration>

配置完成后,执行 NameNode 的格式化

$ ./bin/hdfs namenode -format

启动namenode和datanode进程,并查看启动结果

$ ./sbin/start-dfs.sh
$ jps

启动完成后,可以通过命令 jps 来判断是否成功启动,若成功启动则会列出如下进程: “NameNode”、”DataNode” 和 “SecondaryNameNode” 

如果要停止Hadoop,可以使用如下命令:

cd /usr/local/hadoop

./sbin/stop-dfs.sh

猜你喜欢

转载自blog.csdn.net/qq_32539403/article/details/84623074
今日推荐