Hadoop 2.9单机安装配置

安装过程可参考网络文章: https://www.cnblogs.com/defineconst/p/10828899.html

本机内存资源不够的情况使用虚拟内存:

刚安装的服务器一开始默认貌似是没有swap空间的,如果不确定的话,可以通过下面的命令来查看自己的服务器的swap分区的情况:
free -m
因为我的系统的内存是1G,所以准备做个2G的Swap空间。
在网上找了一些增加swap的步骤,发现阿里云的用户遇到过类似的问题,参考URL:https://yq.aliyun.com/ziliao/5443
下面是我执行的步骤(我使用的是root用户,当然如果你有sudo权限的话,也可以):

  1. 在 / 目录下建立swap 目录
    mkdir /swap

  2. 使用dd命令生成一个空文件,因为我准备建立一个2G的swap空间,所以我准备把空文件设置为2G
    cd /swap/
    dd if =/dev/zero of=swap.img bs=1M count=2048M

  3. 接下来使用mkswap 命令把这个空文件格式化为swap格式
    mkswap swap.img

  4. 激活swap
    swapon swap.img

  5. 再次使用free -m 命令查看swap分区信息,可以发现已经配置成功

  6. 目前虽然已经配置好了缓存分区,但是我们的服务器重启之后会失去缓存分区,需要重新挂在,所以需要设置为开机就自动挂载
    到/etc/fstab 中添加下面的内容:
    /swap/swap.img swap swap defaults 0 0

启动hadoop时总是提示输入密码解决办法:

生成秘钥:如果本地环境有则不需要
ssh-keygen -t rsa
实现本地登录免密码登录,因为搭建的时候,我们做了对其他主机的免密码登录,但是本地ssh连接本地没有
所以,讲本地的公钥导入私钥就可以
cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys

————————————
参考文章:
https://blog.csdn.net/dwl764457208/article/details/55252228
https://blog.csdn.net/shikenian520/article/details/79896639

猜你喜欢

转载自www.cnblogs.com/hupingzhi/p/12286630.html