良いマップで最初のドメイン名を設定する前にハの詳細は、私の他のエッセイを参照してください。
ダウンロードは良いhdfs.tar.gz後
/ホーム/ LDYで
mkdirアプリケーション/
タール-xzvf hdfs.tar.gz -C /ホーム/ LDY /アプリケーション/#のHDFSとJDKをインストールするように設計
環境変数を変更します。VIMは/ etc / profile
上記の最後Fiの中に追加します。
輸出HDP_HOME = /ホーム/ LDY /アプリケーション/ Hadoopの-2.8.5の/ etc /のHadoop#パス人によって異なります
輸出PATH = $ PATH:$ HDP_HOME / sbinに:$ HDP_HOME / binに
(ビンの古い)でhadoop-daemon.sh sbinディレクトリのコマンドは、 好ましくは両方が装備されています。JDKの構成は同じ理由であります
プロファイル:
/home/ldy/apps/hadoop-2.8.5/etc/hadoopで
Vimはhadoop-env.sh#JAVA_HOMEにそれを伝えます
Vimのコア-site.xmlの
VimのHDFS-site.xmlの
注意:コア-site.xml構成エラーが間違った名前ノードaddrのを引き起こす可能性があります
名前タグの値を変更することはできません
ドメイン名のマッピングは、すべてのサーバのアドレスが一致していなければならないホスト名、およびコア-site.xmlのを書くことができた後、同じファイルシステムを使用してください
一見、二次namenodesを設定:(この設定を最適化されている、)より良い装備されます
私はあなたが最初の良い1台のサーバと、その後、別のサーバーにファイルをコピーして貼り付けることを示唆し、手間を省きます
ここでは、リモート接続がオープンにsshとscpが必要です
オープンSSH:
PSの-eを実行します|そこかどうかを確認するためにはgrep sshを、sshdのプロセス
ない場合は、サーバーが起動しなかった、プロンプトが表示sshが存在しない場合は、それがサーバーにインストールされていない、/etc/init.d/ssh -startを介してサーバ・プロセスを開始する説明
サーバーをインストールします。
1.sudo apt-getを更新
2.sudo apt-get install openssh-server
apt-get过程中可能出现:
E: Could not get lock /var/lib/dpkg/lock-frontend - open (11: Resource temporarly unavailable)
E: Unable to acquire the dpkg frontend lock (/var/lib/dpkg/lock-frontend), is an other process using it?
当出现这个报错时直接:
sudo rm /var/lib/dpkg/lock-frontend
sudo rm /var/lib/dpkg/lock
接下来有可能还会报下面的错:
E: Could not get lock /var/lib/apt/lists/lock - open (11: Resource temporarily unavailable)
Unable to lock directory /var/lib/apt/lists
sudo rm /var/lib/apt/lists/lock
apt-get update 即可
Scp :
scp -r /home/ldy/apps/hadoop-2.8.5 ubuntu-01:/home/ldy/apps/
报错: ssh连接The authenticity of host can't be established
修改/etc/ssh/ssh_config文件的配置
修改:(没有就在最后面添加)
StrictHostKeyChecking no
注:一般是禁止root用户登录的,切换到普通用户可正常使用
当出现这个错误时:
Permisson denied ,please try again
当出现这个错误时,被拒绝,是因为ssh的权限问题,需要修改权限,进入到/etc/ssh文件夹下,用root用户修改文件sshd_config
将PermitRootLogin no 改为 PermitRootLogin yes
记得重启ssh:sudo service ssh restart
hadoop namenode -format (一次就够了)
start-dfs.sh (开启namenode和datanode服务)
使用这个命令每次都要输密码,这里可以设一个免密登录,在namenode服务器上设比较好
免密登录:
ssh-keygen;(一直回车就行)
ssh-copy-id 主机名;(有多少个主机执行多少次这个命令)
vim etc/hadoop/slaves (加上所有需要免密的主机名)
注意:虚拟机重启后得重新执行 start-dfs.sh,namenode和datanode才启动(其本质是软件)
若有不对敬请指正........