Hadoopの完全に構成され、付属のピットを踏むのは簡単

 良いマップで最初のドメイン名を設定する前にハの詳細は、私の他のエッセイを参照してください。

 

ダウンロードは良いhdfs.tar.gz後

/ホーム/ LDYで

mkdirアプリケーション/   

タール-xzvf hdfs.tar.gz -C /ホーム/ LDY /アプリケーション/#のHDFSとJDKをインストールするように設計

 

環境変数を変更します。VIMは/ etc / profile

上記の最後Fiの中に追加します。

輸出HDP_HOME = /ホーム/ LDY /アプリケーション/ Hadoopの-2.8.5の/ etc /のHadoop#パス人によって異なります

輸出PATH = $ PATH:$ HDP_HOME / sbinに:$ HDP_HOME / binに

(ビンの古い)でhadoop-daemon.sh sbinディレクトリのコマンドは、    好ましくは両方が装備されています。JDKの構成は同じ理由であります

 

プロファイル:

/home/ldy/apps/hadoop-2.8.5/etc/hadoopで

Vimはhadoop-env.sh#JAVA_HOMEにそれを伝えます

 

Vimのコア-site.xmlの

 

 

VimのHDFS-site.xmlの

 

 

注意:コア-site.xml構成エラーが間違った名前ノードaddrのを引き起こす可能性があります

名前タグの値を変更することはできません

ドメイン名のマッピングは、すべてのサーバのアドレスが一致していなければならないホスト名、およびコア-site.xmlのを書くことができた後、同じファイルシステムを使用してください

一見、二次namenodesを設定:(この設定を最適化されている、)より良い装備されます

私はあなたが最初の良い1台のサーバと、その後、別のサーバーにファイルをコピーして貼り付けることを示唆し、手間を省きます

ここでは、リモート接続がオープンにsshとscpが必要です

オープンSSH:

PSの-eを実行します|そこかどうかを確認するためにはgrep sshを、sshdのプロセス

ない場合は、サーバーが起動しなかった、プロンプトが表示sshが存在しない場合は、それがサーバーにインストールされていない、/etc/init.d/ssh -startを介してサーバ・プロセスを開始する説明

サーバーをインストールします。

1.sudo apt-getを更新

2.sudo apt-get install openssh-server

 

apt-get过程中可能出现:

E: Could not get lock /var/lib/dpkg/lock-frontend - open (11: Resource temporarly unavailable)

E: Unable to acquire the dpkg frontend lock (/var/lib/dpkg/lock-frontend), is an other process using it?

 

当出现这个报错时直接:

sudo rm /var/lib/dpkg/lock-frontend

sudo rm /var/lib/dpkg/lock

 

接下来有可能还会报下面的错:

E: Could not get lock /var/lib/apt/lists/lock - open (11: Resource temporarily unavailable)

Unable to lock directory /var/lib/apt/lists

 

sudo rm /var/lib/apt/lists/lock

apt-get update  即可

 

Scp :

scp -r  /home/ldy/apps/hadoop-2.8.5   ubuntu-01:/home/ldy/apps/

报错:   ssh连接The authenticity of host can't be established

修改/etc/ssh/ssh_config文件的配置

修改:(没有就在最后面添加)

StrictHostKeyChecking no

注:一般是禁止root用户登录的,切换到普通用户可正常使用

 当出现这个错误时:

Permisson denied ,please try again

 

当出现这个错误时,被拒绝,是因为ssh的权限问题,需要修改权限,进入到/etc/ssh文件夹下,用root用户修改文件sshd_config

将PermitRootLogin no 改为 PermitRootLogin yes

记得重启ssh:sudo service ssh restart

 

hadoop  namenode -format (一次就够了)

start-dfs.sh  (开启namenode和datanode服务)

使用这个命令每次都要输密码,这里可以设一个免密登录,在namenode服务器上设比较好

免密登录:

     ssh-keygen;(一直回车就行)

     ssh-copy-id  主机名;(有多少个主机执行多少次这个命令)

     vim etc/hadoop/slaves  (加上所有需要免密的主机名)

 

注意:虚拟机重启后得重新执行 start-dfs.sh,namenode和datanode才启动(其本质是软件)

 

 若有不对敬请指正........

 

おすすめ

転載: www.cnblogs.com/ldy233/p/11206622.html