CentOS는 - 하둡은 완전히 분산

1,配置DNS의
VI / etc / hosts 파일
192.168.73.130 hadoop01
192.168.73.128 hadoop02
192.168.73.129 hadoop03
192.168.73.131 hadoop04
2. 방화벽 테스트 단계의 해제
#은 서비스 종료
systemctl 정지 firewalld의
#은 처음부터 부팅 닫습니다
systemctl 비활성화 firewalld을
3. 무료로 비밀번호를 구성
VI의 / etc / SSH / sshd_config에
예 RSAAuthentication
           
PubkeyAuthentication 예
           
# 키 파일 경로          
           
AuthorizedKeysFile ~ / 스푸핑 / authorized_keys에
루트 사용자가 열려 루트로 로그인 할 필요가있는 경우
-P Keygen은 -t-RSA SSH ''-f ~ / 스푸핑 / id_rsa_gsg_keypair를
SCP hadoop01의 authorized_keys : ~ / 스푸핑 /
authorized_keys에 >> id_rsa.pub CAT
기계를 복사 한 후 각 마지막 네 개의 시스템에 다시 복사에 추가
다른 컴퓨터에 복사 문제가있는 경우 그 자체를 ssh를
ssh를-추가하여 id_rsa_gsg_keypair의
SSH 에이전트
평가 $ (SSH 에이전트)
는 ssh-추가하여 id_rsa_gsg_keypair의
SSH - 복사 - 위에서 언급 한 ID 루트 @의 hadoop04
 

chmod를 755 / 루트
chmod를 700 ~ / 스푸핑
chmod를 600 ~ / 스푸핑 / authorized_keys에의
서비스 sshd를 다시 시작
4JAVA 환경과 하둡
CD / 홈
MV의 JDK-8u201 - 리눅스-64 / 자바

타르 -zxvf 하둡-3.2.0.tar.gz
MV 하둡-3.2.0 하둡
VI의 / etc / 프로필
수출 JAVA_HOME = / 가정 / 자바 / jdk1.8.0_201
수출 JRE_HOME = $ {JAVA_HOME} / JRE의
수출 CLASSPATH =. $ {JAVA_HOME} / lib 디렉토리 : $ {JRE_HOME} / lib에
수출 PATH = $ {JAVA_HOME } / 빈 : $ PATH에의
수출 HADOOP_HOME = / 가정 / 하둡
수출 PATH = $의 PATH : $ HADOOP_HOME / 빈
수출 PATH = $의 PATH : $ HADOOP_HOME은 / sbin에
수출 HADOOP_CONF_DIR = $ {HADOOP_HOME}을 / etc / 하둡
은 chmod /home/java/jdk1.8.0_201/bin/java 777
소스의 / etc / 프로필
검증 자바
자바 -version
CD / 홈 / 하둡 / 등은 / 하둡
우리가 hadoop-env.sh
우리는 mapred-env.sh
우리가 yarn-env.sh
수출 JAVA_HOME = "/ 홈 / 자바 / jdk1.8.0_201"
5. 프로필 하둡 수정
수정 코어를 site.xml, HDFS-site.xml 파일,로 디렉토리 아래에 -demand 등 / 하둡 하둡 설치 디렉토리를 mapred-site.xml 파일, 원사를 site.xml, 노동자 에 따라 파일, 실제 상황은 구성 정보를 수정합니다.
 
 첨부 링크 https://www.cnblogs.com/shireenlee4testing/p/10472018.html

추천

출처www.cnblogs.com/wygflying163/p/11511460.html