전체 프로세스 하둡 클러스터 구성

A, NAT 구성
"편집 - -"가상 네트워크 편집기 - "설정 변경 -"가상 머신 원래 VMnet8- "플러스 새 VMnet8-을"제거를 NAT 모드 클릭
- "NAT 모드, NAT 모드 초기화에 대한 브리지 모드
(2) / etc / sysconfig / network를 편집 - 스크립트 /를이 ifcfg-eth0를
해당 장치 = "eth0를"
BOOTPROTO = "정적"
NM_CONTROLLED = "예"
ONBOOT = "예"
유형 = "이더넷"
IPADDR # = 192.168.126.10 가상 머신의 볼
넷 마스크를 = 255.255.255.0
GATEWAY = 192.168.126.2 번호는 가상 머신을 볼
DNS1 = 202.106.0.20
3은 / etc /있는 init.d / 네트워크 재시작 재시작 네트워크

두 하둡 설치
"가상 시스템 파일을 복사 - -"가상 시스템에서 1, 가상 머신 정지
2, 슬레이브 국의
편집 / etc / sysconfig / network-scripts에 /를이 ifcfg-eth0를
해당 장치 = "eth0를"
BOOTPROTO = "정적"
NM_CONTROLLED =을 "예"
ONBOOT = "예"
유형 = "이더넷"
IPADDR # = 192.168.126.11 가상 머신 참조
NETMASK = 255.255.255.0
GATEWAY = 192.168.126.2 #을 가상 머신 볼
DNS1 = 202.106.0.20
3,은 / etc / init.d를 / 네트워크 다시 시작 네트워크 다시 시작
, 4를 추가 할 수있는 가상 머신의 네트워크 어댑터 카드 삭제
(5), 윈도우 파일 공유 설정 6u45-리눅스의 JDK의 x64.bin, 하둡-1.2.1-bin.tar.gz으로 가상 머신을 마스터
을 / mnt / hgfs / 아래 공유 디렉토리로
. 6 / JDK-6u45- 리눅스 x64.bin은 JDK 설치
의 .bashrc, ~ / 글로벌 변수를
jdk1.6.0_45 /를 JAVA_HOME = / usr / 지방 / SRC에 내보내기
= 클래스 경로 내보내기 :. $ 클래스 경로 : $ JAVA_HOME 환경 / lib에
내보내기 PATH = $는 PATH :$ JAVA_HOME / 빈
소스 ~ / .bashrc에 다시 시작 전역 변수
7, 원격 파일 복사 : SCP - RP의 JDK 6u45-리눅스 x64.bin의 192.168.126.11:/usr/local/src/
. (8), 여섯 번째 단계는 반복 확장 슬레이브

(9) 마스터主机解压하둡 1.2.1-bin.tar.gz의
CD의 하둡 1.2.1
MKDIR TMP
CD의 conf
VIM 마스터 :内容마스터为
VIM 슬레이브 :内容为
SLAVE1
slave2
VIM 코어를 site.xml :内容为
<구성 >
<속성>
<이름> hadoop.tmp.dir </ 이름>
<값> /usr/local/src/hadoop-1.2.1/tmp </ value>를
</ 속성>
<속성>
<이름> fs.default .name과 </ 이름>
<값> HDFS : //192.168.126.10 : 9000 </ value>를
</ 속성>
</ 구성>
VIM mapred-를 site.xml :内容为
<구성>
<속성>
<이름> mapred. job.tracker </ 이름>
<값> http://192.168.126.10 :9001 </ value>를
</ 속성>
</ 구성>
정력 HDFS-를 site.xml :内容为
<구성>
<속성>
<이름> dfs.replication </ 이름>
<값> 3 </ value>를
</ 속성>
</ 구성>
VIM hadoop-env.sh :最后添加
수출 JAVA_HOME = / usr / 지방 / SRC / jdk1.6.0_45

(10)는 마스터와 슬레이브의 로컬 네트워크의 구성을 구성해야
빔은 / etc / 호스트
192.168.126.10 마스터
192.168.126.11 SLAVE1
192.168.126.12 slave2
빔 / 등이 / SYSCONFIG / 네트워크
HOSTNAME = 마스터 (따른 시스템을 채우 SLAVE1 / slave2)
호스트 마스터 ( 머신에있어서 채울 : SLAVE1 / slave2)

11, 하둡은 확장에 복사
SCP - RP 하둡 1.2.1 192.168.126.11:/usr/local/src/
SCP - RP 하둡 1.2.1 192.168.126.12:/usr/local/src/을

(12)는 방화벽 (수행해야하는 각 기계)를 해제하는
정지 /etc/init.d/iptables
위해 setenforce # 0의 SELinux를 폐쇄

세, 마스터, 슬레이브가 상호 신뢰 관계 구축
SSH-Keygen은 # 반환 반환
~ / 스푸핑 CD를
CAT의 id_rsa.pub>의 authorized_keys 번호는 공개 키 파일을 복사
authorized_keys에에 SLAVE1 공개 키의 공개 키 slave2을 추가하고 확장에 authorized_keys에 복사 에

SSH를 SLAVE1의 SSH slave2의 SSH 마스터 상호 신뢰 관계를 확인하는

넷째, 하둡 클러스터 시작
/usr/local/src/hadoop-1.2.1/bin/ CD
네임 노드의 -format 번호가 초기화 ./hadoop
./start-all.sh # 시작
JPS 번호가 프로세스에게 (각 시스템보기)보기
./ 하둡 FS 저것 집어 넣어 / 등 / passwd에 / # 클러스터 파일을 작성하는
./hadoop FS -ls / #보기 클러스터 파일

 

추천

출처www.cnblogs.com/longfeiPHP/p/11350565.html