맥 OSX 시스템 하둡 / 하이브와 스파크 설치 및 구성 환경 기록

맥 OSX 시스템 하둡 / 하이브와 스파크 설치 및 구성 환경 기록
 
 
하둡 2.6 설치 및 구성 (가상 분산)
  1. 다운로드 및 압축 해제
  2. 구성 .bash_profile에 :
    1. 수출 HADOOP_HOME은 = / 사용자 / 팬 / 응용 프로그램 / 하둡 - 2.6.0
    2. 수출 PATH = $ HADOOP_HOME / 빈 : $ HADOOP_HOME 경우 / sbin : $ PATH
  3. HDFS 구성 : 
    1. 등 / 하둡 / 코어를 site.xml :
      <구성>
          <특성>
              <이름> fs.defaultFS </ 이름>
              <값> HDFS : // 로컬 호스트 : 9000 </ 값>
          </ 속성>
      </ 구성>
       
      등 / 하둡 / HDFS-site.xml 파일 :
      <구성>
          <특성>
              <이름> dfs.replication </ 이름>
              <값> 1 </ 값>
          </ 속성>
      </ 구성>
      , SSH 자동 로그인을 구성 노드와 네임 노드 관리 데이터 노드 간의 데이터 전송을 용이하게
      1. 맥 : 설정 -> 형 주식> 원격 로그인을 활성화 활성화 파일 공유
      2. 기타 
        1. 설정 passphraseless ssh를

          이제 당신은 암호없이 로컬 호스트에 ssh를 수 있는지 확인 :
            $ ssh를 로컬 호스트
           
          당신이 암호없이 localhost에 ssh를 할 수없는 경우, 다음 명령을 실행합니다 :
            $ ssh를-Keygen은 -t DSA -P ''-f ~ / 스푸핑 / id_dsa
            $ 고양이 ~ / 스푸핑 / id_dsa.pub >> ~ / 스푸핑 / authorized_keys에
            $은 0600 ~ / 스푸핑 / authorized_keys에 chmod를
           
  4. 시작 HDFS :
    1. 빈 / HDFS 네임 노드 -format
    2. Start-dfs.sh 
  5. HDFS는 웹 UI 관리 페이지를 테스트 :
    1. 50070 포트 관리 분산 파일 시스템 HDFS
  6. 구성 YARN :
    1. 구성 매개 변수로 다음과 등 / 하둡 / mapred-site.xml 파일을 :
      <구성>
          <특성>
              <이름> mapreduce.framework.name </ 이름>
              <값> 사 </ 값>
          </ 속성>
      </ 구성>
       
      등 / 하둡 / 원사를 site.xml :
      <구성>
          <특성>
              <이름> yarn.nodemanager.aux-서비스 </ 이름>
              <값> mapreduce_shuffle </ 값>
          </ 속성>
      </ 구성>
       
  7. 시작 YARN :
    1. sbin에 / start-yarn.sh
       
  8. 테스트 원사의 웹 UI 관리 페이지 : 로컬 호스트 : 8088 /
 
Start-dfs.sh 시작 문제 :
  1.  네임 노드를 시작할 수 없습니다,하지만 오류 메시지가 하이브 시작할 때 나타납니다 
  2. Connecting to ResourceManager at /0.0.0.0:8032
    java.net.ConnectException: Call From marta-komputer/127.0.1.1 to localhost:9000 failed on connection exception: java.net.ConnectException: Connection refused; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused
   다음과 같은 특정 문제를 추적, /Users/fan/Applications/hadoop-2.6.0/logs/hadoop-fan-namenode-MacBook.log : 그 이유는 네임 노드는의 start-dfs.sh을 보려면 다음 로그 파일을 사용할 수 있습니다 시작하는 데 실패 :
존재하지 않는 저장 디렉토리 (하둡 / HDFS / 데이터 /) 또는 액세스 할 수 없습니다 : 하둡 / HDFS / 이름은 일관성이없는 상태입니다
 
해결 방법 : 
 

 

  1. [CORRECT HDFS-SITE.XML] 
  <특성>
  <이름> dfs.namenode.name.dir </ 이름>
  <값> / 홈 / hduser / mydata을 / HDFS / 네임 노드 </ 값>
  </ 속성>
 
 
  <특성>
  <이름> dfs.datanode.data.dir </ 이름>
  <값> / 홈 / hduser / mydata을 / HDFS / 데이터 노드 </ 값>
  </ 속성>
  1.  실행 하둡 네임 노드는 대상 디렉토리를 포맷 -format
  2. Start-dfs.sh 시작 HDFS
 
 
 
 
 
2.1.1 설치 및 구성을 하이브 :
 
  1. 다운로드
  2. .bash_profile을 구성 파일 :  
    1. 수출 HIVE_HOME = XXX
    2. 수출 PATH = $ HIVE_HOME / 빈 : $ PATH에
  3. 하이브-default.xml에-template.xml이 conf 디렉토리 이름 바꾸기를 복사 : 하이브-site.xml 파일을
  4. 하이브를 site.xml 수정 구성된 schematool -dbType MySQL의 -initSchema 초기화 메타 대응 툴 구성 메타 스토어
    1. 드라이버 관련 하이브를 site.xml 테이블 MySQL의 연결 구성을 수정합니다 :
      1. URL :적인 driverName MySQL의 사용자 암호 등을 참조 
      2. lib 디렉토리 디렉토리에 다운로드 mysql을 - connector.jar
    2. 시작하고 MySQL의 서비스를 수정
  5. 실행 : schematool -dbType mysql을 -initSchema
  6. : 하이브-site.xml의 구성 수정   http://stackoverflow.com/questions/27099898/java-net-urisyntaxexception-when-starting-hive을
    1. <이름> hive.exec.scratchdir </ 이름>
      <값> / tmp를 / 하이브 - $ {user.name} </ 값>
       
      <이름> hive.exec.local.scratchdir </ 이름>
      <값> / tmp를 / $ {user.name} </ 값>
       
      <이름> hive.downloaded.resources.dir </ 이름>
      <값> / tmp를 / $ {user.name} _resources </ 값>
       
      <이름> hive.scratch.dir.permission </ 이름>
          <값> 733 </ 값>
  7. 시작 하이브 테스트
 
 
Spark2.1.0-hadoop2.6 설치 :
 
  1.    다운로드
  2. 增加 수출 spark_classpath = mysql.connector.xxx.jar
  3. 다음 스파크로 디렉터리에 하이브 하이브를 site.xml 구성 파일을 복사
  4. 启动 스파크 - 쉘 测试 发现 :에 의해 aused : MetaException가 (메시지 : 하이브 스키마 버전 1.2.0은 메타 스토어의 스키마 버전과 일치하지 않습니다 2.1.0 메타 스토어가 업그레이드되거나 손상되지 않음)
  5. 해결 방법 : 구성을 수정 :  https://docs.hortonworks.com/HDPDocuments/Ambari-2.2.2.0/bk_releasenotes_ambari_2.2.2.0/content/ambari_relnotes-2.2.2.0-known-issues.html
  6. 성공적으로 실행하기 위해 스파크 - 쉘.
당신은 사용할 수 있습니다    
 
 
 
시동 및 사용과 맥 시스템에서 HBase를 설치 구성
 
  1. 다운로드
  2. ~ / 응용 프로그램 디렉토리에 CP
  3. 자바 홈 Hbase-env.sh 구성 : 수출 JAVA_HOME = / 사용자 / 팬 / .jenv / 버전 / 1.8
  4. HBase를-site.xml의 구성 파일 :
    1.   <특성>
    2.                  <이름> hbase.cluster.distributed </ 이름>
    3.                  <값> 진정한 </ 값>
    4.         </ 속성>
    5.         <특성>
    6.                  <이름 hbase.rootdir >> </ 이름>
    7.                  <값> HDFS : // 로컬 호스트 : 9000 / 사용자 / HBase와 </ 값>
    8.         </ 속성>
  5. HBase를 HDFS에 대한 폴더 만들기 : 하둡 FS -mkdir / 사용자 / HBase를을;  
  6. 구성 환경 변수 :
    1. 수출 HBASE_HOME은 = / 사용자 / 팬 / 응용 프로그램 / HBase를-1.2.4
    2. 수출 PATH = $ HBASE_HOME / 빈 : $ PATH에
  7. 시작 HBase를 : 
    1. zkServer.sh 시작 
    2. Start-hbase.sh
    3. hbase-daemon.sh 시작 중고품 (파이썬 편리하게 연결) 
    4. HBase를 쉘 (CLI 환경)
  8. 보기 UI를 웹 사이트 :   HTTP : // 로컬 호스트 : 16010 / 마스터 현황
  9. HBase를 CLI : HBase를 쉘
 
사육사 설치 구성 및 사용
 
  1. 구성 : CP의 conf / zoo_sample.cfg conf의 / zoo.cfg
  2. 출발
    1. zkServer.sh 시작
  3. 정지 :  
    1. zkServer.sh 정지
  4. 쉘 :
    1. zkCli.sh
 
 
 
카프카의 설치 구성 및 사용
 
  1. 다운로드
  2. 응용 프로그램 디렉토리에 복사
  3. 설치와 종속 사육사를 구성했습니다.
  4. 환경 변수를 설정합니다 :
    1. KAFKA_HOME =
  5. 카프카 시작하고 생산자와 소비자 테스트
    1. 사육사 서비스를 시작합니다 :
      카프카는 먼저 시작 Zookper의, 단순히 Zookkeeper 아래 서비스의 단일 인스턴스 활성화 사육사를 사용합니다. 당신은 명령 콘솔 추가 및 심볼의 종료 후 남길 수 있습니다, 그래서 당신은 시작할 수 있습니다.
      1. > 빈 / zookeeper-server-start.sh 설정 / zookeeper.properties &
      2. [2013년 4월 22일 15 : 01 : 37495]에서 INFO 읽기 구성 : 설정 / zookeeper.properties (org.apache.zookeeper.server.quorum.QuorumPeerConfig)
      3. ...
      2. 이제 카프카를 시작합니다 :
      1. > 빈 / kafka-server-start.sh 설정 / server.properties
      2. [2013년 4월 22일 15 : 01 : 47028] INFO 확인 속성 (kafka.utils.VerifiableProperties)
      3. [2013년 4월 22일 15 : 01 : 47051] INFO 속성 socket.send.buffer.bytes이 1048576을 오버라이드 (kafka.utils.VerifiableProperties)
      4. .
      3 : 주제
       
      화제의 "테스트"라고 하나, 그것은 단지 파티션, 복사본입니다 만듭니다.
      1. > 빈 / kafka-topics.sh --create --zookeeper 로컬 호스트 : 2181 --replication 요인 1 --partitions 1 개 --topic 테스트
      당신은 목록 명령으로 작성된 항목을 볼 수 있습니다 :
      1. > 빈 / kafka-topics.sh --list --zookeeper 로컬 호스트 : 2181
      2. 테스트
       
      수동 항목을 만들뿐 아니라 자동 브로커 항목을 만들 구성 할 수 있습니다.
       
      4 : 메시지 보내기.
       
      카프카는 간단한 명령 줄 프로듀서를 사용하거나 메시지가 서버에서 전송 표준 입력 파일에서 읽습니다. 메시지를 보낼 각 명령을 기본.
       
      일부 실행 프로듀서는 콘솔 메시지 출력, 이러한 메시지는 서버로 전송됩니다 :
      1. > 빈 / kafka-console-producer.sh이 --broker리스트 로컬 호스트 : 9092 --topic 테스트 
      2. 이것은입니다 메시지 것은 또 다른 메시지입니다
      종료 Ctrl + C를 보낼 수 있습니다.
       
      5 : 시작 소비자
       
      카프카는 표준 출력에 메시지를 덤프하는 명령 줄 소비자가 있습니다.
      카프카는 또한 명령 행 소비자가 메시지를 표준 출력에 읽을 수있다 :
      1. > 빈 / kafka-console-consumer.sh --zookeeper 로컬 호스트 : 2181 --topic 테스트 --from-시작
      2. 이 메시지입니다
      3. 이것은 또 다른 메시지입니다
      당신은 명령 창에서 소비자를 실행, 다른 터미널 실행 프로듀서 명령 줄 입력 메시지가 터미널 수 있으며, 또 다른 터미널은 메시지를 읽습니다.
      두 명령은 자신의 선택적 매개 변수가 실행 시간에 매개 변수의 도움없이 볼 수있다.
       
 

추천

출처www.cnblogs.com/ToDoToTry/p/11962226.html