プロセスで発生した大規模データベースアセンブリの問題を構築(統合)

Hadoopの

1.ホスト名が解決できないので、

そこデータノードガードはあったが、HDFSのWebページ上の表示はデータノード生存しなかった
Hadoopのエラーを

2017-06-21 17:44:59,513 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool BP-1394689615-10.85.123.43-1498038283287 (Datanode Uuid null) service to /10.85.123.43:9000 Datanode denied communication with namenode because hostname cannot be resolved (ip=10.85.123.44, hostname=10.85.123.44): DatanodeRegistration(0.0.0.0:50010, datanodeUuid=e086ba2d-fe65-4ba7-a6c2-a4829ac9e708, infoPort=50075, infoSecurePort=0, ipcPort=50020, storageInfo=lv=-56;cid=CID-9bfeb191-6823-4f9e-9daa-e31c797e70df;nsid=523094968;c=0)
        at org.apache.hadoop.hdfs.server.blockmanagement.DatanodeManager.registerDatanode(DatanodeManager.java:873)
        at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.registerDatanode(FSNamesystem.java:4529)
        at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.registerDatanode(NameNodeRpcServer.java:1286)
        at org.apache.hadoop.hdfs.protocolPB.DatanodeProtocolServerSideTranslatorPB.registerDatanode(DatanodeProtocolServerSideTranslatorPB.java:96)
        at org.apache.hadoop.hdfs.protocol.proto.DatanodeProtocolProtos$DatanodeProtocolService$2.callBlockingMethod(DatanodeProtocolProtos.java:28752)
        at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:616)
        at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:982)
        at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2049)
        at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2045)
        at java.security.AccessController.doPrivileged(Native Method)
        at javax.security.auth.Subject.doAs(Subject.java:422)
        at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1698)
        at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2043)

1.1原因

使用IP設定のHadoopを設定します

1.2ソリューション

HDFS-site.xmlファイルに次の行を追加します。

  <property>
    <name>dfs.namenode.datanode.registration.ip-hostname-check</name>
    <value>false</value>
  </property>

1.3参考資料

Hadoopの使用のIP設定は、HDFSの起動に失敗した原因

巣箱

1.インストールHadoopを見つけることができません:$ HADOOP_HOMEをまたは$ HADOOP_PREFIXがセットでなければならないか、Hadoopがパスでなければなりません

ハイブバージョン:2.1.1
ハイブタイムズを有効にするには、次のエラー:
缶の検索Hadoopのインストールではない:$ HADOOP_HOMEまたは$ HADOOP_PREFIX SETまたはでなければならないパスでのHadoopでなければなりません

1.1ソリューション

ファイル場合Hive-env.sh最初のかどうかを確認し
、生成されていない場合は、confディレクトリにある次のファイルへの切り替えがハイブエグゼクティブフォルダを抽出します

cp hive-env.sh.template hive-env.sh

そしてhive-env.shファイルに次を追加することにより、

# HADOOP_DIR 为 Hadoop 解压目录
export HADOOP_HOME=HADOOP_DIR

そして、実行

source hive-env.sh

インスタンス化org.a pache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClientにできません2.

ハイブを入力するよう求め、以下の情報
ここに画像を挿入説明

2.1ソリューション

hive --service metastore &

2.2参考資料

よくあるご質問のまとめをハイブ

3. MetaException(メッセージ:バージョン情報は、メタストアで見つかりません。)

サーバーは、以下のコマンドを実行中に例外が発生しました

hive --service metastore &

ここに画像を挿入説明

3.1ソリューション

ハイブは、ハイブ-site.xmlの中で次のような情報サーバを追加しました

<property>
	<name>hive.metastore.schema.verification.record.version</name>
    <value>false</value>
</property>

注:设置 hive.metastore.schema.verification 为 false 不管用时

3.2参考資料

いくつかのハイブ展開注
ハイブマルチバージョン同時実行エラー

4.アドレス0.0.0.0/0.0.0.0:9083上のServerSocketを作成できませんでした。

サーバーはハイブ--serviceメタストア&エラーを実行します

3.1ソリューション

この理由が関係しているハイブプロセスは、缶を殺す、開始しました

ps -ef |grep  hive 

ここに画像を挿入説明

3.2参考資料

アドレスミスにハイブメタストア開始

未解決

1.挿入、上書き

上書き操作INSERT実行するときにハイブ、与えられました

Application application_1558724705046_0002 failed 2 times due to Error launching appattempt_1558724705046_0002_000002. Got exception: java.net.ConnectException: Call From master.novalocal/127.0.0.1 to localhost:44969 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
at sun.reflect.GeneratedConstructorAccessor47.newInstance(Unknown Source)
at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
at java.lang.reflect.Constructor.newInstance(Constructor.java:423)
at org.apache.hadoop.net.NetUtils.wrapWithMessage(NetUtils.java:792)
at org.apache.hadoop.net.NetUtils.wrapException(NetUtils.java:732)
at org.apache.hadoop.ipc.Client.call(Client.java:1480)
at org.apache.hadoop.ipc.Client.call(Client.java:1413)
at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:229)
at com.sun.proxy.$Proxy83.startContainers(Unknown Source)
at org.apache.hadoop.yarn.api.impl.pb.client.ContainerManagementProtocolPBClientImpl.startContainers(ContainerManagementProtocolPBClientImpl.java:96)
at sun.reflect.GeneratedMethodAccessor14.invoke(Unknown Source)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:191)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:102)
at com.sun.proxy.$Proxy84.startContainers(Unknown Source)
at org.apache.hadoop.yarn.server.resourcemanager.amlauncher.AMLauncher.launch(AMLauncher.java:119)
at org.apache.hadoop.yarn.server.resourcemanager.amlauncher.AMLauncher.run(AMLauncher.java:250)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
at java.lang.Thread.run(Thread.java:748)
Caused by: java.net.ConnectException: Connection refused
at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method)
at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:717)
at org.apache.hadoop.net.SocketIOWithTimeout.connect(SocketIOWithTimeout.java:206)
at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:531)
at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:495)
at org.apache.hadoop.ipc.Client$Connection.setupConnection(Client.java:615)
at org.apache.hadoop.ipc.Client$Connection.setupIOstreams(Client.java:713)
at org.apache.hadoop.ipc.Client$Connection.access$2900(Client.java:376)
at org.apache.hadoop.ipc.Client.getConnection(Client.java:1529)
at org.apache.hadoop.ipc.Client.call(Client.java:1452)
... 15 more
. Failing the application.

地元から2負荷データ

地元からのハイブ与えられたデータをインポートします

FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. MetaException(message:Got exception: org.apache.hadoop.hive.metastore.api.MetaException javax.jdo.JDODataStoreException: You have an error in your SQL syntax; check the manual that corresponds to your MySQL server version for the right syntax to use near ‘OPTION SQL_SELECT_LIMIT=DEFAULT’ at line 1

2.1テストされていないソリューション

MySQLのJDBCのバージョンが高すぎる、または低すぎる、JDBCのjarパッケージを置き換えます

2.2参考資料

行1でのOPTIONのSQL_SELECT_LIMIT = DEFAULT」

公開された15元の記事 ウォンの賞賛6 ビュー1269

おすすめ

転載: blog.csdn.net/qq_39100983/article/details/90561809