hive2ピット

ログインの問題:

ユーザー:XXXは偽装ルートに許可されていません
!真っすぐ>接続でのJDBC:hive2:// hdp02:10000ルートルート。
JDBCへの接続:hive2:// hdp02:10000
20/03/24 1時50分19秒[メイン]:jdbc.HiveConnectionをWARN:hdp02への接続に失敗しました:10000
エラー:JDBCウリで開くことができませんでしたクライアント輸送します。jdbc: hive2:// hdp02:10000:java.lang.RuntimeException:オープン新しいセッションに失敗しましたorg.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.authorize.AuthorizationException):ユーザー:ルートはに許可されていません偽装ルート(状態= 08S01、コード= 0)

ソリューション:

在のHadoop的配置文件コア- site.xmlの中添加如下属性:
 <プロパティ> 
        <名前> hadoop.proxyuser.root.hosts </名前> 
        <値> * </ value>の
</ property>の
<プロパティ> 
        <名前> hadoop.proxyuser.root.groups </名前> 
        <値> * </ value>の
</ property>の

 

xxxは上記hadoop.proxyuser.xxx.hostsでhadoop.proxyuser.xxx.groupsを設定し、設定されたルート(つまり、ユーザーの表示エラー・ログ:XXXなぜなぜセット)です。「*」スーパーエージェント「XXX」操作のHadoopユーザー、ユーザーグループ、およびホストで表すことができます。再起動HDFS。そのような変更の理由:主な理由は、上のHadoopシステムは、ユーザが直接、実際のHadoop層を転写することができないように、Hadoopの偽装セキュリティメカニズムの導入であるが、薬剤がHadoopの上で操作を実行することにより、実際に、スーパーユーザエージェントに渡します自由に動作する任意のクライアントを回避するためのHadoopの

質問2:

スパークバージョンへのハイブ誤ったバージョンは、特に、間違ったバージョン場合は、ハイブのエラーを開始した後、、ハイブ内のソースコードをダウンロードし、彼のpom.xmlファイルの内部のスパークバージョンを検索することができ、対応するバージョンを厳格な要件があります。次のように特定のエラーは、次のとおりです。

例外を除いて、スパークタスクの実行に失敗しました「org.apache.hadoop.hive.ql.metadata.HiveException(スパーククライアントの作成に失敗しました。)」FAILED:実行エラー、リターンコード1をorg.apache.hadoop.hive.qlから。 exec.spark.SparkTask

ハイブバージョン スパークバージョン
3.0.xの 2.3.0
2.3.x以降 2.0.0
2.2.xの 1.6.0
2.1.xの 1.6.0
2.0.xの 1.5.0
1.2.xの 1.3.1
1.1.xの 1.2.0

 

おすすめ

転載: www.cnblogs.com/yaoss/p/12577765.html