[ハイブ]ハイブインストール試験下centos7

はじめに:インストールハイブまたはいくつかの問題を満たしていますが、幸い、原点よりのHadoop-3.2.0簡単なインストールの設定を解決してきました。

本体:

1、下载安装ハイブ并:
タール-zxvfのapache-ハイブ-3.1.2-bin.tar.gz

2、查看ハイブ安装情况:
[ルート@のhadoop01のHadoopの]#のCDのapache-ハイブ-3.1.2-binの
[ルート@ hadoop01アパッチ・ハイブ-3.1.2ビン]#LSの-l
合計56
drwxr-XR-X。3ルートルート157 09月17日23:30ビン
drwxr-XR-X。2ルートルート4096 9月17日午前23時30分バイナリパッケージライセンス
drwxr-XR-X。2ルートルート4096 9月17日午後11時30 CONF
drwxr-XR-X。4ルートのルート34 9月17日午後11時30例
drwxr-XR-X。7ルートルート68 9月17日23:30 hcatalog
drwxr-XR-X。2ルートルート44 09月17日23:30 JDBC
drwxr-XR-X。4ルートルート12288 9月17日23:30のlib
-rw-rを- r--の。1つのルートルート20798 8月23日午前5時45 LICENSE
-rw-rを- r--の。1ルートルート230 8月23日午前5時45 NOTICE
-R&LT -rw - r--の1ルート23は、ルート2469年8月05:47は、Release_Notes.txtある
。XR-X-35をdrwxr 4ルート9月17日23:30スクリプトのルート
[hadoop01 Apacheのルート3.1.2-ハイブ@ビン]#

3は、設定ハイブ:
ハイブ-site.xmlのを見つけるために、confフォルダを入力して、コンテンツを追加
hadoop01のApache-ハイブ-3.1.2-ビン]#のCD confの@ [ルート
[ルート@のhadoop01 confに]#のgeditのハイブサイト.xmlファイル
のダウンロードのmysql-コネクタ-javaの-8.0.16.jar、およびApache-ハイブ-3.1.2-bin /ディレクトリの下に/ libにに追加

ハイブ-site.xmlの需要添加的内容:
 <?XMLバージョン= "1.0"エンコード= "UTF-8"スタンドアロン= "なし" ?> 
<?XML-スタイルシートタイプ= "テキスト/ XSL"のhref = "configuration.xsl" >?
< 設定> 
        < プロパティ> 
                < 名前> javax.jdo.option.ConnectionURL </ 名前> 
                < >はjdbc:mysqlの:// localhostを: 3306 / hahive </ >  <! - mysqlのハイブ住所- > 
        </ プロパティ> 

        < プロパティ> 
                <</ 名前>  <! - mysqlの的驱动mysql8.0以上更改- > 
                < > com.mysql.cj.jdbc.Driver </ > 
        </ プロパティ> 

        < プロパティ> 
                < 名前> javax.jdo.option .ConnectionUserName </ 名前> <! - 用户名- > 
                < >ユーザー</ > 
        </ プロパティ> 

        < プロパティ> 
                < 名前> javax.jdo.option。ConnectionPassword </名前> <! - 密码- > 
                < > User_123456 </ > 
        </ プロパティ> 

        < プロパティ> 
                < 名前> hive.metastore.schema.verification </ 名前> 
                < ></ > 
        </ プロパティ> 
</ 設定>

 



4、設定ハイブパス環境変数パラメータ:
#1 geditの/home/hadoop/.bash_profile [hadoop01のApache-ハイブ-3.1.2-binの@ルート]は、
次の行を追加します。

#hive 
輸出HIVE_HOME = /ホーム/ Hadoopの/ apacheの-ハイブ-3.1.2-binの
輸出PATH = $ PATHに:$ HIVE_HOME / binに

 


[hadoop01アパッチ-hive- @ルート - #ビン/ schematool -dbTypeのMySQL -initSchema 3.1.2ビン] 初期のMySQL

次いで5、及び(ハイブを開始する前に、なおまたはMySQLとのHadoopを起動するとエラーになる)ハイブを開始:
[ルート@のhadoop01のHadoop-3.2.0]#ハイブ-ハイブ開始

初めて次のように、エラープロンプトを起動に失敗しました:

これは:(/home/hadoop/hadoop-3.2.0/bin:/home/hadoop/hadoop-3.2.0/sbin:/usr/java/jdk1.8.0_11//bin:/usr/local/でいないのHBaseビン:は/ usr / binに:は/ usr / local / sbinにします。/ usr / sbinに:/home/hadoop/.local/bin:/ホーム/ Hadoopの/ binに:/home/hadoop/apache-ant-1.10.6/bin :/home/hadoop/apache-hive-3.1.2-bin/bin)
SLF4J:クラスパスには、複数のSLF4Jバインディングが含まれています。
SLF4J:実測に結合[jarファイル:ファイル:!/home/hadoop/apache-hive-3.1.2-bin/lib/log4j-slf4j-impl-2.10.0.jar /org/slf4j/impl/StaticLoggerBinder.class] 
SLF4J:実測に結合[jarファイル:ファイル:!/home/hadoop/hadoop-3.2.0/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar /org/slf4j/impl/StaticLoggerBinder.class] 
SLF4J:説明はhttp://www.slf4j.org/codes.html#multiple_bindingsを参照してください。
SLF4J:実際の結合は、タイプのものである[org.apache.logging.slf4j.Log4jLoggerFactory]
ハイブセッションID = c9130295-0ed4-417e-9f08-03b4531b7d56
 
ログは、瓶の中の設定を使用して初期化:ファイル:!/home/hadoop/apache-hive-3.1.2-bin/lib/hive-common-3.1.2.jar / hive-log4j2.properties非同期:真の
スレッドの例外「メイン」java.lang.RuntimeException:org.apache.hadoop.hdfs.server.namenode.SafeModeException:ディレクトリを/ tmp /ハイブを作成できません。Nameノードは、セーフモードです。
18のブロック0ニーズ追加の報告ブロックは、総ブロック19のしきい値0.9990に到達するために
、ライブdatanodes 2の数がしきい値に達した後、0 Safeモードが自動的にオフになります最小数に達しています。NamenodeHostName:hadoop01 
    org.apache.hadoop.hdfs.server.namenode.FSNamesystem.newSafemodeExceptionで(FSNamesystem.java:1469)
    org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkNameNodeSafeMode(FSNamesystem.java:1456)で 
    org.apache.hadoop.ipc.RPC $サーバーで。コール(RPC.java:1025)
    org.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirs(FSNamesystem.java:3214)で
    org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.mkdirs(NameNodeRpcServer.java:1127)で
    org.apacheで.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.mkdirs(ClientNamenodeProtocolServerSideTranslatorPB.java:713)
    org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos $ ClientNamenodeProtocol $ 2.callBlockingMethod(ClientNamenodeProtocolProtos.java)で
    org.apache.hadoop.ipcで。 ProtobufRpcEngine $サーバー$ ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:524)
    org.apache.hadoop.ipc.Server $ RpcCall.run(Server.java:876)で
    org.apache.hadoop.ipc.Server $ RpcCall.runで( Server.java:822) 
    java.security.AccessController.doPrivileged(ネイティブメソッド)で
    javax.security.auth.Subject.doAsで(Subject.java:422)
    org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1730)で
    org.apache.hadoop.ipc.Server $ Handler.run(Server.java:2682)で

    org.apache.hadoop.hive.qlで.session.SessionState.start(SessionState.java:651)
    org.apache.hadoop.hive.ql.session.SessionState.beginStart(SessionState.java:591)で
    org.apache.hadoop.hive.cli.CliDriver.runで(CliDriver.java:747)
    org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:683)で
    sun.reflect.NativeMethodAccessorImpl.invoke0で(ネイティブメソッド) 
    sun.reflect.NativeMethodAccessorImpl.invokeで(NativeMethodAccessorImpl.java:62)
    sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)で
    java.lang.reflect.Method.invoke(Method.java:483)で
    org.apache.hadoop.util.RunJar.runで(RunJar.java:323 )
    org.apache.hadoop.util.RunJar.main(RunJar.java:236)で
によって引き起こさ:org.apache.hadoop.hdfs.server.namenode.SafeModeException:ディレクトリを/ tmp /ハイブを作成できません。Nameノードは、セーフモードです。
18のブロック0ニーズ追加の報告ブロックは、合計ブロック19の閾値0.9990到達する 
    org.apache.hadoop.hdfsです。 server.namenode.FSNamesystem.checkNameNodeSafeMode(FSNamesystem.java:1456) 
、ライブdatanodes 2の数がしきい値に達した後、0 Safeモードが自動的にオフになります最小数に達しています。NamenodeHostName:hadoop01
    org.apache.hadoop.hdfs.server.namenode.FSNamesystem.newSafemodeException(FSNamesystem.java:1469)で
    org.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirs(FSNamesystem.java:3214)で
    org.apacheで.hadoop.hdfs.server.namenode.NameNodeRpcServer.mkdirs(NameNodeRpcServer.java:1127)
    org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.mkdirs(ClientNamenodeProtocolServerSideTranslatorPB.java:713)で
    org.apache.hadoop.hdfs.protocolで.proto.ClientNamenodeProtocolProtos $ ClientNamenodeProtocol $ 2.callBlockingMethod(ClientNamenodeProtocolProtos.java)
    org.apache.hadoop.ipc.ProtobufRpcEngine $サーバー$ ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:524)で
    org.apache.hadoop.ipc.RPC $サーバーで。コール(RPC.java:1025)
    org.apache.hadoop.ipc.Server $ RpcCall.run(Server.java:876)で
    org.apache.hadoop.ipc.Server $ RpcCall.runで( Server.java:822) 
    java.security.AccessController.doPrivileged(ネイティブメソッド)で
    javax.security.auth.Subject.doAsで(Subject.java:422)
    org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1730)で
    org.apache.hadoop.ipc.Server $ Handler.run(Server.java:2682)で

    sun.reflect.NativeConstructorAccessorImpl.newInstance0(ネイティブで方法)
    sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)で
    sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)で
    java.lang.reflect.Constructor.newInstance(Constructor.java:408)で 
    org.apache.hadoop.ipc.RemoteException.instantiateExceptionで(RemoteException.java:121)
    org.apache.hadoop.ipc.RemoteException.unwrapRemoteException(RemoteException.java:88)で
    org.apache.hadoop.hdfs.DFSClient.primitiveMkdir(DFSClient.java:2426)で
    org.apache.hadoop.hdfs.DFSClient.mkdirsで(DFSClient.java:2400)
    org.apache.hadoop.hdfs.DistributedFileSystem $ 27.doCall(DistributedFileSystem.java:1324)で
    org.apache.hadoop.hdfs.DistributedFileSystem $ 27.doCall(DistributedFileSystem.java:1321)で
    ORGで。 apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81) 
    org.apache.hadoop.hdfs.DistributedFileSystem.mkdirsInternalで(DistributedFileSystem。 Javaの:1338)
    org.apache.hadoop.hdfs.DistributedFileSystem.mkdirsで(DistributedFileSystem.java:1313)
    org.apache.hadoop.hive.ql.exec.Utilitiesで。 createDirsWithPermission(Utilities.java:3668) 
    org.apache.hadoop.hive.ql.exec.Utilities.ensurePathIsWritable(Utilities.java:4487)で
    org.apache.hadoop.hiveで.ql.session.SessionState.createRootHDFSDir(SessionState.java:760)
    org.apache.hadoop.hive.ql.session.SessionState.createSessionDirs(SessionState.java:701)で
    org.apache.hadoop.hive.ql.sessionで.SessionState.start(SessionState.java:627)
    ...もっと9 
によって引き起こさ:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.SafeModeException):作成できないディレクトリを/ tmp /ハイブ。Nameノードは、セーフモードです。
18のブロック0ニーズ追加の報告ブロックは、合計ブロック19の閾値0.9990に到達します。
ライブdatanodes 2の数がしきい値に達した後、0 Safeモードが自動的にオフになります最小数に達しています。NamenodeHostName:hadoop01 
    org.apacheで。 hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.mkdirs(ClientNamenodeProtocolServerSideTranslatorPB.java:713)
    org.apache.hadoop.hdfs.server.namenode.FSNamesystem.newSafemodeException(FSNamesystem.java:1469)で
    org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkNameNodeSafeMode(FSNamesystem.java:1456)で
    org.apacheで.hadoop.hdfs.server.namenode.FSNamesystem.mkdirs(FSNamesystem.java:3214)
    org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.mkdirs(NameNodeRpcServer.java:1127)で
    org.apache.hadoop.hdfsで.protocol.proto.ClientNamenodeProtocolProtos $ ClientNamenodeProtocol $ 2.callBlockingMethod(ClientNamenodeProtocolProtos.java)
    org.apache.hadoop.ipc.ProtobufRpcEngine $サーバー$ ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:524)で
    org.apache.hadoop.ipc.RPC $でServer.call(RPC.java:1025) 
    org.apache.hadoop.ipc.Server $ RpcCall.run(Server.java:876)で
    org.apacheで。 hadoop.ipc.Server $ RpcCall.run(Server.java:822)
    java.security.AccessController.doPrivileged(ネイティブメソッド)で
    javax.security.auth.Subject.doAs(Subject.java:422)で
    org.apacheで。 hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1730)
    org.apache.hadoop.ipc.Server $ Handler.runで(Server.java:2682)

    org.apache.hadoop.ipc.Client.getRpcResponse(クライアントで。 Javaの:1511)
    org.apache.hadoop.ipc.Client.call(Client.java:1457で) 
    org.apache.hadoop.ipc.Client.call(Client.java:1367)で
    のorg.apache.hadoop.ipc.ProtobufRpcEngine $ Invoker.invoke(ProtobufRpcEngine.java:228)
    org.apache.hadoop.ipc.ProtobufRpcEngine $ Invoker.invokeで(ProtobufRpcEngine.java:116)
    com.sun.proxyで。$ Proxy28.mkdirs(不明なソース)
    org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.mkdirsで(ClientNamenodeProtocolTranslatorPB.java:656)
    sun.reflect.NativeMethodAccessorImpl.invoke0(ネイティブメソッド)の
    日に.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
    sun.reflect.DelegatingMethodAccessorImpl.invokeで(DelegatingMethodAccessorImpl.java:43)
    java.lang.reflect.Method.invoke(Method.java:483)で 
    org.apache.hadoop.io.retry.RetryInvocationHandler $ Call.invokeで(RetryInvocationHandler.java:157) 
    org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethodで(RetryInvocationHandler.java:422)
    org.apache.hadoop.io.retry.RetryInvocationHandler $ Call.invokeMethod(RetryInvocationHandler.java:165)で
    org.apache.hadoop.io.retry.RetryInvocationHandler $ Call.invokeOnce(RetryInvocationHandler.java:95)で
    org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:359)で
    com.sun.proxyで。$ Proxy29.mkdirs(不明なソース)
    org.apache.hadoop.hdfs.DFSClient.primitiveMkdir(DFSClient.java:2424)で
    ... 20以上

 


[ルート@ hadoop01のHadoop-3.2.0] #HDFS dfsadmin -safemode休暇- 初めての起動に失敗し、Hadoopのセーフモード終了することを強制
安全なモードがオフの
[ルート@ hadoop01のHadoop-3.2.0]#ハイブを-ハイブ開始再び
これは:(/home/hadoop/hadoop-3.2.0/bin:/home/hadoop/hadoop-3.2.0/sbin:/usr/java/jdk1.8.0_11//bin:/usr/local/でいないのHBaseビン:は/ usr / binに:/ USR /ローカル/ sbinにします。/ usr / sbinに:/home/hadoop/.local/bin:/ホーム/ Hadoopの/ binに:/home/hadoop/apache-ant-1.10.6/bin :/home/hadoop/apache-hive-3.1.2-bin/bin)
SLF4J:クラスパスが複数のバインディングが含まれてSLF4J。
SLF4J:バインディング[JARで発見:ファイル:/home/hadoop/apache-hive-3.1.2-ビン/ libに/ log4jの-SLF4J-IMPL-2.10.0.jar /org/slf4j/impl/StaticLoggerBinder.class]!
SLF4J:バインディング[JARで発見:ファイル:/home/hadoop/hadoop-3.2.0/share/ Hadoopの/共通/ libに/ slf4j- log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J:説明はhttp://www.slf4j.org/codes.html#multiple_bindingsを参照してください。
SLF4J:実際の結合は、タイプのものである[org.apache.logging.slf4j.Log4jLoggerFactory]
ハイブセッションID = 2b24c91b-fc2c-4eaa-9345-cb561938ae19の

ロギングジャー構成を使用して初期化:ファイル:/home/hadoop/apache-hive-3.1 0.2-binに/ libに/ハイブ共通-3.1.2.jar非同期/hive-log4j2.properties:!真
ハイブセッションID = c8dd045f-1481〜46デシベル-9f14-c869e5a2b659
ハイブオンMRはハイブ2に廃止され、将来のバージョンでは利用できない場合があります。異なる実行エンジン(すなわち火花、TEZ)を使用して、またはハイブ1.xのリリースを使用することを検討してください。
ハイブ> -启动成功

6、在ハイブ上进行测试:
[ルート@のhadoop01のHadoop-3.2.0]#ハイブ-e 'テーブルTESTDB(ID int型、名前文字列、年齢int)を作成します;' -命令行模式、创建测试表
これは:(/home/hadoop/hadoop-3.2.0/bin:/home/hadoop/hadoop-3.2.0/sbin:/usr/java/jdk1.8.0_11//bin:/usr/local/でいないのHBaseビン:は/ usr / binに:は/ usr / local / sbinにします。/ usr / sbinに:/home/hadoop/.local/bin:/ホーム/ Hadoopの/ binに:/home/hadoop/apache-ant-1.10.6/bin :/home/hadoop/apache-hive-3.1.2-bin/bin)
SLF4J:クラスパスには、複数のSLF4Jバインディングが含まれています。
SLF4J:実測に結合[jarファイル:ファイル:!/home/hadoop/apache-hive-3.1.2-bin/lib/log4j-slf4j-impl-2.10.0.jar /org/slf4j/impl/StaticLoggerBinder.class]
SLF4J:実測に結合[jarファイル:ファイル:!/home/hadoop/hadoop-3.2.0/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar /org/slf4j/impl/StaticLoggerBinder.class]
SLF4J:説明はhttp://www.slf4j.org/codes.html#multiple_bindingsを参照してください。
SLF4J:実際の結合は、タイプのものである[org.apache.logging.slf4j.Log4jLoggerFactory]
ハイブセッションID = 3b06135e-6dbe-4e6c-bfb7-0f5891d05a82

ログ瓶内の設定使用して初期化:ファイル:!/home/hadoop/apache-hive-3.1.2-bin/lib/hive-common-3.1.2.jarを/ hive-log4j2.properties非同期:真
ハイブセッションID = 0880bc91-d322-4cdd-9e75-34287b72762a
OK
時間が取ら:1.329秒
[ルート@ hadoop01のHadoop-3.2.0]#ハイブ-e 'ショーテーブルを;' -命令行模式、查询测试表结构
た:(/home/hadoop/hadoop-3.2.0/bin:/home/hadoop/hadoop-3.2.0/sbin:/usr/java/jdk1.8.0でいないのHBase _11 //ビン:は/ usr / local / binにします。/ usr / binに:は/ usr / local / sbinにします。/ usr / sbinに:/home/hadoop/.local/bin:/ホーム/ Hadoopの/ binに:/ホーム/ Hadoopの/apache-ant-1.10.6/bin:/home/hadoop/apache-hive-3.1.2-bin/bin)
SLF4J:クラスパスには、複数のSLF4Jバインディングが含まれています。
SLF4J:実測に結合[jarファイル:ファイル:!/home/hadoop/apache-hive-3.1.2-bin/lib/log4j-slf4j-impl-2.10.0.jar /org/slf4j/impl/StaticLoggerBinder.class]
SLF4J:実測に結合[jarファイル:ファイル:!/home/hadoop/hadoop-3.2.0/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar /org/slf4j/impl/StaticLoggerBinder.class]
SLF4J:説明はhttp://www.slf4j.org/codes.html#multiple_bindingsを参照してください。
SLF4J:実際の結合は、[org.apache.logging.slf4j.Log4jLoggerFactory]型である
ハイブセッションID = cd6ead10-beb3-494e-A194-b056e3597cdaの

ファイル:/home/hadoop/apache-hive-3.1ロギングジャー構成を使用して初期化!0.2-binに/ libに/ハイブ共通-3.1.2.jar /hive-log4j2.properties非同期:真
ハイブセッションID = 89356bc9-1705-4b8f-ac0c-b37417bd5eb3
OK
ます。testdb
0.843秒、フェッチされた:時間取ら1行(S)
[ルート@ hadoop01のHadoop-3.2.0]#ハイブ-进入ハイブシェル模式
れる:(/home/hadoop/hadoop-3.2.0/binでないのHBase。 /home/hadoop/hadoop-3.2.0/sbin:/usr/java/jdk1.8.0_11//bin:/usr/local/bin:/usr/bin:/usr/local/sbin:/usr/sbin: /home/hadoop/.local/bin:/home/hadoop/bin:/home/hadoop/apache-ant-1.10.6/bin:/home/hadoop/apache-hive-3.1.2-bin/bin)
SLF4J :クラスパスには、複数のSLF4Jバインディングが含まれています。
SLF4J:実測に結合[jarファイル:ファイル:!/home/hadoop/apache-hive-3.1.2-bin/lib/log4j-slf4j-impl-2.10.0.jar /org/slf4j/impl/StaticLoggerBinder.class]
SLF4J:実測に結合[jarファイル:ファイル:!/home/hadoop/hadoop-3.2.0/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar /org/slf4j/impl/StaticLoggerBinder.class]
SLF4J:説明はhttp://www.slf4j.org/codes.html#multiple_bindingsを参照してください。
SLF4J:実際の結合は、タイプ[org.apache.logging.slf4j.Log4jLoggerFactory]である
ハイブセッションID = eb149713-714c-4ECC-8911-09b52a67586d

ロギングジャー構成を使用して初期化:ファイル:/home/hadoop/apache-hive-3.1 0.2-binに/ libに/ハイブ共通-3.1.2.jar非同期/hive-log4j2.properties:!真
ハイブセッションID = 8715e23f-12e5-4875-8372-e6805c22c765
ハイブオンMRはハイブ2に廃止され、将来のバージョンでは利用できない場合があります。異なる実行エンジン(すなわち火花、TEZ)を使用して、またはハイブ1.xのリリースを使用することを検討してください。
ハイブ>ショーテーブル。-查询表
OK
TESTDB
時間が取ら:0.557秒、フェッチされた:1行(S)
ハイブ>
注:可以按Ctrl + C退出ハイブシェル模式

おすすめ

転載: www.cnblogs.com/CQ-LQJ/p/11546418.html