SQLのハイブと継承をスパーク

内蔵ハイブ

  1. 必要なコア-site.xmlのHDFS-site.xmlの火花confディレクトリにコピーします。あなたがスパーク・パスの下metastore_dbを見つけた場合は、[、あなたは削除する必要があるときのみ、最初の開始 ]。
  2. あなたが最初のメタストアを作成するために起動すると、次のように指定する必要がspark.sql.warehouse.dir、このパラメータを
spark-shell --master spark://hadoop01:7077 --conf spark.sql.warehouse.dir=hdfs://hadoop01:9000/spark_warehouse

ただ、テーブルを作成します

scala> spark.sql("create table test(id bigint,name string)")

あなたが見ることができるときに、Hadoopクラスタを結果は以下のとおりであるところ、この表
ここに画像を挿入説明

外部Hive

  1. ハイブ-site.xmlのは、スパークconfディレクトリにコピーする必要があります。
  2. metestoreのハイブは、MySQLデータベースを使用する場合は、スパークの瓶の下のディレクトリにMySQLのJDBCドライバパッケージが必要になります。
  3. SQLクエリは、火花SQLまたは火花シェルによって行うことができます。完全かつハイブ接続。

おすすめ

転載: blog.csdn.net/drl_blogs/article/details/93109394