Spark sql hive 整合问题

1、Exception in thread "main" org.apache.spark.sql.catalyst.analysis.NoSuchDatabaseException: Database 'portrait' not found;
    at org.apache.spark.sql.catalyst.catalog.SessionCatalog.org$apache$spark$sql$catalyst$catalog$SessionCatalog$$requireDbExists(SessionCatalog.scala:121)
    at org.apache.spark.sql.catalyst.catalog.SessionCatalog.getTableMetadata(SessionCatalog.scala:266)
    at org.apache.spark.sql.execution.command.LoadDataCommand.run(tables.scala:242)

--在使用spark sql 时,出现这个问题。

1、确定自己的远程电脑上有hive 库 portrait。

2、查看sparkSession 初始化时,是否启动enableHiveSupport(),项目的resouces 文件下copy hive-site.xml

一般到这里,问题是可以解决的,如果还没有解决,查看spark sql 的版本,和安装的 hive版本是否相同。

use hivehadoop01;
select * from VERSION;

清除本地生成metasotre_db 及 spark-warehouse 目录。重新生成即可。解决问题。

发布了61 篇原创文章 · 获赞 1 · 访问量 640

猜你喜欢

转载自blog.csdn.net/u012842247/article/details/103869753