配置Tableau Desktop连接SparkSQL

https://blog.csdn.net/Java_0605/article/details/51098879

spark odbc license下载
https://www.simba.com/product/spark-drivers-with-sql-connector/
C:\Program Files\Simba Spark Driver\lib\SimbaApacheSparkODBCDriver.lic

配置Tableau Desktop连接SparkSQL 
1. 前期准备 
a、在window上安装Tableau Desktop(window的版本必须是win7或以上),同时上官网去下载Tableau的SparkSQL的ODBC驱动(SimbaSparkODBC64.msi)并安装在window上 
b、将Spark,hive和hadoop安装好 
2. 启动spark的ThriftServer 
a、先启动启动hive metastore 
nohup hive –service metastore & 
b、启动ThriftServer 
将 [Math Processing Error]HIVEHOME/conf/hive−site.xml复制到SPARK_HOME/conf/ 
将 [Math Processing Error]HIVEHOME/lib/mysql−connector−java−5.1.12.jarcopy复制到SPARK_HOME/lib/ 
到$SPARK_HOME/sbin目录下执行 
./ start-thriftserver.sh –hiveconf hive.server2.thrift.port=10000 
3. 在Tableau Desktop的window上配置SparkSQL的ODBC驱动 
a、在控制面板的管理工具里面,有个数据源(ODBC)打开,如下图-a,点击添加,可以看到安装好的simba spark odbc driver驱动 
 
图-a 
b、进入配置spark服务器的信息,把图-b圈起来的信息填上,按完成 
 
图-b 
c、在Tableau Desktop里配置连接数据源 
如图-c,配置的信息和数据源(ODBC)的信息是一样的 
 
图-c 
最后进入tableau,刷下选择架构和表,就可以看到hive数据仓库里面的表。
--------------------- 
作者:David-123 
来源:CSDN 
原文:https://blog.csdn.net/Java_0605/article/details/51098879 
版权声明:本文为博主原创文章,转载请附上博文链接!

猜你喜欢

转载自blog.csdn.net/hellojoy/article/details/85711893