https://blog.csdn.net/Java_0605/article/details/51098879
spark odbc license下载
https://www.simba.com/product/spark-drivers-with-sql-connector/
C:\Program Files\Simba Spark Driver\lib\SimbaApacheSparkODBCDriver.lic
配置Tableau Desktop连接SparkSQL
1. 前期准备
a、在window上安装Tableau Desktop(window的版本必须是win7或以上),同时上官网去下载Tableau的SparkSQL的ODBC驱动(SimbaSparkODBC64.msi)并安装在window上
b、将Spark,hive和hadoop安装好
2. 启动spark的ThriftServer
a、先启动启动hive metastore
nohup hive –service metastore &
b、启动ThriftServer
将 [Math Processing Error]HIVEHOME/conf/hive−site.xml复制到SPARK_HOME/conf/
将 [Math Processing Error]HIVEHOME/lib/mysql−connector−java−5.1.12.jarcopy复制到SPARK_HOME/lib/
到$SPARK_HOME/sbin目录下执行
./ start-thriftserver.sh –hiveconf hive.server2.thrift.port=10000
3. 在Tableau Desktop的window上配置SparkSQL的ODBC驱动
a、在控制面板的管理工具里面,有个数据源(ODBC)打开,如下图-a,点击添加,可以看到安装好的simba spark odbc driver驱动
图-a
b、进入配置spark服务器的信息,把图-b圈起来的信息填上,按完成
图-b
c、在Tableau Desktop里配置连接数据源
如图-c,配置的信息和数据源(ODBC)的信息是一样的
图-c
最后进入tableau,刷下选择架构和表,就可以看到hive数据仓库里面的表。
---------------------
作者:David-123
来源:CSDN
原文:https://blog.csdn.net/Java_0605/article/details/51098879
版权声明:本文为博主原创文章,转载请附上博文链接!