spark连接jdbc,连接mysql

1 最直接的方式

scala> val jdbcDF = spark.read.format("jdbc")

.option("url", "jdbc:mysql://hadoop1:3306/rdd")-------mysql 接口和库名

.option("dbtable", "rddtable")-----两张表名

.option("user", "root")----登陆的权限和用户名,照着写即可

.option("password", "cc123456")----登陆密码

.load()
结果:

jdbcDF: org.apache.spark.sql.DataFrame = [id: int, name: string]

准备工作是你的有要连接mysql的库名,表名,并且要准备好数据。

2)我们连起来执行一下啊

scala> val jdbcDF = spark.read.format("jdbc").option("url", "jdbc:mysql://hadoop1:3306/rdd").option("dbtable", "rddtable").option("user", "root").option("password", "cc123456").load()
jdbcDF: org.apache.spark.sql.DataFrame = [id: int, name: string]

3)我们做一下查询,看看结果如何

scala> jdbcDF.show
+---+----+
| id|name|
+---+----+
| 1|adsg|
| 2|sdaf|
| 23| sdf|
+---+----+

猜你喜欢

转载自www.cnblogs.com/markecc121/p/11643500.html