Spark lit les données hbase (méthode newAPIHadoopRDD)

Il existe de nombreuses façons de lire les données hbase avec spark.Aujourd'hui, j'ai implémenté une démo simple en utilisant la méthode intégrée newAPIHadoopRDD de spark.Le code est très simple et aucun commentaire n'est ajouté.

Pour l'écriture Spark sur hbase, vous pouvez consulter les deux articles précédents  https://blog.csdn.net/xianpanjia4616/article/details/85301998 , https://blog.csdn.net/xianpanjia4616/article/details/80738961

package hbase

import org.apache.hadoop.hbase.HBaseConfiguration
import org.apache.hadoop.hbase.mapreduce.TableInputFormat
import org.apache.hadoop.hbase.util.Bytes
import org.apache.log4j.{Level, Logger}
import util.PropertiesScalaUtils
import org.apache.spark.sql.SparkSession

/**
  * spark读取hbase的数据
  */
object ReadHbase {
  def main(args: Array[String]): Unit = {
    Logger.getLogger("org.apache.spark").setLevel(Level.WARN)
    Logger.getLogger("org.apache.hadoop").setLevel(Level.WARN)
    Logger.getLogger("org.eclipse

Je suppose que tu aimes

Origine blog.csdn.net/xianpanjia4616/article/details/89157616
conseillé
Classement