Il existe de nombreuses façons de lire les données hbase avec spark.Aujourd'hui, j'ai implémenté une démo simple en utilisant la méthode intégrée newAPIHadoopRDD de spark.Le code est très simple et aucun commentaire n'est ajouté.
Pour l'écriture Spark sur hbase, vous pouvez consulter les deux articles précédents https://blog.csdn.net/xianpanjia4616/article/details/85301998 , https://blog.csdn.net/xianpanjia4616/article/details/80738961
package hbase
import org.apache.hadoop.hbase.HBaseConfiguration
import org.apache.hadoop.hbase.mapreduce.TableInputFormat
import org.apache.hadoop.hbase.util.Bytes
import org.apache.log4j.{Level, Logger}
import util.PropertiesScalaUtils
import org.apache.spark.sql.SparkSession
/**
* spark读取hbase的数据
*/
object ReadHbase {
def main(args: Array[String]): Unit = {
Logger.getLogger("org.apache.spark").setLevel(Level.WARN)
Logger.getLogger("org.apache.hadoop").setLevel(Level.WARN)
Logger.getLogger("org.eclipse