HBase2 java Api接口说明和代码实现、支持kerberos认证

说明

本博文主要介绍hbase2 (版本1和2接口略有不同)版本java API相关操作,主要涉及接口介绍和命名空间、表、数据操作。
hbase jar包使用log4j日志系统,未找到切换方式,建议不要改用logback。

接口介绍

拦截器

  • CompareOperator.LESS 匹配小宇设定值的值
  • CompareOperator.LESS_OR_EQUAL 匹配小宇或等于设定值的值
  • CompareOperator.EQUAL 匹配等于设定值的值
  • CompareOperator.NOT_EQUAL 匹配与设定值不相等的值
  • CompareOperator.GREATER_OR_EQUAL 匹配大于或等于设定值的值
  • CompareOperator.GREATER 匹配大于设定值的值 CompareOperator.NO_OP 排除一切值

比较器种类

  • RowFilter :基于行键来过滤数据;
  • FamilyFilterr :基于列族来过滤数据;
  • QualifierFilterr :基于列限定符(列名)来过滤数据;
  • ValueFilterr :基于单元格 (cell) 的值来过滤数据;
  • DependentColumnFilter :指定一个参考列来过滤其他列的过滤器,过滤的原则是基于参考列的时间戳来进行筛选 。

比较器

  • BinaryComparator 使用Bytes.compareTo()比较当前值与阈值
  • BinaryPrefixComparator 与上面类似,但是是从左端开始前缀匹配
  • NullComparator 不做匹配,只判断当前值是不是null
  • BitComparator 通过BitwiseOp类提供的按位与(AND)、或(OR)、异或(XOR)操作执行位级比较 ,只能用EQUAL和NOT_EQUAL
  • RegexStringComparator 根据一个正则表达式,在实例化这个比较器的时候去匹配表中的数据 ,只能用* EQUAL和NOT_EQUAL
  • SubStringComparator 把阈值和表中数据当做String实例,同时通过contains()操作匹配字符串,只能用EQUAL和NOT_EQUAL

专用过滤器

  • 单列列值过滤器 (SingleColumnValueFilter)
  • 单列列值排除器 (SingleColumnValueExcludeFilter)
  • 行键前缀过滤器 (PrefixFilter)
  • 列名前缀过滤器 (ColumnPrefixFilter)
  • 分页过滤器 (PageFilter)
  • 时间戳过滤器 (TimestampsFilter)
  • 首次行键过滤器 (FirstKeyOnlyFilter)

包装过滤器

  • SkipFilter过滤器,遇到需要过滤keyvalue实例时,拓张过滤整行数据
  • WhileMatchFilter过滤器 遇到一个需要过滤的 KeyValue 实例时,WhileMatchFilter 则结束本次扫描,返回已经扫描到的结果
  • FilterList 过滤器类组合,多种类型过滤器组合。

java代码

maven导包

  • 日志接口框架使用slf4j,这里去除commons-logging。
	<!-- hbase客户端 -->
	<dependency>
	    <groupId>org.apache.hbase</groupId>
	    <artifactId>hbase-client</artifactId>
	    <version>2.0.2</version>
	    <!--剔除commons-logging-->
	    <exclusions>
	        <exclusion>
	        	<groupId>commons-logging</groupId>
	            <artifactId>commons-logging</artifactId>
            </exclusion>
         </exclusions>
	</dependency>

java代码

  • 实现对hbase库数据的增删改查,支持kerberos认证,为避免复杂参数设置,这里直接引入hadoop和hbase配置文件。
import java.io.IOException;
import java.util.ArrayList;
import java.util.List;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.CompareOperator;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.Connection;
import org.apache.hadoop.hbase.client.ConnectionFactory;
import org.apache.hadoop.hbase.client.Get;
import org.apache.hadoop.hbase.client.HBaseAdmin;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.client.ResultScanner;
import org.apache.hadoop.hbase.client.Scan;
import org.apache.hadoop.hbase.client.Table;
import org.apache.hadoop.hbase.filter.Filter;
import org.apache.hadoop.hbase.filter.RowFilter;
import org.apache.hadoop.hbase.filter.SubstringComparator;
import org.apache.hadoop.hbase.util.Bytes;
import org.apache.hadoop.security.UserGroupInformation;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;

public final class HbaseUtil {
    
    
	
	private static Logger log= LoggerFactory.getLogger(HbaseUtil.class);
	
	private Connection connection;
	
	public HbaseUtil() throws IOException {
    
    
		Configuration conf = HBaseConfiguration.create();
		conf.addResource(new Path(ConfigUtil.hbaseFile));
		conf.addResource(new Path(ConfigUtil.coreFile));
		conf.addResource(new Path(ConfigUtil.hdfsFile));
		
		if(ConfigUtil.kerberos==1) {
    
    
			System.setProperty("java.security.krb5.conf", "/etc/krb5.conf");
			
			UserGroupInformation.setConfiguration(conf);
			UserGroupInformation.loginUserFromKeytab(ConfigUtil.kerberosUser,ConfigUtil.kerberosFile);
			HBaseAdmin.available(conf);
		}
		
		this.connection=ConnectionFactory.createConnection(conf);
	}
	
	
	
	/**
	 * 范围查询
	 * @param tableName 表名
	 * @param startRowkey 开始rowkey
	 * @param endRowkey 结束rowkey不查询
	 * @return
	 */
	public List<String> getData(String tableName,String startRowkey,String endRowkey){
    
    
		
		log.info("Search Table {} ,Startrowkey:{} ,Endrowkey:{}",tableName,startRowkey,endRowkey);
		List<String> dataList=new ArrayList<>();
		ResultScanner resultList = null;
		String rowkey;
		
		String filterString=startRowkey.substring(4);
		try {
    
    
			Table tableModel=connection.getTable(TableName.valueOf(tableName));
			
			Scan scan = new Scan();
			
			//添加start和end
			scan.withStartRow(Bytes.toBytes(startRowkey));
			scan.withStopRow(Bytes.toBytes(endRowkey));
			scan.addColumn(Bytes.toBytes(ConfigUtil.familyName), Bytes.toBytes(ConfigUtil.cloumnName));
	        
			resultList = tableModel.getScanner(scan);
			if(resultList!=null) {
    
    
				for (Result result : resultList) {
    
    
          //TODO 添加rowkey规范验证

					rowkey = Bytes.toString(result.getValue(Bytes.toBytes(ConfigUtil.familyName), Bytes.toBytes(ConfigUtil.cloumnName)));
					if(StringUtil.isNotEmpty(rowkey)) {
    
    
						dataList.add(rowkey);
					}
				}
			}
			
	        tableModel.close();
			
		} catch (Exception e) {
    
    
			log.error(e.toString(),e);
		}
		return dataList;
	}
	
	
	/**
	 * 根据rowkey批量查询
	 * @param tableName 表名
	 * @param rowkeyList rowkey列表
	 * @return
	 */
	public List<String> getDataList(String tableName,List<String> rowkeyList){
    
    
		
		log.info("Search Table {} ,rowkeyList:{} ",tableName,JsonUtil.toJson(rowkeyList));
		
		List<String> dataList=new ArrayList<>();
		try {
    
    
			Table tableModel=connection.getTable(TableName.valueOf(tableName));
			
			
			List<Get> getList=new ArrayList<>();
			for(String rowkey:rowkeyList) {
    
    
				getList.add(new Get(Bytes.toBytes(rowkey)));
			}
			
			//查询
			Result[] resultList=tableModel.get(getList);
			
			//存储数据
			if(resultList!=null&&resultList.length>0) {
    
    
				Cell[] cellList;
				for(Result result:resultList) {
    
    
					cellList=result.rawCells();
					for(Cell cell:cellList) {
    
    
						dataList.add(Bytes.toString(cell.getValueArray()));
					}
				}
			}
			
	        tableModel.close();
			
		} catch (Exception e) {
    
    
			log.error(e.toString(),e);
		}
		return dataList;
	}
	
	/**
	 * 创建表
	 * @param tableName
	 */
	public boolean createTable(String tableName){
    
    
		try {
    
    
			//判断数据库是否存在
			Admin admin=this.connection.getAdmin();
			
			NamespaceDescriptor[] namespace=admin.listNamespaceDescriptors();
			int state=0;
			
			//获取命名空间
			if(namespace.length>0) {
    
    
				for(NamespaceDescriptor name:namespace){
    
    
					if(name.getName().equals(ConfigUtil.dataName)){
    
    
						state=1;
					}
				}
			}
			
			//创建命名空间
			if(state==0){
    
    
				log.info("Create NameSpace {}",ConfigUtil.dataName);
				admin.createNamespace(NamespaceDescriptor.create(ConfigUtil.dataName).build());
			}
			
			TableName table= TableName.valueOf(ConfigUtil.dataName+":"+tableName);
			//创建表
			if(admin.tableExists(table)){
    
    
				log.info("{} tables Exists!",tableName);
				
			}else{
    
    
				log.info("Create Table {}",tableName);
	            //表描述器构造器
	            TableDescriptorBuilder  tdb  =TableDescriptorBuilder.newBuilder(table);
	            //列族描述起构造器
	            ColumnFamilyDescriptorBuilder cdb =  ColumnFamilyDescriptorBuilder.newBuilder(Bytes.toBytes(ConfigUtil.familyName));
	            //存储时间
	            cdb.setTimeToLive(ConfigUtil.saveTime*24*60*60);
	            //获得列描述起
	            ColumnFamilyDescriptor  cfd = cdb.build();
	            //添加列族
	            tdb.setColumnFamily(cfd);
	            //获得表描述器
	            TableDescriptor td = tdb.build();
	            //创建表
	            admin.createTable(td);

				log.info("{} Table Create Success!",tableName);
			}
			return true;
		} catch (Exception e) {
    
    
			log.error(e.toString(),e);
		}
		return false;
	}
	
	/**
	 * 判断表是否存在
	 * @param tableName
	 * @return
	 */
	public boolean getTableStatus(String tableName){
    
    
		try {
    
    
			Admin admin=this.connection.getAdmin();
			return admin.tableExists(TableName.valueOf(ConfigUtil.dataName+":"+tableName));
			
		} catch (Exception e) {
    
    
			log.error(e.toString(),e);
		}
		return false;
	}
	
	/**
	 * 删除表
	 */
	public boolean delTable(String tableName){
    
    
		try {
    
    
			TableName table=TableName.valueOf(ConfigUtil.dataName+":"+tableName);
			Admin admin=this.connection.getAdmin();
			if(admin.tableExists(table)){
    
    
				admin.disableTable(table);
				admin.deleteTable(table);
				log.info("Delete {} Success!",tableName);
			}else{
    
    
				log.info("No Found Table:{}",tableName);
			}
			
			return true;
		} catch (Exception e) {
    
    
			log.error(e.toString(),e);
		}
		return false;
	}
	
	/**
	 * 添加数据
	 * @param tableName
	 * @param data
	 */
	public void addData(String tableName,Map<String,String> data) {
    
    
		try {
    
    
			Table tableModel=connection.getTable(TableName.valueOf(ConfigUtil.dataName+":"+tableName));
			
			List<Put> puts = new ArrayList<>();
			
			Put put;
			for(Map.Entry<String,String> entry:data.entrySet()) {
    
    
				put= new Put(Bytes.toBytes(entry.getKey()));
		        put.addColumn(Bytes.toBytes(ConfigUtil.familyName),Bytes.toBytes(ConfigUtil.cloumnName), Bytes.toBytes(entry.getValue()));
		        puts.add(put);
			}

	        tableModel.put(puts);
	        tableModel.close();
			
		} catch (Exception e) {
    
    
			log.error(e.toString(),e);
		}
	}
	
	
	/**
	 * 关闭连接
	 */
	public void close() {
    
    
		try {
    
    
			this.connection.close();
		} catch (IOException e) {
    
    
			log.error(e.toString(),e);
		}
	}
}

总结

实际使用过程中发现,hbase API正则过滤器不能实现预设的规则过滤结果,java util引用正则过滤可以,hbase引擎失败,建议scan后,进行二次代码逻辑处理,或直接代码逻辑处理。

猜你喜欢

转载自blog.csdn.net/qq_22973811/article/details/113684514