大数据入门(25)sqoop快速入门

版权声明: https://blog.csdn.net/u011518709/article/details/84837872
sqoop的使用
----sqoop是一个用来在hadoop体系和关系型数据库之间进行数据互导的工具
----实质就是将导入导出命令转换成mapreduce程序来实现

sqoop安装:安装在一台节点上就可以了。

1.上传sqoop

2.安装和配置
(1)修改配置文件  sqoop-env.sh
		#Set path to where bin/hadoop is available
		export HADOOP_COMMON_HOME=/home/hadoop/app/hadoop-2.4.1
		
		#Set path to where hadoop-*-core.jar is available
		export HADOOP_MAPRED_HOME=/home/hadoop/app/hadoop-2.4.1
		
		#set the path to where bin/hbase is available
		export HBASE_HOME=/home/hadoop/app/hbase-0.96.2-hadoop2
		
		#Set the path to where bin/hive is available
		export HIVE_HOME=/home/hadoop/app/hive-0.12.0-bin
		
		#Set the path for where zookeper config dir is
		export ZOOCFGDIR=/home/hadoop/app/zookeeper-3.4.5/conf


	(2)在添加sqoop到环境变量
	
	######将数据库连接驱动拷贝到$SQOOP_HOME/lib里


3.使用
	第一类:数据库中的数据导入到HDFS上
		sqoop import 
		--connect jdbc:mysql://192.168.1.10:3306/itcast 
		--username root --password 123  
		--table trade_detail 
		--columns 'id, account, income, expenses'
		
		指定输出路径、指定数据分隔符
		sqoop import 
		--connect jdbc:mysql://192.168.1.10:3306/itcast 
		--username root --password 123  
		##要导入数据的表
		--table trade_detail 
		##数据导入hdfs后所存放的目录
		--target-dir '/sqoop/td' 
		##导入的数据字段之间的分隔符
		--fields-terminated-by '\t'
		
		指定Map数量 -m 
		sqoop import 
		--connect jdbc:mysql://192.168.1.10:3306/itcast 
		--username root --password 123  
		--table trade_detail 
		--target-dir '/sqoop/td1' 
		--fields-terminated-by '\t'
		##指定做导入处理时的map 任务数 
		-m 2

		增加where条件, 注意:条件必须用引号引起来
		sqoop import 
		--connect jdbc:mysql://192.168.1.10:3306/itcast 
		--username root --password 123  
		--table trade_detail 
		--where 'id>3' 
		--target-dir '/sqoop/td2' 

		增加query语句(使用 \ 将语句换行)
		sqoop import 
		--connect jdbc:mysql://192.168.1.10:3306/itcast 
		--username root --password 123 
		--query 'SELECT * FROM trade_detail where id > 2 AND $CONDITIONS' 
		--split-by trade_detail.id 
		--target-dir '/sqoop/td3'
		
		注意:如果使用--query这个命令的时候,需要注意的是where后面的参数,AND $CONDITIONS这个参数必须加上
		而且存在单引号与双引号的区别,如果--query后面使用的是双引号,那么需要在$CONDITIONS前加上\即\$CONDITIONS
		如果设置map数量为1个时即-m 1,不用加上--split-by ${tablename.column},否则需要加上
		
	第二类:将HDFS上的文件数据导出到数据库的表里面去
		sqoop export 
		--connect jdbc:mysql://192.168.8.120:3306/itcast 
		--username root --password 123 
		##你要导出的数据所在的目录
		--export-dir '/td3' 
		##你要导往的目标关系表
		--table td_bak 
		-m 1 
		##你要导出的文件的字段分隔符
		--fields-termianted-by '\t'
	
4.配置mysql远程连接
	GRANT ALL PRIVILEGES ON itcast.* TO 'root'@'192.168.1.201' IDENTIFIED BY '123' WITH GRANT OPTION;
	FLUSH PRIVILEGES; 
	
	GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY '123' WITH GRANT OPTION;
	FLUSH PRIVILEGES
	
	
	
	
	sqoop export --connect jdbc:mysql://hbase01:3306/sca --username sca --password 123456 \
--table sca_rule \
--export-dir /sca/topkurls \
--columns url \
--input-fields-terminated-by '\t'



***********************************demo***********************************************************
sqoop export --connect jdbc:mysql://weekend01:3306/urlrule --username root --password root \
--table urlinfo \
--export-dir /llyy/topkurl3/ \
--columns url \
--input-fields-terminated-by '\t'

猜你喜欢

转载自blog.csdn.net/u011518709/article/details/84837872