版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
Sqoop安装部署
前提
安装Sqoop的前提是已经具备Java和Hadoop的环境。
安装
sqoop-1.4.6
下载地址:
http://mirrors.hust.edu.cn/apache/sqoop/1.4.6/
下载完直接解压到你喜欢的目录下即可
部署
1、 修改配置文件,(sqoop/conf)
(1) 重命名配置文件
[root @master conf]# mv sqoop-env-template.sh sqoop-env.sh
(2)、修改配置文件 sqoop-env.sh
主要配置hadoop与hive的,其他可不配(若其他组件已安装最好配上)
[root @master conf]# sqoop-env.sh
export HADOOP_COMMON_HOME=/usr/locat/src/hadoop-2.7.2
export HADOOP_MAPRED_HOME=/usr/locat/src/hadoop-2.7.2
export HIVE_HOME=/usr/locat/src/hive
export ZOOKEEPER_HOME=/usr/locat/src/zookeeper-3.4.10
export ZOOCFGDIR=/usr/locat/src/zookeeper-3.4.10
export HBASE_HOME=/usr/locat/src/hbase
(3)、拷贝JDBC驱动
[root @master sqoop]# cp mysql-connector-java-5.1.27-bin.jar /usr/locat/src/sqoop/lib/
(4)、 验证Sqoop
我们可以通过某一个command来验证sqoop配置是否正确:
[root @master sqoop]# bin/sqoop help
出现一些Warning警告(警告信息已省略),并伴随着帮助命令的输出:
Available commands:
codegen Generate code to interact with database records
create-hive-table Import a table definition into Hive
eval Evaluate a SQL statement and display the results
export Export an HDFS directory to a database table
help List available commands
import Import a table from a database to HDFS
import-all-tables Import tables from a database to HDFS
import-mainframe Import datasets from a mainframe server to HDFS
job Work with saved jobs
list-databases List available databases on a server
list-tables List available tables in a database
merge Merge results of incremental imports
metastore Run a standalone Sqoop metastore
version Display version information
(5)、 测试Sqoop是否能够成功连接数据库
[root @master sqoop]# bin/sqoop list-databases --connect jdbc:mysql://master:3306/ --username root --password 000000
出现如下输出:
information_schema
metastore
mysql
performance_schema