hive读取文件
- 教会hive怎么读文本数据
这样直接读数据就是将文本文件上传到该数据表所在的hdfs的文件夹中
hadoop fs -put studen.dat /user/hive/数据库名/表名
hive> create table student(id int,name string)
//创建表和属性
> row formate delimited
//教会hive一行一行的读取数据
> fields terminated by ','
//以','作为id和name的分隔符
hive数据的存放点
在shell中hive的数据库和表中的数据还是存储在hdfs中,hdfs的文件是存储在你指定的tmp
文件夹中的,所以可以在hdfs中找到hive的数据。
hadoop fs -put a.txt /user/hive/warehouse/数据库名.db/表名
- 直接在hive中上传本地文件
> load data local inpath '/home/hadoop/sz.dat' into table t_sz_part partition(country='China');
>load data local inpath '/home/hadoop/sz.dat' into table t_sz_part.japan partition(country='japan')
- 清空表的内容
truncate table +"表名"
- 删除表(table)
drop table +"表名"
- 将hive变成一个服务器进行交互
cd hive/bin
./hiveserver2
- 再将一台机器变成符合hive协议的客户端
cd hive/bin
./beeline
- 再将客户端和服务端连接
bealine> !connect jdbc:hive2://localhost:10000
连接之后需要用户名和密码,默认的密码就是之前hive的用户名和密码(没有密码就回车)