Hive读取文件

hive读取文件

  • 教会hive怎么读文本数据

这样直接读数据就是将文本文件上传到该数据表所在的hdfs的文件夹中

hadoop fs -put studen.dat /user/hive/数据库名/表名
hive> create table student(id int,name string)
//创建表和属性

> row formate delimited
//教会hive一行一行的读取数据

> fields terminated by ',' 
//以','作为id和name的分隔符
  • hive数据的存放点

    在shell中hive的数据库和表中的数据还是存储在hdfs中,hdfs的文件是存储在你指定的tmp
    文件夹中的,所以可以在hdfs中找到hive的数据。

hadoop fs -put a.txt /user/hive/warehouse/数据库名.db/表名
  • 直接在hive中上传本地文件
> load data local inpath '/home/hadoop/sz.dat' into table t_sz_part partition(country='China');

>load data local inpath '/home/hadoop/sz.dat' into table t_sz_part.japan  partition(country='japan')
  • 清空表的内容
truncate table +"表名"
  • 删除表(table)
drop table +"表名"
  • 将hive变成一个服务器进行交互
cd hive/bin
./hiveserver2
  • 再将一台机器变成符合hive协议的客户端
cd hive/bin
./beeline
  • 再将客户端和服务端连接
bealine> !connect jdbc:hive2://localhost:10000

连接之后需要用户名和密码,默认的密码就是之前hive的用户名和密码(没有密码就回车)

猜你喜欢

转载自blog.csdn.net/jin__nan/article/details/80572810