大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机) (4)

大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机)

六、Hive Shell 测试

在成功启动Hadoop之后
切换到Hive目录下
输入:

cd /opt/hive/hive2.1/bin

首先初始化数据库
初始化的时候注意要将mysql启动
输入:

schematool -initSchema -dbType mysql

大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机)

执行成功之后,可以看到hive数据库和一堆表已经创建成功了

大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机)

切换到 cd /opt/hive/hive2.1/bin
进入hive (确保hadoop以及成功启动)
输入:

hive

大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机)

进入hive 之后
做一些简单的操作
新建一个库,然后在建一张表
基本操作和普通的关系型数据库差不多
创建库:

create database db_hiveTest;

创建表:

create table db_hiveTest.student(id int,name string) row format delimited fields terminated by \'\t\';

大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机)

说明: terminated by \'\t\' 表示文本分隔符要使用Tab,行与行直接不能有空格。

加载数据
新打开一个窗口
因为hive 不支持写,所以添加数据使用load加载文本获取。
新建一个文本

touch /opt/hive/student.txt

编辑该文本添加数据
输入:

vim /opt/hive/student.txt

添加数据:
中间的空格符使用Tab建

1001 zhangsan 1002 lisi 1003 wangwu

大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机)

说明: 文本可以在Windows上面新建,然后通过ftp上传到linux中,需要注意文本的格式为unix 格式。

切换到hive shell
加载数据
输入:

load data local inpath \'/opt/hive/student.txt\' into table db_hivetest.student;

然后查询该数据
输入:

select * from db_hiveTest.student;

大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机)

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zwzdwd.html