HIVE入门_2

HIVE 是数据仓库,本质上也是数据库。

数据仓库

概念

就是一个数据库。

数据仓库是一个面向主题的(商品的推荐系统内容是商品的信息)、集成的(分散型地数据进行加工处理,原来的数据可能来自MySQL或者文本等)、不可更新的(主要为了决策分析,涉及到的操作主要是数据的查询,增加和删除用的少)、随时间不变化的数据集合,它用于支持企业或组织的决策分析处理。

结构和建立过程

数据源:

  1. Oracle,MySQL
  2. 文档资料txt
  3. 其他数据

数据存储及管理(ETL):

  1. 抽取(Extract)
  2. 转换(Transform)
  3. 装载(Load)

数据仓库引擎: 各种各样的服务器

前端展示:

  1. 数据查询
  2. 数据报表
  3. 数据分析
  4. 各类应用

OLTP和OLAP

数据模型

星型模型(商品推荐系统为例)

雪花模型(基于星型模型基础上发展的)

HIVE

传统的方式可以使用Oracle或者MySQL搭建数据仓库,这种方式数据保存在Oracle或者是MySQL中。

HIVE是建立在Hadoop HDFS上的数据仓库的基础架构。 可以用来进行数据提取转化加载(ETL)。 定义了简单的类似SQL的查询语言,称为HQL。 允许熟悉MapReduce的开发者开发自定义的mapper和reducer来处理内建的mapper和reducer无法完成的复杂工作。 Hive是SQL的解析引擎,将SQL语句转移成M/R Job然后在Hadoop上执行。

HIVE的表其实就是HDFS的目录/文件(表是目录,数据是文件)。

HIVE的体系结构

HIVE的元数据

  • Hive将元数据存储在数据库(metastore)中,支持mysql、derby等数据库。
  • Hive中的元数据包括表的名字,表的列和分区以及其属性、表的属性(是否为外部表等),表的数据所在目录等。

HQL的执行过程

解释器、编译器、优化器完成HQL查询语句从词法分析、语法分析、编译、优化以及查询计划(Plan)的生成。生成的查询计划存储在HDFS中,并在随后有MapReduce调用执行。

explain #查看对应语句的执行计划

建立索引可以提高查询速度。

HIVE的体系结构

  • 用HDFS进行存储,HQL语句会经过编译器最终使用MapReducer进行计算,方便了那些java不好的人。
  • 元数据Metastore通常存放在关系数据库比如mysql、derby中。

HIVE的安装

安装模式

安装模式有三种:

  • 嵌入模式
  • 本地模式
  • 远程模式

嵌入模式:

  • 元数据信息被存储在HIVE自带的derby数据库中(HIVE在外derby在内)
  • 只允许创建一个连接(同一个时间只有一个人操作数据)
  • 多用于Demo

本地模式:

  • 元数据被存储在MySQL数据库中(没有嵌入在HIVE中)
  • MySQL数据库与HIVE运行在同一台物理机器上
  • 多用于开发和测试(生产不用)

远程模式:

  • 元数据被存储在MySQL数据库中
  • MySQL数据库与HIVE运行在不同物理机器上

嵌入模式

不需要做任何配置

$ hive #直接进到了嵌入模式,在当前目录创建metastore_db

远程/本地模式

  • 元数据被存储在MySQL数据库中
  • MySQL数据库与HIVE运行在不同物理机器上
  • 多用于实际生产环境中
#为hive建立相应的mysql账户,并赋予足够的权限
hadoop@ubuntu:~$ mysql -uroot -pmysql
mysql> CREATE USER 'hive' IDENTIFIED BY 'mysql';
mysql> GRANT ALL PRIVILEGES ON *.* TO 'hive'@'%' WITH GRANT OPTION;
mysql> flush privileges;

#默认情况下Mysql只允许本地登录,所以需要修改配置文件将地址绑定给注释掉:
mysql -uuname -ppassward
create database hive;  #保存元数据
show databases;
#也可以通过MySQL-font等查看

配置文件(本地模式的区别是连接的是本地的数据库,localhost)

在数据库中的tbls中可以查看表的信息。

HIVE的管理

  • CLI方式
  • Web界面管理
  • 远程服务启动方式

CLI方式

#进入hive
$ hive
$ hive --service cli

#清屏
ctrl+l
!clear

show tables --这是注释哦;
show functions;

#查看表的结构
desc tb

#查看hdfs上的文件
dfs -ls

#执行操作系统的命令
!ls

#hive的表以目录,数据以文件的形式存储在hdfs中
dfs -ls /user
dfs -lsr /user/hive

#执行HQL语句
#有的时候转换成MR的作业,遍历的话不用执行MR作业
select *** from ***


#执行SQL的脚本
source SQL文件

#静默模式,不打印调试信息
hive -S  #silent

#在系统的CLI中执行
hive -S -e 'show tables'

Web管理方式

Web只能做查询操作。

解压src源文件,进入hwi的目录

jar cvfM0 hive-hwi-0.13.0.war -C web/
cp hive-hwi-0.13.0.war $HIVE_HOME/lib

vi hive-site.xml


#后边得添加jdk下面的jar包
cp jdk/tools.jar $HIVE_HOME/lib

远程服务

HIVE的数据类型

基本类型

复杂类型

数组,数组的元素是 [1,2,3,4]:

Map,数组元素是<’English’,85>:

数组和map联合起来:

结构体:

时间类型

  • Date类型:分为年月日,不包含一天中的时间
  • Timestamp类型:时间戳,算跟unix有的偏移量
select unix_timestamp();

HIVE的数据存储

特征

  • HIVE中的数据都是保存在HDFS中,表对应文件夹,数据对应文件夹中的文件。
  • 没有专门的数据存储格式,一般的文本文件就可以,一般采用制表符作为分隔符。
  • 存储结构主要包括:数据库、文件、表、视图(逻辑概念)
  • 可以直接加载文本文件(.txt文件等)
  • 创建表的时候,可以指定列分隔符和行分隔符

表分为:

内部表

create table t1
(tid int, tname string, age int)

create table t2
(tid int, tname string, age int)
location '/mytable/hive/t2'  #指定HDFS中的其他位置

create table t3
(tid int, tname string, age int)
row format delimited fields terminated by ',';

create table t4
as 
select * from t3;  #列与列之间没有分隔符

create table t5
row format delimited fields terminated by ','
as 
select * from t3;

#添加新的列
desc t1;
alter table t1 add columns(english int);
desc t1;

#删除表
#如果开启了HADOOP的回收站,那么删除后
drop table t1;

分区表

  • partition对应于数据库的partition列的密集索引
  • 在hive中,表的一个partition对应于表下的一个目录,所有的partition数据都存储在对应的目录中

当数据很大的时候,需要按照一定的条件分区,这样可以提高查询效率。 查看查询效率,可以查看查询计划。

#未建立分区表的查询计划
explain select * from sample_data where gender='M';

#建立分区表的查询计划,执行计划从下往上读
explain select * from partition_table where gender='M';

查询性别是”M”学生需要进行全文扫描,分区后降低了扫描的记录数提高了查询的效率。

create table partition_table
(sid int, sname string)
partitioned by (gender string)
row format delimited fields terminated by ',';

#向表中添加各种分区数据
insert into table partition_table partition(gender='M')
select sid name from sample_data
where gender='M';
insert into table partition_table partition(gender='F')
select sid name from sample_data
where gender='F';

外部表

  • 指向已经在HDFS中存在的数据,可以创建partition
  • 它和内部表在元数据的组织上是相同的,而实际数据的存储则有较大差异
  • 外部表只有一个过程加载数据和创建表同时完成,并不会将数据移动到数据仓库目录中,只是与外部的数据建立一个链接。删除一个外部表时,立刻删除该链接。

外部表的HIVE中只有表的定义与结构没有数据,数据存放在HDFS中。创建表和加载数据一次性完成。 内部表HIVE数据仓库中也是有数据的。

#将数据放在hdfs上
hdfs dfs -put student01.txt /input
hdfs dfs -put student02.txt /input
hdfs dfs -put student03.txt /input

create external table external_table
(sid int, sname string, age int)
row format delimited fields terminated by ','
location '/input';  #外部表创建的时候location指向HDFS中

#删除外部HDFS中的数据会影响hive查询的数据记录
select * from external_table
hdfs dfs -rm /input/student03.txt
select * from external_table

桶表

  • 桶表是对数据进行哈希取值(打散后),然后放到不同的文件中存储。
  • 降低系统的热块,提高查询的速度。
create table bucket_table
(sid int, sname string, age int)
clustered by (sname) into 5;  #根据sname进行hash运算,创建5个桶的桶表

desc bucket_table;

视图

  • 视图是一种虚表,是一个逻辑概念,可以跨越多张表,不存在数据,查询的数据依赖于基表。
  • 视图建立在已有表的基础上,视图赖以建立的这些表称为基表
  • 视图可以简化复杂的查询

部门表和员工表: 注意外键

要求功能: 查询员工信息:员工号,姓名,月薪,年薪 ,部门名称

#创建视图
create viem empinfo
as
select e.empno, e.ename, e.sal, e.sal*12 annlsal,d.name
from emp e,dept d
where e.deptno=d.deptno

#从视图中查询数据,和查询表的方法完全一样
select * from empinfo

HIVE不支持物化视图,视图中存数据。

总结

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏数据和云

举一反三:跨平台版本迁移之 XTTS 方案操作指南

作者 | 罗贵林: 云和恩墨技术工程师,具有8年以上的 Oracle 数据库工作经验,曾任职于大型的国家电信、省级财政、省级公安的维护,性能调优等。精通 Ora...

1043
来自专栏linjinhe的专栏

MySQL半同步复制

MySQL通过复制(Replication)实现存储系统的高可用。目前,MySQL支持的复制方式有:

2635
来自专栏我和PYTHON有个约会

数据库最大连接数量

在数据库操作过程中,经常会遇到一些非业务逻辑错误,这样的错误要求开发人员对于自己正在操作的硬件软件乃至网络都有一定的了解,这里说说关于数据库最大连接数量的那点事...

872
来自专栏xingoo, 一个梦想做发明家的程序员

循序渐进,了解Hive是什么!

一直想抽个时间整理下最近的所学,断断续续接触hive也有半个多月了,大体上了解了很多Hive相关的知识。那么,一般对陌生事物的认知都会经历下面几个阶段: ...

2095
来自专栏Ryan Miao

java日志组件介绍(common-logging,log4j,slf4j,logback )

复制来源:java日志组件介绍(common-logging,log4j,slf4j,logback ) common-logging common-loggi...

2877
来自专栏机器学习算法全栈工程师

Hadoop学习笔记

作者:伍栋梁 编辑:陈人和 1.hadoop安装与介绍 1.1hadoop生态圈介绍 分布式系统—Google三架马车(GFS,mapreduce,Bigta...

6405
来自专栏极客猴

Python定时任务(下)

上篇文章,我们了解到有三种办法能实现定时任务,但是都无法做到循环执行定时任务。因此,需要一个能够担当此重任的库。它就是 APScheduler。

853
来自专栏MongoDB中文社区

MongoDB事务模型分析

在了解写操作的事务性之前,需要先了解mongo层的每一个table,是如何与wiredtiger层的table(btree)对应的。mongo层一个最简单的ta...

842
来自专栏iMySQL的专栏

在 MySQL 5.7下排查内存泄露和 OOM 问题全过程

我的个人网站后台使用的是 MySQL 5.7 版本,前段时间经常被oom-kill,借助5.7的新特性,经过一番排查,终于抓到这只鬼。

8750
来自专栏GopherCoder

专栏:010:SQL VS No SQL

1383

扫码关注云+社区