点击上方“大数据与人工智能”,“星标或置顶公众号”
第一时间获取好内容
作者丨斌迪
编辑丨Zandy
导语
精选题型
Hive可考察的内容有:基本概念、架构、数据类型、数据组织、DDL操作、函数、数据倾斜、SQL优化、数据仓库。面试数据分析工程师更多会考察DDL操作、函数、数据倾斜、Hive优化、数据仓库这些知识点。来看看具体问题吧。
基本概念
基本概念一般会以问答题的方式进行考察,比如在面试的时候直接问:说说你对Hive的理解?Hive的作用有哪些?这种类似的问题。
1
从概念上讲,Hive是一款开源的基于hadoop的用于统计海量结构化数据的一个数据仓库,它定义了简单的类似SQL的查询语言,称为HQL,允许熟悉SQL的用户查询数据。
从本质上讲:Hive是将HQL语句转换成MapReduce程序的一个工具。
上题的回答提到了数据仓库和MapReduce,考官可以针对你的回答,进而提问数据仓库和MapReduce相关的知识点。
2
数据仓库的概念是在20世纪90年代被提出来,初衷是专门为业务分析建立一个数据中心,解决因为数据太多查询效率低下的问题。一个被广泛接受的定义是:数据仓库(Data Warehouse)是一个面向主题的(Subject Oriented)、集成的(Integrated)、相对稳定的(Non-Volatile)、反映历史变化(Time Variant)的数据集合,用于支持管理决策(Decision Making Support)。
3
MapReduce是一个软件框架,基于该框架能够容易地编写应用程序,这些应用程序能够运行在大规模集群上,并以一种可靠的,具有容错能力的方式并行地处理上TB级别的海量数据集。MapReduce的思想就是“分而治之”,Mapper负责“分”,即把复杂的任务分解为若干个“简单的任务”来处理;Reducer负责对map阶段的结果进行汇总。
一个比较形象的语言解释MapReduce: 我们要统计图书馆中的所有书的数量。你统计1号书架,我统计2号书架。这就是“Map”。我们人越多,统计得就越快。现在我们到一起,把所有人的统计数加在一起。这就是“Reduce”。
4
1)可以将结构化的数据文件映射成一张表,并提供类SQL查询功能,方便非java开发人员对hdfs上的数据做 MapReduce 操作;
2)可以对数据提取转化加载(ETL)
3)构建数据仓库
5
1)即席查询:利用CLI或者类似Hue之类的工具,可以对Hive中的数据做即席查询,如果底层的引擎使用的是MapReduce耗时会很久,可以替换成Tez或者Spark;
2)离线的数据分析:通过执行定时调度或者脚本去执行HQL语句,并将结果保存;
3)构建数仓时用于组织管理数据库和表。
架构
架构这一块主要考察Hive的基本组成,也可以针对具体的部分进行进一步考察。
6
1)用户接口层:常用的三个分别是CLI,JDBC/ODBC 和 WUI。其中最常用的是CLI,CLI启动的时候,会同时启动一个Hive副本。JDBC/ODBC是Hive的客户端,用户通过客户端连接至Hive Server。在启动客户端模式的时候,需要指出Hive Server所在节点,并且在该节点启动Hive Server。WUI是通过浏览器访问Hive。
2)元数据存储:Hive将元数据存储在RDBMS中,有三种模式可以连接到数据库,分别是内嵌式元存储服务器、本地元存储服务器、远程元存储服务器。
3)Driver(Compiler/Optimizer/Executor)
Driver完成HQL查询语句的词法分析、语法分析、编译、优化以及查询计划的生成。生成的查询计划存储在HDFS上,并由MapReduce调用执行。
可以参考下图加深印象。
7
Hive支持三种不同的元存储服务器,分别为:内嵌式元存储服务器、本地元存储服务器、远程元存储服务器,每种存储方式使用不同的配置参数。
内嵌式元存储主要用于单元测试,在该模式下每次只有一个进程可以连接到元存储,Derby是内嵌式元存储的默认数据库。
在本地模式下,每个Hive客户端都会打开到数据存储的连接并在该连接上请求SQL查询。
在远程模式下,所有的Hive客户端都将打开一个到元数据服务器的连接,该服务器依次查询元数据,元数据服务器和客户端之间使用Thrift协议通信。
8
CLI就是命令行模式,通过命令行执行HQL命令。Hive 命令行模式启动有两种方式。执行这条命令的前提是要配置 Hive 的环境变量。
1) 进入 /home/hadoop/app/hive 目录,执行如下命令。
./hive
2) 直接执行命令。
9
整个过程的执行步骤如下:
(1) 解释器完成词法、语法和语义的分析以及中间代码生成,最终转换成抽象语法树;
(2) 编译器将语法树编译为逻辑执行计划;
(3) 逻辑层优化器对逻辑执行计划进行优化,由于Hive最终生成的MapReduce任务中,Map阶段和Reduce阶段均由OperatorTree组成,所以大部分逻辑层优化器通过变换OperatorTree,合并操作符,达到减少MapReduce Job和减少shuffle数据量的目的;
(4) 物理层优化器进行MapReduce任务的变换,生成最终的物理执行计划;
(5) 执行器调用底层的运行框架执行最终的物理执行计划。
仔细看一下六七八的问题是递进的,第六题回答出来后,才有可能被问到第七和第八。
数据类型
10
简单的数据类型支持:TINYINT、SMALLINT、INT、BIGINT、BOOLEAN、FLOAT、DOUBLE、STRING,复杂的数据类型支持:ARRAY_TYPE、MAP_TYPE、STRUCT_TYPE。
数据组织
数据组织主要考察面试者对Hive的数据库、表、视图、分区和表数据的概念的考察,清楚的说出每个概念的含义就可以了。
11
包括数据库、表、分区、桶、视图和表数据。
12
database-数据库在 HDFS 中表现为指定的目录下的一个文件夹,通过${hive.metastore.warehouse.dir}可以进行设置;
table-内部表在 HDFS 中表现为某个 database 目录下一个文件夹,默认创建的都是内部表;
external table-外部表与内部表类似,在 HDFS 中表现为指定目录下一个文件夹;
bucket-桶在 HDFS 中表现为同一个表目录或者分区目录下根据某个字段的值进行 hash 散列之后的多个文件;
view-视图与表类似,只读,基于基本表创建,不占存储空间,实际是一连串的查询语句;
表数据对应 HDFS 对应目录下的文件。
13
内部表数据由Hive自身管理,外部表数据由HDFS管理;删除内部表会直接删除元数据(metadata)及存储数据;删除外部表仅仅会删除元数据,HDFS上的文件并不会被删除。
14
分区表,Hive 数据表可以根据某些字段进行分区操作,细化数据管理,让部分查询更快,不同分区对应不同的目录;
分桶表:表和分区也可以进一步被划分为桶,分桶是相对分区进行更细粒度的划分。分桶将整个数据内容按照某列属性值的hash值进行区分,不同的桶对应不同的文件。
DDL操作
DDL操作主要考察的是对库和表的操作,这是数据分析师工作中最常用的。一般会结合实际的需求进行出题。
例如一份视频APP的播放数据,记录用户每次的起播和结束播放:包括用户的设备ID、日期、起播或者结束,播放时长(起播时为0)
15
16
key_day |
device_id |
event |
happen_time |
paly_duration |
20190101 |
s0000001 |
start |
2019-01-01 18:30:31.0 |
0 |
20190101 |
s0000001 |
end |
2019-01-01 18:40:31.0 |
600 |
20190101 |
s0000002 |
start |
2019-01-01 15:30:31.0 |
0 |
20190101 |
s0000002 |
end |
2019-01-01 15:31:36.0 |
65 |
20190102 |
s0000001 |
start |
2019-01-02 21:17:08.0 |
0 |
20190102 |
s0000001 |
end |
2019-01-02 21:37:08.0 |
1200 |
20190102 |
s0000003 |
start |
2019-01-02 19:33:04.0 |
0 |
20190102 |
s0000003 |
start |
2019-01-02 19:39:04.0 |
0 |
20190102 |
s0000003 |
end |
2019-01-02 20:55:41.0 |
4597 |
导入数据到Hive表中,可以从文件中读取,也可以直接在代码中将数据一条一条插入,不同的分区需要不同的插入代码。
INSERT OVERWRITE TABLE test.video_play PARTITION(key_day='20190101')
VALUES
('s0000001','start','2019-01-01 18:30:31.0',0),
('s0000001','end','2019-01-01 18:40:31.0',600),
('s0000002','start','2019-01-01 15:30:31.0',0),
('s0000002','end','2019-01-01 15:31:36.0',65);
INSERT OVERWRITE TABLE test.video_play PARTITION(key_day='20190102')
VALUES
('s0000001','start','2019-01-02 21:17:08.0',0),
('s0000001','end','2019-01-02 21:37:08.0',1200),
('s0000003','start','2019-01-02 19:33:04.0',0),
('s0000003','start','2019-01-02 19:39:04.0',0),
('s0000003','end','2019-01-02 20:55:41.0',4597);
17
这样的话,如果需要计算两个数的乘积的话只需要调用:mulOneAtTime(5)(4)
函数
Hive函数的考察主要是函数的使用,一般代码类的题目居多,窗口函数是考察的要点。
18
统计每天的人均播放次数和播放时长,其中播放次数按照起播日志来算,播放时长按照播放结束日志来统计SELECT a.key_day,a.avg_play_num,b.avg_duration
(
select key_day,count(device_id)/count(distinct device_id) as avg_play_num
from test.video_play
where event = 'start' //限定为起播日志
group by key_day
) a
join
(
select key_day,sum(duration)/count(distinct device_id) as avg_duration
from test.video_play
where event = 'end' //限定为结束播放日志
group by key_day
) b
on a.key_day = b.key_day
19
select key_day,device_id,sum_duration
from
(select key_day,device_id,sum(play_duration) as sum_duration,rank() over (partition by key_day order by sum(play_duration) desc) as rank
from test.video_play
where event = 'end'
group by key_day,device_id
) a
where rank = 1
本题考察了窗口函数rank的使用,也可以用子查询和join配合得出一样的结果,但是如果你在面试的时候使用窗口函数,无疑是一个加分项。
20
统计函数有:sum、avg、max/min、count
窗口函数常用的有:除了上述统计函数外,还有first_value/last_value、lag/lead、rank、row_number
21
hive中 order by,sort by,cluster by,distrbute by,partition by各代表什么意思?
order by:会对输入做全局排序,因此只有一个reducer(多个reducer无法保证全局有序)。当输入规模较大时,需要较长的计算时间。
sort by:不是全局排序,其在数据进入reducer前完成排序。
distribute by:按照指定的字段对数据进行划分输出到不同的reducer中。
cluster by:除了具有 distribute by 的功能外还兼具 sort by 的功能。
partition by:按照指定字段进行分区,用在窗口函数中。
数据倾斜
数据倾斜不仅在Hive面试中会被问到,其他只要涉及到大规模程序开发的组件都会问到数据倾斜方面的问题,因为这是在实际工作中经常会出现的问题,如何去避免和解决出现的数据倾斜问题是衡量你代码水平高低的尺子。
22
数据倾斜就是数据的分布不平衡,某些地方特别多,某些地方又特别少,导致在处理数据的时候,有些很快就处理完了,而有些又迟迟未能处理完,导致整体任务最终迟迟无法完成,这种现象就是数据倾斜。
23
发生数据倾斜的原因有很多,大致可以归为:
1)key分布不均匀;
2)数据本身的特性,原本按照日期进行分区,如果在特定日期数据量剧增,就有可能造成倾斜;
3)建表时考虑不周,分区设置不合理或者过少;
4)某些 HQL 语句本身就容易产生数据倾斜,如 join。
24
关键字 |
场景 |
结果 |
join |
其中一个表较小,但是key集中 |
分发到某一个或者几个Reduce上的数据远高平均值 |
都是大表,但是有0值和空值过多 |
0值或者空值由一个Reduce处理 |
|
不同数据类型关联 |
类型转换的时候会产生null值,太多的null值在一个Reduce上处理 |
|
group by |
维度过小,某个值的量太大 |
处理该值的Reduce压力大 |
count distinct |
特殊值过多 |
处理特殊值的Reduce压力大 |
HIVE优化
25
count(distinct uid),该用法在MR 的 reduce 阶段只有一个 reduce 来处理,当数据量较大会导致严重的数据倾斜,如何进行优化呢?
select count(1)
from (select distinct(uid) d_uid from table) x
26
Hive SQL中的order by就是将结果按某字段全局排序,这会导致所有map端数据都进入一个reducer中,在数据量大时可能会长时间计算不完。
可以使用sort by,会视情况启动多个reducer进行排序,并且保证每个reducer内局部有序。为了控制map端数据分配到reducer的key,往往还要配合distribute by一同使用,如果不加distribute by的话,map端数据就会随机分配到reducer。
下面是优化后的代码。
27
join优化是个复杂的问题,可以从以下几点进行优化:
1)小表前置
大小表在join的时候,应该将小表放在前面,Hive在解析带join的SQL语句时,会默认将最后一个表作为大表,将前面的表作为小表并试图将它们读进内存。如果表顺序写反,大表在前面,可能会引发OOM。
2)key值相同
多表join的时候尽量使用相同的key来关联,这样会将会将多个join合并为一个MR job来处理。
3)利用map join特性
map join特别适合大小表join的情况。Hive会将大表和小表在map端直接完成join过程,消灭reduce,效率很高。Hive 0.8版本之前,需要加上map join的暗示,以显式启用map join特性,具体做法是在select语句后面增加/*+mapjoin(需要广播的较小表)*/。
map join的配置项是hive.auto.convert.join,默认值true;还可以控制map join启用的条件,hive.mapjoin.smalltable.filesize,当较小表大小小于该值就会启用map join,默认值25MB。
28
这在写程序的时候要考虑清楚,这些异常值的过滤会不会影响计算结果,如果影响那就不能直接过滤掉,可以将这些异常的key用随机方式打散,例如将用户ID为null的记录随机改为负值。
29
mapper数量与输入文件的split数息息相关,可以通过设置相关参数来调整mapper数。
1)可以直接通过参数mapred.map.tasks(默认值2)来设定mapper数的期望值,但它不一定是最终mapper数;
2)输入文件的总大小为total_input_size。HDFS中,一个块的大小由参数dfs.block.size指定,默认值64MB或128MB。所以得出来的默认mapper数就是:
default_mapper_num = total_input_size / dfs.block.size,但是它也不一定是最终的mapper数;
3)设置参数mapred.min.split.size(默认值1B)和mapred.max.split.size(默认值64MB)分别用来指定split的最小和最大值。那么split大小和split数计算规则是:
split_size = MAX(mapred.min.split.size, MIN(mapred.max.split.size, dfs.block.size));
split_num = total_input_size / split_size。
4)最终得出mapper数:
mapper_num = MIN(split_num, MAX(default_mapper_num, mapred.map.tasks))。
其中可变的参数有:mapred.map.tasks、dfs.block.size(不会为了一个程序去修改,但是也算是一个可变参数)、mapred.min.split.size、mapred.max.split.size,通过调整他们来实现,mapper数的变化。
30
使用参数mapred.reduce.tasks可以直接设定reducer数量,不像mapper一样是期望值。如果不设这个参数的话,Hive就会自行推测,逻辑如下:
1)参数hive.exec.reducers.bytes.per.reducer用来设定每个reducer能够处理的最大数据量。
2)参数hive.exec.reducers.max用来设定每个job的最大reducer数量。
3)reducer数:
reducer_num = MIN(total_input_size / reducers.bytes.per.reducer, reducers.max)。
reducer数量决定了输出文件的数量。如果reducer数太多,会产生大量小文件,对HDFS造成压力。如果reducer数太少,每个reducer要处理很多数据,容易拖慢执行时间也有可能造成OOM。
31
当有很多小文件的时候没需要合并小文件,可以在输入阶段合并,也可以在输出阶段合并。
1)输入阶段合并
要想文件自动合并,需要更改Hive的输入文件格式,通过参数hive.input.format来更改,默认值是org.apache.hadoop.hive.ql.io.HiveInputFormat,需要改成org.apache.hadoop.hive.ql.io.CombineHiveInputFormat。还需要设置mapred.min.split.size.per.node和mapred.min.split.size.per.rack这两个参数,他们的含义是单节点和单机架上的最小split大小。设置完后,如果发现有split大小小于这两个值(默认都是100MB),则会进行合并。
2)输出阶段合并
设置hive.merge.mapfiles为true可以将map-only任务的输出合并;
设置hive.merge.mapredfiles为true可以将map-reduce任务的输出合并。另外,设置hive.merge.size.smallfiles.avgsize可以指定所有输出文件大小的均值阈值,一旦低于这个阈值,就会启动一个任务来进行合并。
32
严格模式不允许用户执行3种有风险的HiveSQL语句,一旦执行就会直接失败。这3种语句是:
1)查询分区表时不限定分区列的语句;
2)两表join产生了笛卡尔积的语句;
3)用order by来排序但没有指定limit的语句。
将参数hive.mapred.mode设为strict则为开启严格模式。
小结
本篇Hive面试指南将Hive的知识点分成了8个模块,分别挑选和总结了一些题目,尽可能的将知识点覆盖,文中穿插着问答题和代码题,希望这篇文章能够帮助读者攻克Hive的面试难点。点击文章底部左下角“阅读原文”,查看“大数据分析工程师面试集锦”系列文章。
参考文献
-end-
转载:https://blog.csdn.net/qq_43045873/article/details/99688196