Impala 简介

本贴最后更新于 1879 天前,其中的信息可能已经时异事殊

Impala 是什么

Cloudera Impala 是一个分布式的海量关系型数据查询引擎,能基于海量数据提供秒级查询能力。其具有以下特点:

  • 低延时。在执行 SQL 查询时,Impala 不会将中间结果落磁盘,能省略巨大的 IO 开销,因此 Impala 往往能在几秒钟内返回查询结果。相比于 Hive,Impala 更适用于交互式查询场景。
  • 可与 Hive 共享元数据和底层存储数据。Hive 的元数据同步到 Impala 之后,Impala 可以基于该元数据直接查询一张 Hive 表。由于当前大公司往往使用 Hive 作为数仓,因此,将 Impala 集成到现有的数据技术体系中就会变得十分便捷。
  • 支持通过 JDBC/ODBC 的方式访问。由于 Impala 支持通过 JDBC/ODBC 的方式访问,因此可将其海量数据秒级查询能力开放给某些后台系统。

Impala 的架构

在一个 Impala 集群中,所有的节点被分为 3 中角色:

  • ImpalaD:基本上每个节点都会扮演 ImpalaD 的角色。一个 Impalad 由以下 3 个模块构成:

    • Planner
      Planner 负责接收 SQL 并解析 SQL,同时生成查询计划
    • Cordinator
      (1)Cordinator 负责将查询计划转换为子任务,同时将子任务分发给 Executor 去执行
      (2)Cordinator 负责将 Executor 的执行结果返回给用户
      (3)将用户提交的 DDL 操作转发给 CatalogD 处理
  • CatalogD:一个集群中,只会有一个节点作为 CatalogD,负责与 Hive MetaStore 通信,从而维护表的元数据。由于 Impala 集群只有一个 CatalogD,而 impalad 会将 DDL 操作都转交给 catalogd 执行,因此 Impala 本身不适合于执行表数据或者表结构的变更操作,最好只将 Impala 做一个纯查询的工具使用。

  • StateStoreD:一个集群中,只会有一个节点作为 StateStoreD,负责整个集群状态信息的同步。StateStoreD 中会维护 impala-membership/catalog update/impala-request-queue 等多个主题,某个节点在订阅对应等主题后,可以向 statestoreD 上传主题变更后的内容,statestored 则会将变更后的主题内容向其他订阅了该主题的节点广播。例如,集群中所有的节点(包括 catalogd)都会订阅 catalog update 主题,当 catalogd 刷新元数据后,catalogd 会将最新的元数据信息推送向 statestored 的 catalog update 主题,而 statestored 会向集群中其他节点(都订阅了该主题)广播最新的主题内容。
    图片 1.png

一条查询 SQL 是如何执行的

总体步骤

图片 1.png
如图所示,一个查询请求会经历如下过程:
(1)请求提交到某个 impalad
(2)impalad 到 query planner 模块负责解析 sql,生成执行计划
(3)impalad 到 Cordinator 模块将执行计划转化为分布式任务,并分发给多个 executor 执行
(4)executor 执行子任务。在执行过程中,各 executor 可能会互相交换数据
(5)各 executor 将执行结果返回给最开始 impalad 的 cordinator 模块
(6)cordinator 模块会处理最终的结果(如取全局最小的 100 条记录)并返回给客户端

执行计划的生成

在一个查询 SQL 的执行过程中,涉及到执行计划的生成。生成执行计划,具体的又可以分为两步:(1)生成单节点的执行计划(2)将单节点的执行计划转换为分区可并行的执行计划。我们以以下 sql 为例解释执行计划的生成。

select   t1.n1 , t2.n2 , count(1) as c
from     t1 
join     t2 on t1.id = t2.id
join     t3 on t1.id = t3.id
where    t3.n3 between 'a' and 'f'
group    by t1.n1,t2.n2
order    by c desc
limit    100

生成单节点的执行计划

一个单节点的执行计划如下图所示,涉及到 scan/join/aggregation/sort 等操作
图片 1.png

将单节点的执行计划转换为分区可并行的执行计划

转化后的分区可并行执行计划如下图所示。
图片 1.png
在分区可并行的执行计划中,涉及到数据的 brodcast 和 shuffle 机制。当数据量比较小时,数据会被广播到所有的节点上(图中 t3 表的数据比较少,t3 中满足条件的所有数据,都会被广播到所有的 impalad worker 节点);当数据量较大时,数据会被 hash 到不同到节点(图中 t1 和 t2 表中数据比较多,因此数据会根据 join 的 id 字段做 hash,相同 hash 值的数据会被分配到相同到 impalad worker 节点;worker 执行完毕后,数据会根据 n1 和 n2 字段做 hash,将 worker 到结果分配到不同到 intermediate 节点做进一步合并)。

运行时过滤

一般情况下,查询引擎会根据 sql 中提供的限制条件从存储引擎中读取数据(如果存储引擎提供了传入谓词的接口到话,则直接传入限制条件;如果没有提供谓词接口到话,则查询引擎对读取上来到数据做过滤),称之为谓词下推。而 impala 在谓词下推的基础上,做了进一步的优化。
在 impala 中,考虑查询请求中 join 使用到两张表往往一个是大表一个是小表,而对小表的扫描要快于对大表的扫描,这样可以先对小表执行扫描操作,将输出的记录交给 JOIN 节点,而大表则会主动等待一段时间(默认是 1s),JOIN 节点会根据小表输出的记录计算出一个过滤条件,这个条件就是运行时过滤。以下三张图展示了不使用运行过滤(第一张图)和使用运行时过滤(第二张图和第三张图)时,从存储引擎中读取数据的情况。
在不使用运行时过滤的情况下,分别会从 3 张表中读取 430 亿/380 万/2400 条记录。
图片 1.png
在使用运行时过滤的情况下,首先扫描 customer_demo 表,读取出 2400 条记录。根据这 2400 条记录生成的运行时过滤条件作用到读取 customer 表,最终只需要从 customer 表中读取出 4600 条记录。
图片 1meitu1.jpg
根据从 customer 表中读取出的 4600 条记录,生成运行时过滤条件,作用到 store_sales 表,最终从 store_sales 表中只需要读取出 4900 万条记录。
图片 2meitu2.jpg

一些优化查询速度的技巧

统计表信息

通过执行 compute stats table_name 命令,可以对表的情况做一些统计(如表大小/每列最大最小值/每列不同值个数等信息)。这些统计信息会被 impala 使用到,作用与执行计划生成过程(如决定是否使用运行时过滤,使用 brodcast 还是 shuffle 进行 join)。更精确的统计信息,有利于生成更合理的执行计划。

使用 explain 获取执行计划

与 mysql 类似,通过 explain + sql ,可以查看某个 sql 等执行计划。

使用 hint 关键字指定 join 类型

当 sql 执行计划中的 join 类型选取不合理时,用户可以通过 hint 关键字手动指定 join 类型。例如:

select STRAIGHT_JOIN c_custkey,count(o_orderkey) 
from customer 
join [shuffle] orders
on c_custkey = o_custkey and o_comment not like '%[WORD1]%[WORD2]%'
group by c_custkey 
order by c_custkey limit 10;

避免产生很多小文件

impala 查询的表,往往是一张 hive 表。对 hive 表的多个插入操作,最好合并为一个大的插入操作,这样可以防止生成多个小文件(太多的小文件,会影响读取性能)。

为数据存储选择合适的文件格式

通常对于大数据量来说,Parquet 文件格式是最佳的

  • Impala
    2 引用 • 1 回帖
  • 架构

    我们平时所说的“架构”主要是指软件架构,这是有关软件整体结构与组件的抽象描述,用于指导软件系统各个方面的设计。另外还有“业务架构”、“网络架构”、“硬件架构”等细分领域。

    142 引用 • 442 回帖
  • 执行计划
    2 引用 • 3 回帖
  • 优化

    不成熟的优化是万恶之源。

    过度优化实则是劣化。

    31 引用 • 173 回帖

相关帖子

回帖

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...