华为云 MRS 基于 Apache Hudi 极致查询优化的探索实践

背景

湖仓一体(LakeHouse)是一种新的开放式架构,它结合了数据湖和数据仓库的最佳元素,是当下大数据领域的重要发展方向。
华为云早在2020年就开始着手相关技术的预研,并落地在华为云 FusionInsight MRS智能数据湖解决方案中。

目前主流的三大数据湖组件 Apache Hudi、Iceberg、Delta各有优点,业界也在不断探索选择适合自己的方案。

华为湖仓一体架构核心基座是 Apache Hudi,所有入湖数据通过 Apache Hudi 承载, 对外通过 HetuEngine(Presto增强版)引擎承担一站式SQL分析角色,因此如何更好的结合 Presto 和 Hudi 使其查询效率接近专业的分布式数仓意义重大。查询性能优化是个很大的课题,包括索引、数据布局、预聚合、统计信息、引擎 Runtime优化等等。

本文主要介绍 Presto 如何更好的利用 Hudi 的数据布局、索引信息来加速点查性能。预聚合和统计信息我们将在后续分享。

数据布局优化

大数据分析的点查场景一般都会带有过滤条件,对于这种类型查询,如果目标结果集很小,理论上我们可以通过一定手段在读取表数据时大量跳过不相干数据,只读取很小的数据集,进而显著的提升查询效率。我们可以把上述技术称之为 DataSkipping
好的数据布局可以使相关数据更加紧凑(当然小文件问题也一并处理掉了)是实现 DataSkipping的关键一步。日常工作中合理设置分区字段、数据排序都属于数据布局优化。 当前主流的查询引擎 Presto/Spark 都可以对Parquet文件做 Rowgroup 级别过滤,最新版本甚至支持 Page 级别的过滤;选取合适的数据布局方式可以使引擎在读取上述文件可以利用列的统计信息轻易过滤掉大量 Rowgroup/Page,进而减少IO。
那么是不是 DataSkipping仅仅依赖数据布局就好了?其实不然。上述过滤还是要打开表里每一个文件才能完成过滤,因此过滤效果有限,数据布局优化配合 FileSkipping才能更好的发挥效果。
当我们完成数据布局后,对每个文件的相关列收集统计信息,下图给个简单的示例,数据经过排序后写入表中生成三个文件,指定点查 where a < 10
下图可以清楚的看出 a < 10的结果集只存在于 parquet1文件中, parquet2/parquet3 中 a 的最小值都比10大,显然不可能存在结果集,所以直接裁剪掉 parquet2parquet3即可。

File minValue_a maxValue_a parquet1 0 999 parquet2 1000 2000 parquet3 2001 3000

这就是一个简单 FileSkippingFileSkipping的目的在于尽最大可能裁剪掉不需要的文件,减少扫描IO,实现 FileSkipping有很多种方式,例如 min-max统计信息过滤、BloomFilter、Bitmap、二级索引等等,每种方式都各有优缺点,其中 min-max 统计信息过滤最为常见,也是 Hudi/Iceberg/DeltaLake 默认提供的实现方式。

Apache Hudi核心能力

1. Clustering

Hudi早在 0.7.0 版本就已经提供了 Clustering 优化数据布局,0.10.0 版本随着 Z-Order/Hilbert高阶聚类算法加入,Hudi的数据布局优化日趋强大,Hudi 当前提供以下三种不同的聚类方式,针对不同的点查场景,可以根据具体的过滤条件选择不同的策略

方式 使用场景 额外补充说明 Order 只有一个过滤列如: where a > 10

Clustering时只需按a排序即可 Order排序具有一定特殊性,当指定多列排序时,最终排序结果以第一列为准,其他列很难本有序。PS:主要这并不代表Order不能用于多列排序。以下场景可以直接用Order多列排序:1. 排序列都是低基字段;2. 只有一个高基字段,将该高基字段放到排序列最后 Z-Order 多个过滤字段,一般2到4个,超过4个效果要打折扣,Z-Order简单来说是一种均匀排序的思想,经过该算法参与排序的所有列都会基本有序,不会出现Order那种只排第一列的情况 多列排序效果绝大数情况下比Order要好,但是构建速度相比Order较慢。PS: 对于2列低基字段排序,选择Order比较合适 Hilbert 和Z-Order一样,不过排序效果更好,但构建速度更慢 同上

关于 Z-Order、Hilbert 具体原理可以查阅相关Wiki,https://en.wikipedia.org/wiki/Z-order 本文不再详细赘述。

Metadata Table(MDT):Hudi的元数据信息表,是一个自管理的 Hudi MoR表,位于 Hudi 表的 .hoodie目录,开启后用户无感知。同样的 Hudi 很早就支持 MDT,经过不断迭代 0.12版本 MDT 已经成熟,当前 MDT 表已经具备如下能力

Column_stats/Bloomfilter

上文我们介绍了数据布局优化,接下来说说 Hudi 提供的 FileSkipping能力。
当前 Hudi 支持对指定列收集包括min-max value,null count,total count 在内的统计信息,并且 Hudi 保证这些信息收集是原子性,利用这些统计信息结合查询引擎可以很好的完成 FileSkipping大幅度减少IO。
BloomFilter是 Hudi 提供的另一种能力,当前只支持对主键构建 BloomFilter。BloomFilter判断不存在就一定不存在的特性,可以很方便进行 FileSkipping,我们可以将查询条件直接作用到每个文件的 BloomFilter 上,进而过滤点无效的文件,注意 BloomFilter 只适合等值过滤条件例如 where a = 10,对于 a > 10这种就无能为力。

高性能FileList

在查询超大规模数据集时, FileList是不可避免的操作,在 HDFS 上该操作耗时还可以接受,一旦涉及到对象存储,大规模 FileList 效率极其低下,Hudi 引入 MDT 将文件信息直接保存在下来,从而避免了大规模 FileList

华为云 MRS 基于 Apache Hudi 极致查询优化的探索实践

Presto 与 Hudi的集成

HetuEngine(Presto)作为数据湖对外出口引擎,其查询 Hudi 能力至关重要。对接这块我们主要针对点查和复杂查询做了不同的优化,下文着重介绍点查场景。
在和 Hudi 集成之前首先要解决如下问题

  1. 如何集成 Hudi,在 Hive Connector 直接魔改,还是使用独立的 Hudi Connector?
  2. 支持哪些索引做 DataSkipping?
  3. DataSkipping 在 Coordinator 侧做还是在 Worker 端做?

问题1: 经过探讨我们决定使用 Hudi Connector承载本次优化。当前社区的 Connector 还略优不足,缺失一些优化包括统计信息、Runtime Filter、Filter不能下推等导致 TPC-DS 性能不是很理想,我们在本次优化中重点优化了这块,后续相关优化会推给社区。

问题2: 内部 HetuEngine 其实已经支持 Bitmap 和二级索引,本次重点集成了 MDT 的 Column statistics和 BloomFilter 能力,利用 Presto下推的 Filter 直接裁剪文件。

问题3: 关于这个问题我们做了测试,对于 column 统计信息来说,总体数据量并不大,1w 个文件统计信息大约几M,加载到 Coordinator 内存完全没有问题,因此选择在 Coordinator 侧直接做过滤。

华为云 MRS 基于 Apache Hudi 极致查询优化的探索实践

对于 BloomFilter、Bitmap 就完全不一样了,测试结果表明 1.4T 数据产生了 1G 多的 BloomFilter 索引,把这些索引加载到 Coordinator 显然不现实。我们知道 Hudi MDT 的 BloomFilter 实际是存在 HFile里,HFile点查十分高效,因此我们将 DataSkipping 下压到 Worker 端,每个 Task 点查 HFile 查出自己的 BloomFilter 信息做过滤。

华为云 MRS 基于 Apache Hudi 极致查询优化的探索实践

点查场景测试

测试数据

我们采用和 ClickHouse 一样的SSB数据集进行测试,数据规模1.5T,120亿条数据。

$ ./dbgen -s 2000 -T c
$ ./dbgen -s 2000 -T l
$ ./dbgen -s 2000 -T p
$ ./dbgen -s 2000 -T s

测试环境

1CN+3WN Container 170GB,136GB JVM heap, 95GB Max Query Memory,40vcore

数据处理

利用 Hudi 自带的 Hilbert 算法直接预处理数据后写入目标表,这里 Hilbert 算法指定 S_CITY,C_CITY,P_BRAND, LO_DISCOUNT作为排序列。

SpaceCurveSortingHelper
.orderDataFrameBySamplingValues(df.withColumn("year", expr("year((LO_ORDERDATE))")), LayoutOptimizationStrategy.HILBERT, Seq("S_CITY", "C_CITY", "P_BRAND", "LO_DISCOUNT"), 9000)
.registerTempTable("hilbert")
spark.sql("insert into lineorder_flat_parquet_hilbert select * from hilbert")

测试结果

使用冷启动方式,降低 Presto 缓存对性能的影响。

SSB Query

华为云 MRS 基于 Apache Hudi 极致查询优化的探索实践

文件读取量

华为云 MRS 基于 Apache Hudi 极致查询优化的探索实践
  1. 对于所有 SQL 我们可以看到 2x – 11x 的性能提升, FileSkipping 效果更加明显过滤掉的文件有 2x – 200x 的提升。
  2. 即使没有 MDT ,Presto 强大的 Rowgroup 级别过滤,配合 Hilbert 数据布局优化也可以很好的提升查询性能。
  3. SSB模型扫描的列数据都比较少, 实际场景中如果扫描多个列 Presto + MDT+ Hilbert 的性能可以达到 30x 以上。
  4. 测试中同样发现了MDT的不足,120亿数据产生的MDT表有接近50M,加载到内存里面需要一定耗时,后续考虑给MDT配置缓存盘加快读取效率。

关于 BloomFilter 的测试,由于 Hudi 只支持对主键构建 BloomFilter,因此我们构造了 1000w 数据集做测试

spark.sql(
"""
    |create table prestoc(
    |c1 int,
    |c11 int,
    |c12 int,
    |c2 string,
    |c3 decimal(38, 10),
    |c4 timestamp,
    |c5 int,
    |c6 date,
    |c7 binary,
    |c8 int
    |) using hudi
    |tblproperties (
    |primaryKey = 'c1',
    |preCombineField = 'c11',
    |hoodie.upsert.shuffle.parallelism = 8,
    |hoodie.table.keygenerator.class = 'org.apache.hudi.keygen.SimpleKeyGenerator',
    |hoodie.metadata.enable = "true",
    |hoodie.metadata.index.column.stats.enable = "true",
    |hoodie.metadata.index.column.stats.file.group.count = "2",
    |hoodie.metadata.index.column.stats.column.list = 'c1,c2',
    |hoodie.metadata.index.bloom.filter.enable = "true",
    |hoodie.metadata.index.bloom.filter.column.list = 'c1',
    |hoodie.enable.data.skipping = "true",
    |hoodie.cleaner.policy.failed.writes = "LAZY",
    |hoodie.clean.automatic = "false",
    |hoodie.metadata.compact.max.delta.commits = "1"
    |)
    |
    |""".stripMargin)

最终一共产生了8个文件,结合 BloomFilter Skipping掉了 7 个,效果非常明显。

后续工作

后续关于点查这块工作会重点关注 Bitmap 以及二级索引。最后总结一下 DataSkipping 中各种优化技术手段的选择方式。

  1. Clustering中各种排序方式需要结合 Column statistics 才能达到更好的效果。
  2. BloomFilter 适合等值条件点查,不需要数据做排序, 但是要选择高基字段,低基字段 BloomFIlter 用处不大;另外超高基也不要选 BloomFilter,产出的 BloomFilter 结果太大。

Original: https://www.cnblogs.com/leesf456/p/16864900.html
Author: leesf
Title: 华为云 MRS 基于 Apache Hudi 极致查询优化的探索实践

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/799186/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

  • Python Pandas用法整理

    Pandas简介 Pandas是一-种基于NumPy的开源的数据分析工具包,提供了高性能、简单易用的数据结构和数据分析函数。Pandas提供 了方便的类表格和类SQL的操作,同时提…

    Python 2023年8月8日
    047
  • keyerror什么意思python_为什么会出现keyerror?

    所以,我正在检查是否可以从同一个模块向yahoo finance发出两个不同的请求(而不是1个,我已经知道如何做)。在 在第一个和第二个中,我想获得ls_key中定义的adj pr…

    Python 2023年8月8日
    062
  • AI基础_pandas极速入门

    前言 pandas 在机器学习和深度学习的过程中是十分重要的。这个教程基于天池的pandas实践课程。不同的是本文会对其进行简化。力求用到最核心的内容,其他部分请各位参考原文链接:…

    Python 2023年8月8日
    089
  • Matplotlib绘图笔记

    Matplotlib绘图 * – 引言 – 绘图步骤 – + 创建画布 + 图片的参数设置 + 选择特定API使用数据绘制所需图形 + 图形显示…

    Python 2023年9月1日
    041
  • 【论文考古】量化SGD QSGD: Communication-Efficient SGD via Gradient Quantization and Encoding

    本文以梯度方差为中间变量,研究得到了parallel SGD中量化比特数与收敛性的关系;在重申随机取整重要性的基础上,将方差打造成了新的研究热点 D. Alistarh, D. G…

    Python 2023年10月28日
    032
  • 实用篇 | 做自己的管理系统 :Pycharm+django+mysql

    目录 1.准备工作: 1.1.下载pycharm(最好专业版,我的是社区版) 1.2.下载mysql 1.3.下载安装MySQL Workbench 2.具体过程 Step1:打开…

    Python 2023年8月4日
    0104
  • 中断-NVIC与EXTI外设详解(超全面)

    ✅作者简介:嵌入式入坑者,与大家一起加油,希望文章能够帮助各位!!!!📃个人主页:@rivencode的个人主页🔥系列专栏:玩转STM32💬推荐一款模拟面试、刷题神器,从基础到大厂…

    Python 2023年10月11日
    068
  • Coinbase或在不久使用Zebec发放工资,并对Web3支付赛道发展寄予厚望

    流支付协议Zebec Protocol目前已经完成了生态向BNB Chian上的迁移,目前得到了以PancakeSwap为代表的头部生态的支持。在12月20日Zebec生态在Pan…

    Python 2023年10月8日
    033
  • 0停机迁移Nacos?Java字节码技术来帮忙

    摘要:本文介绍如何将Spring Cloud应用从开源Consul无缝迁移至华为云Nacos。 1.市场迁移云环境痛点 市场微服务迁移云环境难主要有以下几点场景: • 微服务规模小…

    Python 2023年10月12日
    048
  • 爬虫(26)scrapy_redis讲解

    第二十三章 scrapy_redis讲解 首先安装redis,pip install redis。 Collecting redis Downloading redis-3.5.3…

    Python 2023年10月6日
    041
  • scrapy框架(3):CSS选择器解析数据

    CSS选择器提取数据 一、HTML涉及内容补充: 二、css选择器介绍 三、实操 * 1、前提 2、code实现的方法介绍 – ①、Pycharm debug ②、黑窗…

    Python 2023年10月2日
    060
  • B/S架构和C/S架构的区别

    一、B/S架构: B/S架构:浏览器和服务器交互的软件结构。通过浏览器访问的网站都是B/S。 1、 无需安装,使用方便,只需要浏览器+网络就可以访问,不占用客户端的资源和硬件环境。…

    Python 2023年6月12日
    056
  • 在Python里使用ChatGPT

    前言 近来 chatGPT挺火的,也试玩了一下,确实挺有意思。这里记录一下在 Python中如何去使用 chatGPT。 本篇文章的实现100%基于 chatGPT,我是搬运工无疑…

    Python 2023年9月26日
    046
  • opencv训练自己的模型,实现特定物体的识别

    1.说明 opencv安装包中有训练好的分类器文件,可以实现人脸的识别。当然,我们也可以训练自己的分类器文件,实现对特定物体的识别。本文章就详细介绍下如何训练自己的分类器文件。 2…

    Python 2023年10月11日
    0124
  • CodeLab:一款让你体验丝滑般的云化JupyterLab

    摘要:从AI开发特点着手,华为云AI DTSE技术布道师陈阳在DTT第五期带来主题为《云化JupyterLab:华为云CodeLab介绍》技术分享。 DTSE Tech Talk是…

    Python 2023年10月28日
    037
  • pandas入门(六):数据清理

    在做数据分析时,在使用算法之前都需要对数据进行相应的处理, pandas 同样的自带了这个功能,里面的东西比较多,这里重点的介绍,数据重复和数据缺值。 重复的数据在做数据处理的时候…

    Python 2023年8月16日
    064
亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球