阅读 86

Flink集成iceberg在生产环境中的实践

背景及痛点

业务背景

同程艺龙是一个提供机票,住宿,交通等服务的在线旅游服务平台,目前我所在的部门属于公司的研发部门,主要职责是为公司内其他业务部门提供一些基础服务,我们的大数据系统主要承接的业务是部门内的一些大数据相关的数据统计、分析工作等,数据来源有网关日志数据,服务器监控数据,k8s容器的相关日志数据,app的打点日志, mysql的binlog日志等。我们的主要的大数据的任务就是基于这些日志构建实时报表,提供基于presto的报表展示和即时查询服务,以及基于flink开发一些实时、批处理任务,为业务方提供准确及时的数据支撑。

原架构方案

由于我们所有的原始数据都是存储在kafka的,所以原来的技术架构就是首先是flink任务消费kafka的数据,经过flink sql或者flink jar的各种处理之后实时写入hive,其中绝大部分任务都是flink sql任务,因为我认为sql开发相对代码要简单的多,并且维护方便、好理解,所以能用sql写的都尽量用sql来写。

提交flink的平台使用的是zeppelin,其中提交flink sql任务是zeppelin自带的功能,提交jar包任务是我自己基于application模式开发的zeppelin插件。

对于落地到hive的数据,使用开源的报表系统metabase (底层使用presto) 提供实时报表展示、定时发送邮件报表,以及自定义sql查询服务。由于业务对数据的实时性要求比较高,希望数据能尽快的展示出来,所以我们很多的flink流式任务的checkpoint设置为1分钟,数据格式采用的是orc格式。

痛点

由于采用的是列式存储格式orc,无法像行式存储格式那样进行追加操作,所以不可避免的产生了一个大数据领域非常常见且非常棘手的问题,即hdfs小文件问题。

开始的时候我们的小文件解决方案是自己写的一个小文件压缩工具,定期的去合并,我们的hive分区一般都是天级别的,所以这个工具的原理就是每天的凌晨启动一个定时任务去压缩昨天的数据,首先把昨天的数据写入一个临时文件夹,压缩完,和原来的数据进行记录数的比对检验,数据条数一致之后,用压缩后的数据覆盖原来的数据,但是由于无法保证事务,所以出现了很多的问题:

  • 压缩的同时由于延迟数据的到来导致昨天的hive分区又有数据写入了,检验就会失败,导致合并小文件失败。

  • 替换旧数据的操作是没有事务保证的,如果替换的过程中旧分区有新的数据写入,就会覆盖新写入的数据,造成数据丢失。

  • 没有事务的支持,无法实时的合并当前分区的数据,只能合并压缩前一个分区的,最新的分区数据仍然有小文件的问题,导致最新数据查询性能提高不了。

flink+iceberg的落地

iceberg技术调研

所以基于以上的hdfs小文件、查询慢等问题,结合我们的现状,我调研了目前市面上的数据湖技术:delta、Apache Iceberg和Apache Hudi,考虑了目前数据湖框架支持的功能和以后的社区规划,最终我们是选择了iceberg,其中考虑的原因有以下几方面:

  • iceberg深度集成flink

    前面讲到,我们的绝大部分任务都是flink任务,包括批处理任务和流处理任务,目前这三个数据湖框架,iceberg是集成flink做的最完善的,如果采用iceberg替代hive之后,迁移的成本非常小,对用户几乎是无感知的,

    比如我们原来的sql是这样的,

    INSERT INTO hive_catalog.db.hive_table SELECT * FROM kafka_table

    迁移到iceberg以后,只需要修改catalog就行了.
    INSERT INTO iceberg_catalog.db.iceberg_table SELECT * FROM kafka_table

    presto查询也是和这个类似,只需要修改catalog就行了。

  • iceberg的设计架构使得查询更快

[图片上传失败...(image-8119df-1616550735167)]

在iceberg的设计架构中,manifest文件存储了分区相关信息、data files的相关统计信息(max/min)等,去查询一些大的分区的数据,就可以直接定位到所要的数据,而不是像hive一样去list整个hdfs文件夹,时间复杂度从O(n)降到了O(1),使得一些大的查询速度有了明显的提升,在Iceberg PMC Chair Ryan Blue的演讲中,我们看到命中filter的任务执行时间从61.5小时降到了22分钟。

  • 使用flink sql将cdc数据写入iceberg
    flink cdc提供了直接读取MySQL binlog的方式,相对以前需要使用canal读取binlog写入kafka,然后再去消费kafka数据。少了两个组件的维护,链路减少了,节省了维护的成本和出错的概率。并且可以实现导入全量数据和增量数据的完美对接,所以使用flink sql将MySQL binlog数据导入iceberg来做mysql->iceberg的导入将会是一件非常有意义的事情。

此外对于我们最初的压缩小文件的需求,虽然iceberg目前还无法实现自动压缩,但是它提供了一个批处理任务,已经能满足我们的需求。

hive表迁移iceberg表

  • 迁移准备工作

目前我们的所有数据都是存储在hive表的,在验证完iceberg之后,我们决定将hive的数据迁移到iceberg,所以我写了一个工具,可以使用hive的数据,然后新建一个iceberg表,为其建立相应的元数据,但是测试的时候发现,如果采用这种方式,需要把写入hive的程序停止,因为如果iceberg和hive使用同一个数据文件,而压缩程序会不断地压缩iceberg表的小文件,压缩完之后,不会马上删除旧数据,所以hive表就会查到双份的数据,故我们采用双写的策略,原来写入hive的程序不动,新启动一套程序写入iceberg,这样能对iceberg表观察一段时间。还能和原来hive中的数据进行比对,来验证程序的正确性。

经过一段时间观察,每天将近几十亿条数据、压缩后几个T大小的hive表和iceberg表,一条数据也不差。所以在最终对比数据没有问题之后,把hive表停止写入,使用新的iceberg表。

  • 迁移工具

我将这个hive表迁移iceberg表的工具做成了一个基于flink batch job的iceberg Action,提交了社区,不过目前还没合并:https://github.com/apache/iceberg/pull/2217 , 这个功能的思路是使用hive原始的数据不动,然后新建一个iceberg table,然后为这个新的iceberg table 生成对应的元数据,大家有需要的话可以先看看。

此外,iceberg社区,还有一个把现有的数据迁移到已存在的iceberg table的工具,类似hive的LOAD DATA INPATH ... INTO TABLE,是用spark的存储过程做的,大家也可以关注下:https://github.com/apache/iceberg/pull/2210

iceberg优化实践

压缩小文件

目前压缩小文件是采用的一个额外批任务来进行的,Iceberg提供了一个spark版本的action,我在做功能测试的时候发现了一些问题,此外我对spark也不是非常熟悉,担心出了问题不好排查,所以参照spark版本的自己实现了一个flink版本,并修复了一些bug,进行了一些功能的优化。

由于我们的iceberg的元数据都是存储在hive中的,也就是我们使用了HiveCatalog,所以压缩程序的逻辑是我把hive中所有的iceberg表全部都查出来,依次压缩。压缩没有过滤条件,不管是分区表还是非分区表,都进行全表的压缩。这样做是为了处理某些使用eventtime的flink任务,如果有延迟的数据的到来。就会把数据写入以前的分区,如果不是全表压缩只压缩当天分区的话,新写入的其他天的数据就不会被压缩。

之所以没有开启定时任务来压缩,是因为比如我定时五分钟压缩一个表,如果五分钟之内这个压缩任务没完成,没有提交新的snapshot,下一个定时任务又开启了,就会把上一个没有完成的压缩任务中的数据重新压缩一次,所以每个表依次压缩的策略可以保证某一时刻一个表只有一个任务在压缩。

代码示例参考:


StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
Actions.forTable(env, table)
        .rewriteDataFiles()
        //.maxParallelism(parallelism)
        //.filter(Expressions.equal("day", day))
        //.targetSizeInBytes(targetSizeInBytes)
        .execute();

目前系统运行稳定,已经完成了几万次任务的压缩

[图片上传失败...(image-12f54b-1616550735166)]

注意:

不过目前对于新发布的iceberg 0.11来说,还有一个已知的bug,就是当压缩前的文件大小大于要压缩的大小(targetSizeInBytes)的时候,会造成数据丢失,其实这个问题我在最开始测试小文件压缩的时候就发现了,并且提了一个pr,我的策略是大于目标文件的数据文件不参与压缩,不过这个pr没有合并到0.11版本中,后来社区另外一个兄弟也发现了相同的问题,提交了一个pr( https://github.com/apache/iceberg/pull/2196 ) ,策略是将这个大文件拆分到目标文件大小,目前已经合并到master,会在下一个bug fix版本0.11.1中发布。

查询优化

  • 批处理定时任务

目前对于定时调度中的批处理任务,flink的sql客户端还没hive那样做的很完善,比如执行hive -f来执行一个文件。而且不同的任务需要不同的资源,并行度等。 所以我自己封装了一个flink程序,通过调用这个程序来进行处理,读取一个指定文件里面的sql,来提交批任务。在命令行控制任务的资源和并行度等。

/home/flink/bin/flink run -p 10 -m yarn-cluster  /home/work/iceberg-scheduler.jar my.sql

  • 优化
    批任务的查询这块,我做了一些优化工作,比如limit下推,filter下推,查询并行度推断等,可以大大提高查询的速度,这些优化都已经推回给社区,并且在iceberg 0.11版本中发布。

运维管理

  • 清理orphan文件
  1. 定时任务删除

在使用iceberg的过程中,有时候会有这样的情况,我提交了一个flink任务,由于各种原因,我把它给停了,这个时候iceberg还没提交相应的快照。还有由于一些异常导致程序失败,就会产生一些不在iceberg元数据里面的孤立的数据文件,这些文件对iceberg来说是不可达的,也是没用的。所以我们需要像jvm的垃圾回收一样来清理这些文件。

目前iceberg提供了一个spark版本的action来进行处理这些没用的文件,我们采取的策略和压缩小文件一样,获取hive中的所有的iceberg表。每隔一个小时执行一次定时任务来删除这些没用的文件。


  SparkSession spark = ......
  Actions.forTable(spark, table)
         .removeOrphanFiles()
         //.deleteWith(...)
         .execute();

  1. 踩坑

在程序运行过程中出现了正常的数据文件被删除的问题,经过调研,由于我的快照保留设置是一小时,这个清理程序清理时间也是设置一个小时,通过日志发现是这个清理程序删除了正常的数据。查了查代码,应该是他们设置了一样的时间,在清理孤立文件的时候,有其他程序正在读取这个要expired的snapshot,导致删除了正常的数据。最后把这个清理程序的清理时间改成默认的三天,没有再出现删除数据文件的问题。 当然,为了保险起见,我们可以覆盖原来的删除文件的方法,改成将文件到一个备份文件夹,检查没有问题之后,手工删除。

  • 快照过期处理

我们的快照过期策略,我是和压缩小文件的批处理任务写在一起的,压缩完小文件之后,进行表的快照过期处理,目前保留的时间是一个小时,这是因为对于有一些比较大的表,分区比较多,而且checkpoint比较短,如果保留的快照过长的话,还是会保留过多小文件,我们暂时没有查询历史快照的需求,所以我将快照的保留时间设置了一个小时。


long olderThanTimestamp = System.currentTimeMillis() - TimeUnit.HOURS.toMillis(1);
table.expireSnapshots()
// .retainLast(20)
.expireOlderThan(olderThanTimestamp)
.commit();

  • 数据管理

写入了数据之后,有时候我想查看一下相应的快照下面有多少数据文件,直接查询hdfs你不知道哪个是有用的,哪个是没用的。所以需要有对应的管理工具。目前flink这块还不太成熟,我们可以使用spark3提供的工具来查看。

  1. DDL

目前create table 这些操作我们是通过flink sql client来做的。 其他相关的ddl的操作可以使用spark来做:

https://iceberg.apache.org/spark/#ddl-commands

  1. DML

一些相关的数据的操作,比如删除数据等可以通过spark来实现,presto目前只支持分区级别的删除功能。

  1. show partitions & show create table

在我们操作hive的时候,有一些很常用的操作,比如show partitions、 show create table 等,这些目前flink还没有支持,所以在操作iceberg的时候就很不方便,我们自己基于flink 1.12做了修改,不过目前还没有完全提交到社区,后续有时间会提交到flink 和iceberg 社区。

后续工作

flink sql接入cdc数据到iceberg

目前在我们内部的版本中,我已经测试通过可以使用flink sql 将cdc数据(比如mysql binlog)写入iceberg,社区的版本中实现该功能还需要做一些工作,我也提交了一些相关的PR来推进这个工作。

使用sql进行删除和更新

对于copy-on-write表,我们可以使用spark sql来进行行级的删除和删除。具体的支持的语法可以参考源码中的测试类:org.apache.iceberg.spark.extensions.TestDelete & org.apache.iceberg.spark.extensions.TestUpdate,这些功能我在测试环境测试是可以的,但是还没有来得及更新到生产。

使用flink sql进行streaming read

在工作中会有一些这样的场景,由于数据比较大,kafka的数据只存了较短的时间,如果很不幸,我因为程序写错了或者业务变更等原因,想从更早的时间来消费,就无能为力了。

当引入了iceberg的streaming read之后,这些问题就可以解决了,因为iceberg存储了所有的数据,当然这里有一个前提就是对于数据没有要求特别精确,比如达到秒级别,因为目前flink写入iceberg的事务提交是基于flink checkpoint间隔的。

收益及总结

经过对iceberg大概一个季度的调研,测试,优化和bug修复,我们将现有的hive表都迁移到了iceberg,完美解决了原来的所有的痛点问题,目前系统稳定运行,而且相对hive得到了很多的收益:

  • flink写入的资源减少
    举一个例子,默认配置下,原来一个flink读取kafka写入hive的任务,需要60个并行度才不会让kafka产生积压。改成写入iceberg之后,只需要20个并行度就够了.
  • 查询速度变快
    前面我们讲到iceberg查询的时候不会像hive一样去list整个文件夹来获取分区数据,而是先从manifest文件中获取相关数据,查询的性能得到了显著的提升,一些大的报表的查询速度从50秒提高到30秒。
  • 并发读写
    由于iceberg的事务支持,我们可以实现对一个表进行并发读写,flink流式数据实时入湖,压缩程序同时压缩小文件,清理过期文件和快照的程序同时清理无用的文件,这样就能更及时的提供数据,做到分钟级的延迟,查询最新分区数据的速度大大加快了,并且由于iceberg的ACID特性可以保证数据的准确性。
  • time travel
    可以回溯查询以前某一时刻的数据。

总结一下,我们目前可以实现使用flink sql 对iceberg进行批、流的读写,并可以对小文件进行实时的压缩,使用spark sql做一些delete和update工作以及一些DDL操作,后续可以使用flink sql 将cdc的数据写入iceberg,目前对iceberg的所有的优化和bug fix,我已经贡献给社区。由于笔者水平有限,有时候也难免有错误,还请大家不吝赐教。

作者:大数据技术与应用实战

原文链接:https://www.jianshu.com/p/d2bd48ff7354

文章分类
后端
版权声明:本站是系统测试站点,无实际运营。本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 XXXXXXo@163.com 举报,一经查实,本站将立刻删除。
相关推荐