阅读 94

ClickHouse - 01

1、ClickHouse与其特性


在大数据处理场景中,流处理和批处理使用到的技术大致如下:

大数据处理场景流程.png

批处理会将源业务系统中的数据通过数据抽取工具(例如 Sqoop)将数据抽取到 HDFS 中,这个过程可以使用 MapReduce、Spark、Flink 技术对数据进行 ETL 清洗处理,也可以直接将数据抽取到 Hive 数仓中,一般可以将结构化的数据直接抽取到 Hive 数据仓库中,然后使用 HiveSQL 或者 SparkSQL 进行业务指标分析,如果涉及到的分析业务非常复杂,可以使用 Hive 的自定义函数或者 Spark、Flink 进行复杂分析,这就是我们通常说的数据指标分析。分析之后的结果可以保存到 Hive、HBase、MySQL、Redis等,供后续查询使用。一般在数仓构建中,如果指标存入Hive中,我们可以使用 Sqoop 工具将结果导入到关系型数据库中供后续查询。HBase 中更擅长存储原子性非聚合查询数据,如果有大量结果数据后期不需要聚合查询,也可以通过业务分析处理考虑存入 HBase 中。对于一些查询需求结果反馈非常快的场景可以考虑将结果存入 Redis 中。

对于大多数企业构建数仓之后,会将结果存入到 Hive 中的 DM 层中。DM 层数据存入的是与业务强相关的报表数据,DM 层数据是由数仓中 DWS 层主题宽表聚合统计得到,这种报表层设计适合查询固定的场景。对于一些查询需求多变场景,我们也可以使用 Impala 来直接将主题宽表数据基于内存进行交互式查询,对 Web 或者数据分析做到交互式返回结果,使用 Impala 对内存开销非常大。还有另外一种方式是使用 Kylin 进行预计算,将结果提前计算好存入 Hbase 中,以供后续交互式查询结果,Kylin 是使用空间换取时间的一种方式,预先将各种维度组合对应的度量计算出来存入 HBase,用户写 SQL 交互式查询的是 HBase 中预计算好的结果数据。最后将数据分析结果可以直接对 Web 以接口服务提供使用或者公司内部使用可视化工具展示使用。

以上无论批处理过程还是流处理过程,使用到的技术几乎离不开 Hadoop 生态圈。

ClickHouse

ClickHouse 是一个开源的,用于联机分析(OLAP)的列式数据库管理系统(DBMS-database manager system),它是面向列的,并允许使用 SQL 查询,实时生成分析报告。ClickHouse 最初是一款名为 Yandex Metrica 的产品,主要用于 WEB 流量分析。ClickHouse 的全称是 Click Stream,Data WareHouse,简称 ClickHouse。

ClickHouse 不是一个单一的数据库,它允许在运行时创建表和数据库,加载数据和运行查询,而无需重新配置和重新启动服务器。ClickHouse 同时支持列式存储和数据压缩,这是对于一款高性能数据库来说是必不可少的特性。一个非常流行的观点认为,如果你想让查询变得更快,最简单且有效的方法是减少数据扫描范围和数据传输时的大小,而列式存储和数据压缩就可以帮助我们实现上述两点,列式存储和数据压缩通常是伴生的,因为一般来说列式存储是数据压缩的前提。

OLAP场景的特征

  • 绝大多数是读请求。

  • 数据以相当大的批次(> 1000行)更新,而不是单行更新,或者根本没有更新。

  • 已添加到数据库的数据不能修改。

  • 对于读取,从数据库中提取相当多的行,但只提取列的一小部分。

  • 宽表,即每个表包含着大量的列。

  • 查询相对较少,通常每台服务器每秒查询数百次或更少。

  • 对于简单查询,允许延迟大约50毫秒。

  • 列中的数据相对较小:数字和短字符串,例如,每个URL 60个字节。

  • 处理单个查询时需要高吞吐量,每台服务器每秒可达数十亿行。

  • 事务不是必须的。

  • 对数据一致性要求低。有副本情况下,写入一个即可,后台自动同步。

  • 每个查询有一个大表。除了他以外,其他的都很小。

  • 查询结果明显小于源数据。数据经过过滤或聚合,因此结果适合于单个服务器的RAM中。

通过以上 OLAP 场景分析特点很容易可以看出,OLAP 场景与其他通常业务场景(例如 OLTP 或 K/V)有很大的不同,因此想要使用 OLTP 或 Key-Value 数据库去高效的处理分析查询场景,并不是非常完美的适用方案。例如,使用 OLAP 数据库去处理分析请求通常要优于使用 MongoDB 或 Redis 去处理分析请求。

1.1、完备的DBMS功能


ClickHouse 是一个数据库管理系统,而不仅是一个数据库,作为数据库管理系统具备完备的管理功能:

  • DDL(Data Definition Language - 数据定义语言):可以动态地创建、修改或删除数据库、表和视图,而无须重启服务。
  • DML(Data Manipulation Language):可以动态查询、插入、修改或删除数据。
  • 分布式管理:提供集群模式,能够自动管理多个数据库节点。
  • 权限控制:可以按照用户粒度设置数据库或者表的操作权限,保障数据的安全性。
  • 数据备份与恢复:提供了数据备份导出与导入恢复机制,满足生产环境的要求。

1.2、列式存储


目前大数据存储有两种方案可以选择,行式存储(Row-Based)和列式存储(Column-Based)。

列式存储.png
  • 行式存储在数据写入和修改上具有优势。行存储的写入是一次完成的,如果这种写入建立在操作系统的文件系统上,可以保证写入过程的成功或者失败,可以保证数据的完整性。列式存储需要把一行记录拆分成单列保存,写入次数明显比行存储多(因为磁头调度次数多,而磁头调度是需要时间的,一般在1ms~10ms),再加上磁头需要在盘片上移动和定位花费的时间,实际消耗更大。数据修改实际上也是一次写入过程,不同的是,数据修改是对磁盘上的记录做删除标记。行存储是在指定位置写入一次,列存储是将磁盘定位到多个列上分别写入,这个过程仍是行存储的列数倍。所以,行式存储在数据写入和修改上具有很大优势。
  • 列式存储在数据读取和解析、分析数据上具有优势。数据读取时,行存储通常将一行数据完全读出,如果只需要其中几列数据的情况,就会存在冗余列,出于缩短处理时间的考量,消除冗余列的过程通常是在内存中进行的。列存储每次读取的数据是集合的一段或者全部,不存在冗余性问题。列式存储中的每一列数据类型是相同的,不存在二义性问题,例如,某列类型为整型,那么它的数据集合一定是整型数据,这种情况使数据解析变得十分容易。相比之下,行存储则要复杂得多,因为在一行记录中保存了多种类型的数据,数据解析需要在多种数据类型之间频繁转换,这个操作很消耗CPU,增加了解析的时间。所以,列式存储在数据读取和解析数据做数据分析上更具优势。

综上所述,行存储的写入是一次性完成,消耗的时间比列存储少,并且能够保证数据的完整性,缺点是数据读取过程中会产生冗余数据,如果只有少量数据,此影响可以忽略,数量大可能会影响到数据的处理效率。列存储在写入效率、保证数据完整性上都不如行存储,它的优势是在读取过程,不会产生冗余数据,这对数据完整性要求不高的大数据处理领域比较重要。一般来说,一个 OLAP 类型的查询可能需要访问几百万或者几十亿行的数据,但是 OLAP 分析时只是获取少数的列,对于这种场景列式数据库只需要读取对应的列即可,行式数据库需要读取所有的数据列,因此这种场景更适合列式数据库,可以大大提高 OLAP 数据分析的效率。ClickHouse 就是一款使用列式存储的数据库,数据按列进行组织,属于同一列的数据会被保存在一起,列与列之间也会由不同的文件分别保存,在对 OLAP 场景分析时,效率很高。

1.3、数据压缩


为了使数据在传输上更小,处理起来更快,可以对数据进行压缩,ClickHouse 默认使用 LZ4 算法压缩,数据总体压缩比可达 8:1。

ClickHouse 采用列式存储,列式存储相对于行式存储另一个优势就是对数据压缩的友好性。例如:有两个字符串 "'ABCDE","BCD",现在对它们进行压缩:

  • 压缩前:ABCDE_BCD
  • 压缩后:ABCDE_(5,3)

通过以上案例可以看到,压缩的本质是按照一定步长对数据进行匹配扫描,当发现重复部分的时候就进行编码转换。例如:(5,3) 代表从下划线往前数5个字节,会匹配上3个字节长度的重复项,即 "BCD"。当然,真实的压缩算法比以上举例更复杂,但压缩的本质就是如此,数据中重复性项越多,则压缩率越高,压缩率越高,则数据体量越小,而数据体量越小,则数据在网络中的传输越快,对网络带宽和磁盘IO的压力也就越小。

列式存储中同一个列的数据由于它们拥有相同的数据类型和现实语义,可能具备重复项的可能性更高,更利于数据的压缩。所以 ClickHouse 在数据压缩上比例很大。

1.4、向量化执行引擎


向量化执行引擎.png

在计算机系统的体系结构中,存储系统是一种层次结构,典型服务器计算机的存储层次结构如上图,上图表述了 CPU、CPU 三级缓存、内存、磁盘数据容量与数据读取速度对比,我们可以看出存储媒介距离 CPU 越近,则访问数据的速度越快。

从内存读取数据速度比磁盘读取数据速度要快1000倍,从 CPU 缓存中读取数据的速度比从内存中读取数据的速度最快要快 100 倍,从 CPU 寄存器中读取数据的速度为300ps(1纳秒 = 1000皮秒),比 CPU 缓存要快3倍还多。从寄存器中访问数据的速度,是从内存访问数据速度的300倍,是从磁盘中访问数据速度的30万倍。

如果能从 CPU 寄存器中访问数据对程序的性能提升意义非凡,向量化执行就是在寄存器层面操作数据,为上层应用程序的性能带来了指数级的提升。

向量化执行,可以简单地看作一项消除程序中循环的优化。

为了实现向量化执行,需要利用 CPU 的 SIMD(Single Instruction Multiple Data) 指令,即用单条指令操作多条数据。现代计算机系统概念中,它是通过数据并行以提高性能的一种实现方式,其他的还有指令级并行和线程级并行,它的原理是在 CPU 寄存器层面实现数据的并行操作。

ClickHouse 列式存储除了降低 IO 和存储的压力之外,还为向量化执行做好了铺垫,除了读取磁盘速度快之外,ClickHouse 还利用 SSE4.2 指令集实现向量化执行,为处理数据提升很大效率。

1.5、关系模型与标准SQL查询


相比 HBase 和 Redis 这类 NoSQL 数据库,ClickHouse 使用关系模型描述数据并提供了传统数据库的概念(数据库、表、视图和函数等)。ClickHouse 完全使用 SQL 作为查询语言(支持 GROUP BY、ORDER BY、JOIN、IN 等大部分标准 SQL),ClickHouse 提供了标准协议的 SQL 查询接口,可以与第三方分析可视化系统无缝集成对接。在 SQL 解析方面,ClickHouse 是大小写敏感,SELECT aSELECT A 所代表的语义不同。

1.6、多样化的表引擎


与 MySQL 类似,ClickHouse 也将存储部分进行了抽象,把存储引擎作为一层独立的接口。ClickHouse 拥有各种表引擎,每种表引擎决定不同的数据存储方式。其中每一种表引擎都有着各自的特点,用户可以根据实际业务场景的要求,选择合适的表引擎使用。将表引擎独立设计的好处是通过特定的表引擎支撑特定的场景,十分灵活,对于简单的场景,可直接使用简单的引擎降低成本,而复杂的场景也有合适的选择。

1.7、多线程与分布式


多线程与分布式.png

向量化执行是通过数据级并行的方式提升了性能,多线程处理是通过线程级并行的方式实现了性能的提升。相比基于底层硬件实现的向量化执行 SIMD,线程级并行通常由更高层次的软件层面控制,目前市面上的服务器都支持多核心多线程处理能力。由于 SIMD 不适合用于带有较多分支判断的场景,ClickHouse 也大量使用了多线程技术以实现提速,以此和向量化执行形成互补。ClickHouse 在数据存取方面,既支持分区(纵向扩展,利用多线程原理),也支持分片(横向扩展,利用分布式原理),可以说是将多线程和分布式的技术应用到了极致。

1.8、多主架构


HDFS、Spark、HBase 和 ElasticSearch 这类分布式系统,都采用了 Master-Slave 主从架构,由一个管控节点作为 Leader 统筹全局。而 ClickHouse 则采用 Multi-Master多主架构,集群中的每个节点角色对等,客户端访问任意一个节点都能得到相同的效果。这种多主的架构有许多优势,例如对等的角色使系统架构变得更加简单,不用再区分主控节点、数据节点和计算节点,集群中的所有节点功能相同。所以它天然规避了单点故障的问题,非常适合用于多数据中心、异地多活的场景。

1.9、交互式查询


Hive、SparkSQL、HBase 等都支持海量数据的查询场景,都拥有分布式架构,都支持列存、数据分片、计算下推等特性。ClickHouse 在设计上吸取了以上技术的优势,例如:Hive、SparkSQL 无法保证 90% 以上的查询在秒级内响应,在大数据量复杂查询下需要至少分钟级的响应时间,而 HBase 可以对海量数据做到交互式查询,由于不支持标准 SQL 在对数据做 OLAP 聚合分析时显得捉襟见肘。ClickHouse 吸取以上各个技术的优势,在复杂查询的场景下,它也能够做到极快响应,且无须对数据进行任何预处理加工。

1.10、数据分片与分布式查询


数据分片是将数据进行横向切分,这是一种在面对海量数据的场景下,解决存储和查询瓶颈的有效手段,是一种分治思想的体现。ClickHouse 支持分片,而分片则依赖集群。每个集群由一到多个分片组成,而每个分片则对应了 ClickHouse 的一个服务节点。分片的数量上限取决于节点数量:一个分片只能对应一个服务节点。

ClickHouse 拥有高度自动化的分片功能。ClickHouse 提供了 Local Table 本地表与 Distributed Table 分布式表的概念。一张本地表等同于一份数据的分片。而分布式表本身不存储任何数据,它是本地表的访问代理,其作用类似分库中间件。借助分布式表,能够代理访问多个数据分片,从而实现分布式查询。

这种设计类似数据库的分库和分表,十分灵活。例如在业务系统上线的初期,数据体量并不高,此时数据表并不需要多个分片。所以使用单个节点的本地表(单个数据分片)即可满足业务需求,待到业务增长、数据量增大的时候,再通过新增数据分片的方式分流数据,并通过分布式表实现分布式查询。

作者:ArthurHC

原文链接:https://www.jianshu.com/p/98ae92134f13

文章分类
后端
文章标签
版权声明:本站是系统测试站点,无实际运营。本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 XXXXXXo@163.com 举报,一经查实,本站将立刻删除。
相关推荐