Doris Compaction机制总结

Doris Compaction机制总结1 参考文档 Doris 最佳实践 Compaction 调优 1 Doris 最佳实践 Compaction 调优 2 Doris 全面解析 DorisCompact 机制解析按顺序读完这三篇文章 就能对 Doris 的 compaction 机制很熟悉了 2 总结 2 1 读写方式 2 1 1 写入 Doris 数据写入模型使用了 LSM Tree 随机写变为顺序写 面向写优化 数据追加的方式写入磁盘 2 1 2 读取读逻辑上 需要通过 Merge on Read 方式 2 2 3 compaction 目的

1、参考文档

顺序读完这三篇文章,就能对Doris的compaction机制很熟悉了

2、总结

2.1、读写方式

2.1.1、写入

Doris数据写入模型使用了LSM-Tree(随机写变为顺序写,面向写优化),数据追加的方式写入磁盘

2.1.2、读取

读逻辑上,需要通过Merge-on-Read方式

2.2.3、compaction目的

  • 一是避免在读取时大量的 Merge 操作
  • 二是避免大量的数据版本导致的随机IO

2.2、Compaction优点

  • 数据更加有序
  • 消除数据变更
  • 增加数据聚合度

2.3、Compaction 的问题

合理的设置表的分区、分桶和副本数量,避免过多的分片,可以降低Compaction的开销。

2.4、数据版本的产生

2.5、Base & Cumulative Compaction

如果只有 Base Compaction,则每次增量数据都要和全量的基线数据合并,写放大问题会非常严重,并且每次 Compaction 都相当耗时。

在合理范围内,尽量减少 Base Compaction 操作。

2.6、数据分片选择策略

tablet的“读取频率” 和 “版本数量” 会根据各自的权重,综合计算出一个 Compaction 分数,分数越高的分片,优先做 Compaction。

  • compaction_tablet_scan_frequency_factor:“读取频率” 的权重值,默认为 0。
  • compaction_tablet_compaction_score_factor:“版本数量” 的权重,默认为 1。

“读取频率” 的权重值默认为0,即默认仅考虑 “版本数量” 这个因素。

2.7、Compaction 是一个 生产者-消费者 模型

2.7.1、生产者

generate_compaction_tasks_min_interval_ms
每生产一轮compaction任务,producer线程会休眠10ms。

2.7.2、消费者

Doris 限制了每个磁盘上能够同时进行的 Compaction 任务数量,以及节点整体的任务数量

compaction_task_num_per_disk:每个磁盘上的任务数,默认为2。该参数必须大于等于2,以保证 BC 和 CC 任务各自至少有一个线程。

max_compaction_threads:消费者线程,即Compaction线程的总数。默认为 10

total_permits_for_compaction_score:Compaction 任务配额,默认 10000

compaction_task_num_per_disk max_compaction_threads total_permits_for_compaction_score 

三个配置共同决定了节点所能承受的 Compaction 任务数量。

2.8、 数据版本选择策略

2.8.1、BC

base_compaction_num_cumulative_deltas:
一次 BC 任务最小版本数量限制。默认为5。该参数主要为了避免过多 BC 任务。当数据版本数量较少时,BC 是没有必要的

base_compaction_interval_seconds_since_last_operation
当 Doris 发现一个 tablet 长时间没有执行过 BC 任务时,也会触发 BC 任务。这个参数就是控制这个时间的,默认是86400,单位是

2.8.2、CC

  • num_based cumulative compaction是基于rowset的文件数量进行compaction的选择,该策略会在后面的版本中被丢弃。
  • size_based cumulative compaction策略通过计算每个rowset的大小来决定compaction的选择,可以显著地减少写放大的系数。

max_cumulative_compaction_num_singleton_deltas
一次 CC 任务最大的版本数量限制,默认1000

cumulative_size_based_compaction_lower_size_mbytes
一次 CC 任务最少的数据量,和min_cumulative_compaction_num_singleton_delta 同时(&&关系)判断。默认是 64,单位是 MB。

简单来说,默认配置下,就是从 CP 版本开始往后选取 rowset。最少选5个,最多选 1000 个,然后判断数据量是否大于阈值即可。

2.8.3、设置新的CP

cumulative_size_based_promotion_min_size_mbytes:最小晋升大小,默认 64,单位 MB。

cumulative_size_based_promotion_size_mbytes:最大晋升大小,默认 1024,单位 MB。

2.9、其他 Compaction 参数和注意事项

disable_auto_compaction:默认为 false,修改为 true 则会禁止 Compaction 操作。
该参数仅在一些调试情况,或者 compaction 异常需要临时关闭的情况下才需使用。

3、相关参数总结

 #选择tablet进行compaction时,计算 tablet score 的公式中 tablet scan frequency 的权重 compaction_tablet_scan_frequency_factor 0 #选择tablet进行compaction时,计算 tablet score 的公式中 compaction score的权重。 compaction_tablet_compaction_score_factor 1 #每生产一轮compaction任务,producer线程会休眠10ms。 generate_compaction_tasks_min_interval_ms 10 #Compaction任务的生产者每次连续生产多少轮cumulative compaction任务后生产一轮base compaction。 cumulative_compaction_rounds_for_each_base_compaction_round 9 #每个磁盘可以并发执行的compaction任务数量。 compaction_task_num_per_disk 2 #Compaction线程池中线程数量的最大值。 max_compaction_threads #被所有的compaction任务所能持有的 “permits” 上限,用来限制compaction占用的内存。 total_permits_for_compaction_score 10000 #Cumulative文件数目要达到的限制,达到这个限制之后会触发BaseCompaction base_compaction_num_cumulative_deltas 5 #BaseCompaction触发条件之一:上一次BaseCompaction距今的间隔 base_compaction_interval_seconds_since_last_operation 86400 #cumulative compaction策略:最小增量文件的数量 min_cumulative_compaction_num_singleton_deltas 5 #cumulative compaction策略:最大增量文件的数量 max_cumulative_compaction_num_singleton_deltas 100 #在size_based策略下,cumulative compaction进行合并时,选出的要进行合并的rowset的总磁盘大小大于此配置时, #才按级别策略划分合并。小于这个配置时,直接执行合并。单位是m字节。 #简单来说,默认配置下,就是从 CP 版本开始往后选取 rowset。最少选5个,最多选 1000 个,然后判断数据量是否大于阈值即可。 cumulative_size_based_compaction_lower_size_mbytes 64m #(CC输出的rowset大小)/(BC所有rowset大小)晋升比率(这是一个量级)。 cumulative_size_based_promotion_ratio 0.05#CC输出的rowset大小最小阈值 cumulative_size_based_promotion_min_size_mbytes:最小晋升大小,默认 64,单位 MB。 #CC输出的rowset大小最大阈值 cumulative_size_based_promotion_size_mbytes:最大晋升大小,默认 1024,单位 MB。 
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/233556.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • 汉罗塔编程_c语言斐波那契数列递归算法

    汉罗塔编程_c语言斐波那契数列递归算法汉罗塔C语言算法新手入门(3分钟学会)前言我相信大家在刚接触C语言时对汉罗塔递归算法有些头痛,现在依旧头痛的小朋友不要担心,你只要学完这篇文章,我相信你对汉罗塔算法十分感兴趣的。一看就会,不信试试?具备知识在看这篇文章之前,首先你得学会C语言函数知识点,仅此而已。1.直接上代码#include<stdio.h>intmain(){voidmove(intn,c…

    2022年10月12日
    2
  • socketpair原理_socket负载均衡

    socketpair原理_socket负载均衡描述先看下传统的CS模型,如下:总是一方发起请求,等待另一方回应。当一次传输完成之后,client端发起新的请求之后,server端才作出回应。那如何才能做到双向通信? 一种解决办法就是client端即使client,又是server,server端即使client也是server,如下:但是上述方面比较复杂,这时候就引入要分析的socketpair了。

    2022年10月14日
    3
  • python 数组反转

    python 数组反转python中有一个列表a=[1,2,3,4,5,6]如果想反转该数组怎么办呢?一行代码搞定-Python代码1a = a[::-1]

    2022年4月27日
    52
  • pycharm创建一个新项目_pycharm没有解释器怎么办

    pycharm创建一个新项目_pycharm没有解释器怎么办python和pycharm的安装可以查看我的上一篇日志https://mp.csdn.net/postedit/802364181,设置python文件的抬头,即新建一个python文件的时候,默认会添加如下的内容。点击:File-&gt;setting-&gt;Editor-&gt;CodeStyle-&gt;FileandCodeTemplates-&gt;PythonScript…

    2022年8月29日
    2
  • 简单说明什么是宏观社会环境和微观社会环境?_kafka是什么

    简单说明什么是宏观社会环境和微观社会环境?_kafka是什么Kafka通俗理解Apachekafka是消息中间件的一种,我发现很多人不知道消息中间件是什么,在开始学习之前,我这边就先简单的解释一下什么是消息中间件,只是粗略的讲解,目前kafka已经可以做更多的事情。举个例子,生产者消费者,生产者生产鸡蛋,消费者消费鸡蛋,生产者生产一个鸡蛋,消费者就消费一个鸡蛋,假设消费者消费鸡蛋的时候噎住了(系统宕机了),生产者还在生产鸡蛋,那新生产的鸡蛋就丢失了。…

    2022年10月7日
    2
  • Pytorch-BN层详细解读

    Pytorch-BN层详细解读Pytorch-BN层BN解决了InternalCovariateShift问题机器学习领域有个很重要的假设:独立同分布假设,即假设训练数据和测试数据是满足相同分布的。我们知道:神经网络的训练实际上就是在拟合训练数据的分布。如果不满足独立同分布假设,那么训练得到的模型的泛化能力肯定不好。再来思考一个问题:为什么传统的神经网络要求将数据归一化(训练阶段将训练数据归一化并记录均值和方差,测试…

    2022年10月14日
    2

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号