作者 | 腾讯开源团队
责编 | 伍杏玲
在腾讯金融科技数据应用部的全民BI项目里,我们每天面对超过10亿级的数据写入,提高es写入性能迫在眉睫,在最近的一次优化中,有幸参与到了Elasticsearch开源社区中。
背景
为了更便捷地分析数据,腾讯金融科技数据应用部去年推出了全民BI的系统。这个系统通过Elasticsearch进行基础的统计,超过10亿级的数据量需要尽可能快速地导入到es系统中。即使经过多次的参数优化,我们依然需要几个小时才能完成导入,这是系统此前存在的一大瓶颈。
在这样的背景下,我们开始决定进一步深入es,寻找优化点。
优化前的准备
我们准备了1000万的数据,并在原程序(Spark程序写入)上进行了几轮单机压测,得到了一些基本的性能数据。
机器配置:CPU 24核,内存 64G
ES基本配置:
-
堆内存31G
-
其他参数调整包括lock memory,translog.durability调整成async等(更详细的策略可以参见https://github.com/elastic/elasticsearch/issues/45371)
文档数:1000万,字段400个(没有text字段)
写入耗时:26分钟CPU:80%+
寻找理论值
在往下进入深水区之前,我们需要先回顾一下es本身,es本身是基于Lucene基础上设计的分布式搜索系统,在写入方面主要提供了:
-
事务日志和成组提交的机制提高写入性能并保证可靠性
-
提供Schema的字段定义(映射到Lucene的字段类型)
要进行优化,首先得验证一个问题:Lucene的极限速率能到达多少,所以我在我的本机上构建了这样的一个测试。
Macbook pro 15,6核12线程数据量1000万,每个document 400个字段,10个线程并发(考虑Mac CPU Turbo 4.5G ,服务器2.4G(24核),所以只采用10线程并发)验证写入耗时549s(约10分钟)。
26分钟 —> 10分钟,意味着理论上是可行的。那剩下的就看如何接近这个极限。因为那说明一定是es本身的一些默认特性导致了写入速率无法提升。
下面的介绍忽略了一些相对简单的参数调优,比如关闭docvalues,这个对于非text字段,es默认开启,对于不需要groupby的场景,是不必要的,这个可以减少不少性能。经过初步的参数优化写入耗时降低到了18分钟,这是后面继续往下优化的基础。
理解es写入的机制
es的写入流程(主分片节点)主要有下面的几步
-
根据文档ID获取文档版本信息,判断进行add或update操作
-
写Lucene:这里只写内存,会定期进行成组提交到磁盘生成新分段
-
写translog:写入文件
[ translog作用 ]
除了上面的直接流程,还有三个相关的异步流程
-
定期进行flush,对lucene进行commit
-
定期对translog进行滚动(生成新文件),更新check point文件
-
定期执行merge操作,合并lucene分段,这是一个比较消耗资源的操作,但默认情况下都是配置了一个线程。
优化第一步:参数调优
写Lucene前面已经优化过,那么第一步的文档查找其实是在所有分段中进行查找,因为只提供了一个线程进行merge,如果merge不及时,导致分段过的,必然影响文档版本这一块的耗时。
所以我们观察了写入过程中分段数的变化:
[ 写入过程中分段的变化 ]
观察发现,分段的增长速度比预期的快很多。按照默认配置,index_buffer=10%,堆内存31G的情况,按lucene的写分段机制,平均到每个线程,也有125M,分段产生的速度不应该那么快。而这个问题的根源就是flush_threshold_size默认值只有512M ,这个参数表示在当未提交的translog日志达到该阈值的时候进行一次刷盘操作。
[ 小分段的产生 ]
[ 调整后比较缓和的分段增长 ]
测试结果一看:18分钟!基本没有效果!
理论上可行的方案,为什么却没有效果,带着这个疑问继续潜入深水区。
优化继续:线程分析
这时候就需要进行堆栈分析了,多次取样后,发现了下面的一个频繁出现的现象:
[ 被堵塞的线程 ]
发现很多线程都停在了获取锁的等待上,而writeLock被rollGeneration占用了。
写线程需要获取readLockrollGeneration拿走了writeLock,会阻塞readLock。
而在高flush_threshold_size的配置下,rollGeneration发生了300+次,每次平均耗时560ms,浪费了超过168s,而这个时间里写入线程都只能等待,小分段的优化被这个抵消了。
这里有很多的关联关系,lush操作和rollGeneration操作是互斥的,因为flush耗时较长(5~10秒左右),在默认flush_threshold_size配置下,rollGeneration并没有这么频繁在100次左右,提高flush_threshold放大了这个问题。
初步优化方案提交
因为我们在写入过程中使用的translog持久化策略是async,所以我很自然的想到了把写日志和刷盘异步化。
[ 初版提交社区的方案 ]
一开始的方案则想引入disruptor,消除写线程之间的竞争问题,后面因为es的第三方组件检查禁止使用sun.misc.Unsafe (disruptor无锁机制基于Unsafe实现)而放弃。基于这个方案,测试结果终于出现了跨越:13分钟。
初版的方案问题比较多,但是它有两个特点:
-
足够激进:在配置为async策略时,将底层都异步化了
-
凸显了原方案的问题:让大家看到了Translog写入的影响
Elastic创始人加入讨论
没想到的是,在社区提交几次优化后,竟然吸引了大佬Simon Willnauer的加入。
Simon Willnauer
-
elastic公司创始人之一和技术Leader
-
Lucene Core Commiter and PMC Member
Simon的加入让我们重新复盘的整个问题。通过对关键的地方增加统计信息,我最终明确了关键的问题点在于FileChannel.force方法,这个操作是最耗时的一步。
sync操作会调用FileChannel.force,但没有在writer的对象锁范围中,所以影响较小。但是因为rollGeneration在writeLock中执行,所以阻塞的影响范围就变大了
跟社区讨论后,Simon最后建议了一个折中的小技巧,就是在关闭原translog文件之前(writeLock之外),先执行一次刷盘操作。
[ 代码修改 ]
这个调整的效果可以让每次rollGeneration操作的耗时从平均570ms降低到280ms,在我的基准测试中(配置flush_threhold_size=30G,该参数仅用于单索引压测设计,不能在生产环境使用),耗时会从18分钟下降到15分钟。
事实上,这并不是一个非常令人满意的解决方案,这里选择这个方案主要出于两点考虑:
1. 未来新的版本将考虑不使用Translog进行副分片的recovery,translog的滚动策略会进行调整(具体方案elasitc未透露)
2. 这个修改非常的风险非常小
提交社区
最后根据讨论的最终结论,我们重新提交了PR,提交了这个改动,并合并到了主干中。
总结和待续
下面是es写入中的影响关系和调用关系图,从图中可以看到各个因素直接的相互影响。
[ InternalEngine中的影响关系 ]
最近提交的优化实时上只优化了rollGeneration,而实际上这里还有一些优化空间trimUnreferenceReader,这个也在跟社区沟通中,并需要足够的测试数据证明调整的效果,这个调整还在测试中。
而在我们目前实际应用场景中,我们通过调整下面两个参数提高性能:
-
index.translog.flush_threshold_size 默认512M,可以适当调大,但不能超过indexBufferSize*1.5倍/(可能并发写的大索引数量),否则会触发限流,并导致JVM内存不释放!
-
index.translog.generation_threshold_size(默认64M,系统支持,但官方文档没有的参数,超过该阈值会产生新的translog文件),要小于index.translog.flush_threshold_size,否则会影响flush,进而触发限流机制。
参考文档
1. 张超《Elasticsearch源码解析与优化实战》
【END】
热 文 推 荐
☞华为有意向西方公司出售 5G 技术;iOS 13 被爆漏洞;GNOME 3.34 正式发布| 极客头条
☞2亿日活,日均千万级视频上传,快手推荐系统如何应对技术挑战?
点击阅读原文,输入关键词,即可搜索您想要的 CSDN 文章。
你点的每个“在看”,我都认真当成了喜欢
转载:https://blog.csdn.net/csdnnews/article/details/100840867