ES数据写入调优
禁用Swapping
大多数操作系统都尽可能多地为文件系统缓存使用内存,并切换出未使用的应用程序内存。这可能导致部分JVM堆被交换到磁盘上。
对于性能和节点的稳定性来说,这种交换是非常糟糕的,应该不惜一切代价避免。它可能导致垃圾收集持续几分钟而不是几毫秒,这可能导致节点响应缓慢,甚至脱离集群。
Linux/Unix系统中使用mlockall在RAM中锁定进程的地址空间,阻止Elasticsearch内存被交换出去,从而实现禁用Swapping。
按以下步骤启用“bootstrap.memory_lock”参数。
1.以管理员帐号登录FusionInsight Manager界面,选择“集群 > 待操作集群的名称 > 服务 > Elasticsearch > 配置 >
全部配置 > 自定义”。
2.添加新的参数“bootstrap.memory_lock”,设置值为“true”,单击“保存”按钮,保存配置并重启Elasticsearch服务。
3.使用root用户登录任意Elasticsearch数据节点,执行如下命令验证是否修改成功。执行命令后结果显示包含“true”则表示修改成功。
curl -XGET "http://ip:httpport/_nodes?filter_path=**.mlockall"
1 让分片均匀分布
针对于5个以上机器节点,为了让各个实例上的分片均匀分布,添加如下参数,设置每个索引在单个实例上的分片个数,如下所示为每个索引在每个实例上的分片为2个。
`curl -XPUT "http://ip:httpport/myindex/_settings?pretty' -H 'Content-
Type:application/json' -d ' {
"index.routing.allocation.total_shards_per_node":"2" }'`
2 修改索引刷新时间及副本数
默认“index.refresh_interval”
为“1s”
,即每秒都会强制生成1个新的segments文件,增大索引刷新时间,可以生成更大的segments文件,有效降低IO并减少segments
merge的压力,该配置项可以建索引时指定(或者配置到template里去)。
如果只是单纯导入数据,不需要做实时查询,可以把refresh禁用(即设置index.refresh_interval为-1),并设置“index.number_of_replicas”为“0”,当然这样设置会有数据丢失风险。等到数据完成导入后,再把参数设置为合适的值。
命令为单索引下操作如下所示,同时也支持多索引(索引名按逗号分隔)和全索引(用*通配符)操作。
curl -XPUT "http://ip:httpport/myindex/_settings" -H 'Content-Type: application/json' -d'
{
"number_of_replicas": 0,
"refresh_interval": "180s"
}'
3.修改merge参数以及线程数
Elasticsearch写入数据时,refresh刷新会生成1个新的segment,segments会按照一定的策略进行索引段合并merge。merge的频率对写入和查询的速度都有一定的影响,如果merge频率比较快,会占用较多的IO,影响写入的速度,但同时segment个数也会比较少,可以提高查询速度。所以merge频率的设定需要根据具体业务去权衡,同时保证写入和查询都相对快速。Elasticsearch默认使用TieredMergePolicy,可以通过参数去控制索引段合并merge的频率:
1.参数“index.merge.policy.floor_segment”
,Elasticsearch避免产生很小的segment,小于这个阈值的所有的非常小的segment都会merge直到达到这个floor的size,默认是2MB。
2.参数“index.merge.policy.max_merge_at_once”
,一次最多只merge多少个segments,默认是10。
3.参数“index.merge.policy.max_merged_segment”
,超过多大size的segment不会再做merge,默认是5GB。
4.参数“index.merge.policy.segment_per_tier”
默认为10,表示每个tier允许的segment个数,注意这个值要大于等于“index.merge.policy.max_merge_at_once”
值,否则这个值会先于最大可操作数到达,就会立刻做merge,这样会造成频繁merge。
5.参数`“ index.merge.scheduler.max_thread_count
”,单个shard上可能同时合并的最大线程数。默认会启动
Math.max(1, Math.min(4,
Runtime.getRuntime().availableProcessors() /
2))`个线程进行merge操作,适用于SSD固态硬盘。但是如果硬盘是机械硬盘,很容易出现IO阻塞,将线程数设置为1。
一般情况下,通过调节参数“index.merge.policy.max_merge_at_once”
和“index.merge.policy.segment_per_tier”
去控制merge的频率。
image.png
修改参数命令如下示例:
curl -XPUT "http://ip:httpport/myindex-001/_settings?pretty" -H 'Content-Type: application/json' -d'
{
"merge":{
"scheduler":{
"max_thread_count" : "1"
},
"policy":{
"segments_per_tier" : "20",
"max_merge_at_once": "20",
"floor_segment" : "2m",
"max_merged_segment" : "5g"
}
}
}'
相关文章
- 从本体论开始说起——运营商关系图谱的构建及应用
- 如何成为一名数据科学家?
- 从未见过的堂兄杀了人,你的DNA是关键证据
- 20个安全可靠的免费数据源,各领域数据任你挑
- 20个安全可靠的免费数据源,各领域数据任你挑
- 阿里云李飞飞:All in Cloud时代,云原生数据库优势明显
- 基于Hadoop生态系统的一高性能数据存储格式CarbonData(性能篇)
- 大数据告诉你:10年漫威,到底有多少角色
- TigerGraph:实时图数据库助力金融风控升级
- Splunk利用Splunk Connected Experiences和Splunk Business Flow 扩大数据访问
- 大数据开发常见的9种数据分析手段
- 以免在景区看人,我爬了5W条全国景点门票数据...
- 【实战解析】基于HBase的大数据存储在京东的应用场景
- 数据科学家告诉你哪些计算机科学书籍是你应该看的
- Kafka作为大数据的核心技术,你了解多少?
- Spring Boot 整合 Redis 实现缓存操作
- 大数据学习必须掌握的五大核心技术有哪些?
- 基于Antlr在Apache Flink中实现监控规则DSL化的探索实践
- 甲骨文再次被Gartner评为分析型数据管理解决方案魔力象限领导者
- 爬取吴亦凡微博102118条转发数据,扒一扒流量的真假