ceph各个版本之间参数变化分析
ceph各个版本之间参数变化分析
zphj1987前言
本篇主要是分析ceph的版本之间参数的变化,参数变化意味着功能的变化,通过参数来分析增加,删除,修改了哪些功能,以及版本之间的变化,本篇主要通过导出参数,然后通过脚本去比对不同的版本的参数变化
14版本之前安装一个ceph-common,然后touch一个空配置文件就可以通过ceph –show-config拿到版本的配置文件
14版本之后需要安装好mon,并且这个命令取消了,通过下面的命令获取
1 | ceph config show-with-defaults mon.lab204|awk '{print $1,"=",$2}' |
处理过程
选取了6个版本的配置文件做分析
1 | [root@lab204 cephconf]# ll |
通过执行脚本输出比对结果
1 | sh ./compare-conf.sh ceph.conf.10.2.11 ceph.conf.12.2.13 > /tmp/compare.log |
比对结果如下
原始版本 | 比对版本 | 删除配置 | 改动配置 | 增加配置 |
---|---|---|---|---|
ceph.conf.10.2.11 | ceph.conf.12.2.13 | 78 | 182 | 394 |
ceph.conf.12.2.13 | ceph.conf.14.1.0 | 75 | 143 | 170 |
ceph.conf.14.1.0 | ceph.conf.14.2.0 | 5 | 7 | 8 |
ceph.conf.14.2.0 | ceph.conf.14.2.11 | 5 | 24 | 61 |
ceph.conf.14.2.11 | ceph.conf.15.2.4 | 55 | 14 | 105 |
得到版本的参数变化值以后,再挑选出来进行具体的分析即可,通过上面的版本可以看到从10的最后一个版本到现在差不多增加了600多个参数,也删除了200个参数左右,从整体上来说我们需要重点关注下新增的参数和变动的参数
ceph.conf.10.2.11到ceph.conf.12.2.13主要变化
- mon_pg_stuck_threshold 从300秒调整为60秒,判断pg为stuck状态的
- mon_stat_smooth_intervals 统计pgmap从最近的2个调整为最近的6个
- mon_osd_cache_size mon保留的osdmap从10调整为500
- mon_osd_down_out_interval 从down到out的时间从300秒调整为600秒
- mon_keyvaluedb 从leveldb换成了rocksdb
- mds_cache_size 从100000调整为0也就是不限制
- mds_log_max_segments 从30调整为128 控制Behind on trimming的
- osd_backfill_retry_interval backfill的重试间隔从10调整为30
- osd_map_max_advance pg检查OSDMap增量版本时每次检查的最大版本数量从150调整为40
- osd_map_cache_size 从200调整为50
- osd_map_message_max 从100调整为40 这个在老版本里面大了会影响稳定性(3804)
- osd_map_share_max_epochs 从100 调整为40
- osd_op_num_threads_per_shard 每个缓存队列的线程数从2调整为0
- osd_op_num_shards 缓存队列从5调整为0
- osd_pg_epoch_persisted_max_stale 从150调整为40
- osd_max_object_size 从107374182400调整为128M,超大对象可能影响稳定性,cephfs的可能调整这个设置不成功
- rbd_localize_parent_reads rbd的本地就近读取功能从开启调整为关闭了,官方有个pr说关闭更安全(16882)
- rgw_thread_pool_size 线程池从100调整为512,rgw的并发能力提高了
上面的是主要的一些变化,bluestore的一些参数就不记录了,因为jewel里面的bluestore基本是实验版本的
增加了394个参数,大部分是bluestore的,也有其它的参数的,增加的参数后面再分析
ceph.conf.12.2.13到ceph.conf.14.1.0主要变化
bluefs_buffered_io 从关闭得到开启,但是这个开启后会在后期引起swap的调用,引起整体性能降低(Redhat4967421),红帽自己是准备把这个参数关闭(GitHub pr 34297)后面版本应该也关闭了
fuse_big_writes 从true改成了false,false的时候是4K的写入,true的时候是128K的写入,对性能影响特别大(提出下降的问题),这个参数L版本还是true,这个版本改成了false,16562 pr这个pr可以看到,是因为libfuse去掉了这个参数了, 还要看下这个参数-o max_write ,用了fuse需要关注下版本,CentOS软件包libfuse2.9.2。因此,使用ceph-fuse在CentOS上升级到Mimi 导致fuse中的4k写 性能非常差的层
1
2
3[root@lab204 cephconf]# rpm -qa|grep fuse
fuse-libs-2.9.2-11.el7.x86_64
fuse-2.9.2-11.el7.x86_64也就是如果fuse是这个版本,就手动开启,如果把fuse升级了,那么性能就不用这个参数控制了
log_max_recent log最近的事件从500调整为10000
mon_client_hunt_parallel 客户端寻找mon的时候可以控制寻找mon的数量,从2改成了3了
mon config key max entry size 配置的key的大小从4096调整为65536(单位bytes)
mon_mgr_mkfs_grace 从60调整为120 如果120s没有活跃的mgr就用warn警告调整为error警告
osd_deep_scrub_large_omap_object_key_threshold判断omap超大的标准,从20万调整为200万,这个参数存在争议,后面看下最终是多少issue 40583
osd_max_pg_log_entries 从10000调整为3000 (这个参数是控制recover和backfill的,调整到足够小,就是强制做backfill了(红帽文档)) To force backfill rather than recovery, set osd_min_pg_log_entries to 1, and set osd_max_pg_log_entries to 2
osd_min_pg_log_entries 从1500调整为3000 (也有相关的问题内存占用)
rgw_reshard_bucket_lock_duration reshard的时候,锁定对象的时间从120秒调整为360秒
ceph.conf.14.1.0到ceph.conf.14.2.0版本变化
- rbd_skip_partial_discard 从false改成了true,跟discard 有关的,If true, the block device will skip zeroing a range when trying to discard a range inside an object.
- rgw_frontends 默认从civetweb变成了beast
ceph.conf.14.2.0到ceph.conf.14.2.11版本变化
- bluefs_allocator 从bitmap调整为hybrid,V14.2.11 新加入的功能(相关pr)
- bluefs_buffered_io这个版本调整为false了
- bluestore_block_size 从10G调整为100G了
- bluestore_fsck_on_mount_deep 从true调整为false了
- bluestore_fsck_on_umount_deep 从true调整为false了
- bluestore_log_omap_iterator_age 从1调整为5
- bluestore_min_alloc_size_ssd从16384调整为4096这个跟性能有关的,The default value of bluestore_min_alloc_size_ssd has been changed to 4K to improve performance across all workloads.
- fuse_big_writes又从false调整为true了
- mon_pg_warn_min_per_osd从30调整为0了
- osd_client_message_cap从100调整为0
- osd_deep_scrub_large_omap_object_key_threshold 这个又从2000000调整为200000了
- rocksdb_pin_l0_filter_and_index_blocks_in_cache从true调整为false了
ceph.conf.14.2.11到ceph.conf.15.2.4版本变化
- mds_cache_memory_limit mds的缓存从1073741824调整为4294967296
- osd_client_message_cap 从0 调整为100了
- osd_max_omap_entries_per_request从131072调整为1024了
- osd_max_pg_log_entries 从3000调整为10000 这个上个版本调整过,又动了
- osd_min_pg_log_entries 从3000调整为250了 这个上个版本调整过,又动了
- osd_op_queue_cut_off 从low调整为high
- osd_pool_default_pg_autoscale_mode 从warn调整为了on了
- rgw_bucket_index_max_aio从9调整为128
- rgw_lc_lock_max_time 从60调整为90
总结
本篇是提供了一个查找功能变化点的思路,当然也可以通过github的pr来分析,配置文件过多的时候,我们就分析重点的地方即可
变更记录
Why | Who | When |
---|---|---|
创建 | 武汉-运维-磨渣 | 2020-09-15 |