Ceph —— ceph.conf常用参数

Ceph —— ceph.conf常用参数


以下是一些常用到的Ceph配置调优参数,默认值均为ceph_nautilus(14.2.1)源码中抄录,如有参数描述解释上的不妥之处,望指出。


  • mon_osd_cache_size
    • 要缓存到内存中的osdmap的最大数量
    • 默认值:500M
  • mon_osd_max_initial_pgs
    • 创建一个池的最大pg数(若用户指定了比这更多的PG,那集群将在创建池之后分割PG,以便达到目标)
    • 默认值:1024
  • mon_osd_min_up_ratio

    • 在把 OSD 标记为 down 前,保持处于 up 状态的 OSD 最小比例。
    • 默认值:0.3
  • mon_osd_min_in_ratio

    • 在把 OSD 标记为 out 前,保持处于 in 状态的 OSD 最小比例。
    • 默认值:0.75
  • mon_osd_down_out_interval

    • 在 OSD 停止响应多少秒后把它标记为 down 且 out 。
    • 默认值:600
  • mon_osd_nearfull_ratio

    • 告警水位,集群中的任一OSD空间使用率大于等于此数值时,集群将被标记为NearFull,此时集群将产生告警,并提示所有已经处于NearFull状态的OSD
    • 默认值:0.85
  • mon_osd_full_ratio

    • 报停水位,集群任意一个OSD使用率大于等于此数值时,集群将被标记为full,此时集群停止接受客户端的写入请求
    • 默认值:0.95
  • mon_osd_backfillfull_ratio

    • OSD空间使用率大于等于此数值时,拒绝PG通过Backfill方式迁出或者继续迁入本OSD
    • 默认值:0.90
  • osd_failsafe_full_ratio

    • PG执行包含写操作的op时,防止所在的OSD磁盘空间被100%写满的最后一道屏障,超过此限制时,op将直接被丢弃
    • 默认值:0.97
  • mon_max_pg_per_osd

    • 集群允许的每个OSD的最大pg数
    • 默认值:250(单个节点OSD少的情况,建议可以调大些)
  • osd_scrub_chunk_min
    • 在单个块中要清洗的对象的最小数量
    • 默认值:5
  • osd_scrub_chunk_max
    • 在单个块中要清洗的最大对象数
    • 默认值:25
  • osd_max_scrubs
    • 单个OSD上的最大并发清洗数量
    • 默认值:1
  • osd_scrub_begin_hour
    • scrub开始时间
    • 默认值:0
  • osd_scrub_end_hour
    • scrub结束时间
    • 默认值:24 (也就是说默认为24小时,这个自行把控)
  • osd_deep_scrub_interval
    • 深层 scrub 每个PG
    • 默认值:一周
  • osd_recovery_max_active
    • 控制在单个OSD上,最多可以有多少个PG同时recover
    • 默认值:3

如需更多参数详情,可以git一下自己用的ceph版本的源码来查询,更准确一些

猜你喜欢

转载自www.cnblogs.com/shu-sheng/p/12149617.html