注意

本文档适用于 Ceph 的开发版本。

PG 计算器

Ceph 每个存储池 PG 计算器


说明
  1. 阅读下面的“关键点”以确认您对字段的理解。
  2. 从下拉菜单中选择一个 "Ceph 用例"
  3. 调整下面 "绿色" 阴影字段中的值。
    提示: 可以点击标题来更改整个表中的值。
  4. 您将看到建议的 PG 计数根据您的输入进行更新。
  5. 点击 "添加存储池" 按钮为新的存储池创建新的一行。
  6. 点击 图标删除特定的存储池。
  7. 有关所用逻辑和一些重要细节的更多信息,请参阅表格下方的区域。
  8. 调整所有值后,点击 "生成命令" 按钮以获取存储池创建命令。

 



建议的 PG 计数背后的逻辑
( 每个 OSD 的目标 PG ) x ( OSD 数量 ) x ( %数据 )
( 大小 )
  1. 如果上述计算值小于 ( OSD# ) / ( 大小 ) 的值,则将该值更新为 ( OSD# ) / ( 大小 ) 的值。这是为了确保通过为每个存储池的每个 OSD 分配至少一个主或辅助 PG 来实现均匀的负载/数据分布。
  2. 然后将输出值四舍五入到 最接近的 2 次方
    提示: 最接近的 2 次方对 CRUSH 算法的效率提供了微小的改进。
  3. 如果最接近的 2 次方低于原始值超过 25%,则使用下一个更高的 2 次方。
目标
  • 此计算和“关键点”部分中注明的目标范围的目的是确保有足够的放置组用于集群中的均匀数据分布,同时不会使每个 OSD 的 PG 比例过高而导致恢复和/或回填操作出现问题。
空或非活动存储池的影响
  • 空或非活动存储池不应被视为有助于集群中的均匀数据分布。
  • 然而,与这些空/非活动存储池相关的 PG 仍然会消耗内存和 CPU 开销。

由 Ceph 基金会为您呈现

Ceph 文档是由非营利性 Ceph 基金会 资助和托管的社区资源。如果您希望支持这项工作和我们的其他努力,请考虑 立即加入