使用SSD增强PVE上的Ceph性能操作步骤 系统优化

xmbillion 2021-6-5 3558

使用SSD增强PVE上的Ceph性能操作步骤

资料来源网络
  • 相关知识
  • 早期ceph使用xfs文件系统存储数据,具体的做法是把一个OSD分成两个分区,默认会创建一个容量为5G的分区作为数据
  • 日志,然后剩下的磁盘空间是一个分区,用户实际使用数据都在这里。
  • 新的ceph使用新的文件系统bluestore,划分了block.wal、block.db和数据分区
  • block.wal:用于BlueStore的内部日志或写前日志
  • block.db:用于存储BlueStore的内部元数据,基于RocksDB实现,类似索引提高性能
  • 根分区:根分区分做两部分:
  • 1.一个小的分区使用XFS进行格式化,并包含OSD的基本元数据。这个数据目录包含关于OSD的信息(它的标识符,它属于哪个
  • 集群,以及它的私有密匙环)。
  • 2.设备的其余部分通常是一个大的分区,它占用了由BlueStore直接管理的设备的其余部分,其中包含所有实际的数据。
  • 访问顺序:wal>db>根
  • 这里就提到第一个坑:
  • 使用pve自带的图形操作界面创建OSD,即使是在指定了”日志/数据库磁盘”为SSD的情况下,也只会在SSD上生成一个大
  • 小为1G的block.db,然后在数据盘上分出一个容量105MB的XFS分区。
  • 所以创建OSD不能使用PVE自带的图形界面,而是直接使用命令行操作,指定预先划分好的wal和db分区。
收藏列表 (0)
还没有人收藏过本帖~
最新回复 (1)
返回