Ceph 架構(gòu)及性能優(yōu)化
對分布式存儲系統(tǒng)的優(yōu)化離不開以下幾點:
硬件層面
硬件規(guī)劃
SSD選擇
BIOS設(shè)置
軟件層面
Linux OS
Ceph Configurations
PG Number調(diào)整
CRUSH Map
其他因素
硬件層面
1、CPU
ceph-osd進程在運行過程中會消耗CPU資源,所以一般會為每一個ceph-osd進程綁定一個CPU核上。
ceph-mon進程并不十分消耗CPU資源,所以不必為ceph-mon進程預留過多的CPU資源。
ceph-msd也是非常消耗CPU資源的,所以需要提供更多的CPU資源。
2、內(nèi)存
ceph-mon和ceph-mds需要2G內(nèi)存,每個ceph-osd進程需要1G內(nèi)存。
3、網(wǎng)絡(luò)
萬兆網(wǎng)絡(luò)現(xiàn)在基本上是跑Ceph必備的,網(wǎng)絡(luò)規(guī)劃上,也盡量考慮分離cilent和cluster網(wǎng)絡(luò)。網(wǎng)絡(luò)接口上可以使用bond來提供高可用或負載均衡。
4、SSD
SSD在ceph中的使用可以有幾種架構(gòu)
a、ssd作為Journal
b、ssd作為高速ssd pool(需要更改crushmap)
c、ssd做為tier pool
5、BIOS
a、開啟VT和HT,VH是虛擬化云平臺必備的,HT是開啟超線程單個處理器都能使用線程級并行計算。
b、關(guān)閉節(jié)能設(shè)置,可有一定的性能提升。
c、NUMA思路就是將內(nèi)存和CPU分割為多個區(qū)域,每個區(qū)域叫做NODE,然后將NODE高速互聯(lián)。node內(nèi)cpu與內(nèi)存訪問速度快于訪問其他node的內(nèi)存, NUMA可能會在某些情況下影響ceph-osd 。解決的方案,一種是通過BIOS關(guān)閉NUMA,另外一種就是通過cgroup將ceph-osd進程與某一個CPU Core以及同一NODE下的內(nèi)存進行綁定。但是第二種看起來更麻煩,所以一般部署的時候可以在系統(tǒng)層面關(guān)閉NUMA。CentOS系統(tǒng)下,通過修改/etc/grub.conf文件,添加numa=off來關(guān)閉NUMA。
軟件層面
1、Kernel pid max
echo 4194303 > /proc/sys/kernel/pid_max
2、設(shè)置MTU,交換機端需要支持該功能,系統(tǒng)網(wǎng)卡設(shè)置才有效果
配置文件追加MTU=9000
3、read_ahead, 通過數(shù)據(jù)預讀并且記載到隨機訪問內(nèi)存方式提高磁盤讀操作
echo "8192" > /sys/block/sda/queue/read_ahead_kb
4、swappiness, 主要控制系統(tǒng)對swap的使用
echo "vm.swappiness = 0"/>etc/sysctl.conf ; sysctl –p
5、I/O Scheduler,SSD要用noop,SATA/SAS使用deadline
echo "deadline" >/sys/block/sd[x]/queue/scheduler
echo "noop" >/sys/block/sd[x]/queue/scheduler
6、ceph.conf 配置選項
[global]#全局設(shè)置
fsid = 88caa60a-e6d1-4590-a2b5-bd4e703e46d9 #集群標識ID
mon host = 10.0.1.21,10.0.1.22,10.0.1.23 #monitor IP 地址
auth cluster required = cephx #集群認證
auth service required = cephx #服務認證
auth client required = cephx #客戶端認證
osd pool default size = 2 #最小副本數(shù)
osd pool default min size = 1 #PG 處于 degraded 狀態(tài)不影響其 IO 能力,min_size是一個PG能接受IO的最小副本數(shù)
osd pool default pg num = 128 #pool的pg數(shù)量
osd pool default pgp num = 128 #pool的pgp數(shù)量
public network = 10.0.1.0/24 #公共網(wǎng)絡(luò)(monitorIP段)
cluster network = 10.0.1.0/24 #集群網(wǎng)絡(luò)
max open files = 131072 #默認0#如果設(shè)置了該選項,Ceph會設(shè)置系統(tǒng)的max open fds
mon initial members = controller1, controller2, compute01
#初始monitor (由創(chuàng)建monitor命令而定)
##############################################################
[mon]
mon data = /var/lib/ceph/mon/ceph-$id
mon clock drift allowed = 1 #默認值0.05,monitor間的clock drift
mon osd min down reporters = 13 #默認值1,向monitor報告down的最小OSD數(shù)
mon osd down out interval = 600 #默認值300,標記一個OSD狀態(tài)為down和out之前ceph等待的秒數(shù)
##############################################################
[osd]
osd data = /var/lib/ceph/osd/ceph-$id
osd journal size = 20000 #默認5120,osd journal大小
osd journal = /var/lib/ceph/osd/$cluster-$id/journal #osd journal位置
osd mkfs type = xfs #格式化系統(tǒng)類型
osd mkfs options xfs = -f -i size=2048 #強制格式化
filestore xattr use omap = true #默認false,為XATTRS使用object map,EXT4文件系統(tǒng)時使用,XFS或者btrfs也可以使用
filestore min sync interval = 10 #默認0.1,從日志到數(shù)據(jù)盤最小同步間隔(seconds)
filestore max sync interval = 15 #默認5,從日志到數(shù)據(jù)盤最大同步間隔(seconds)
filestore queue max ops = 25000 #默認500,數(shù)據(jù)盤最大接受的操作數(shù)
filestore queue max bytes = 1048576000 #默認100,數(shù)據(jù)盤一次操作最大字節(jié)數(shù)(bytes
filestore queue committing max ops = 50000 #默認500,數(shù)據(jù)盤能夠commit的操作數(shù)
filestore queue committing max bytes = 10485760000 #默認100,數(shù)據(jù)盤能夠commit的最大字節(jié)數(shù)(bytes)
filestore split multiple = 8 #默認值2,#前一個子目錄分裂成子目錄中的文件的最大數(shù)量
filestore merge threshold = 40 #默認值10,#前一個子類目錄中的文件合并到父類的最小數(shù)量
filestore fd cache size = 1024 #默認值128,#對象文件句柄緩存大小
journal max write bytes = 1073714824 #默認值1048560,journal一次性寫入的最大字節(jié)數(shù)(bytes)
journal max write entries = 10000 #默認值100,journal一次性寫入的最大記錄數(shù)
journal queue max ops = 50000 #默認值50,journal一次性最大在隊列中的操作數(shù)
journal queue max bytes = 10485760000 #默認值33554432,journal一次性最大在隊列中的字節(jié)數(shù)(bytes)
osd max write size = 512 #默認值90,OSD一次可寫入的最大值(MB)
osd client message size cap = 2147483648 #默認值100,客戶端允許在內(nèi)存中的最大數(shù)據(jù)(bytes)
osd deep scrub stride = 131072 #默認值524288,在Deep Scrub時候允許讀取的字節(jié)數(shù)(bytes)
osd op threads = 16 #默認值2,并發(fā)文件系統(tǒng)操作數(shù)
osd disk threads = 4 #默認值1,#OSD密集型操作例如恢復和Scrubbing時的線程
osd map cache size = 1024 #默認值500,保留OSD Map的緩存(MB)
osd map cache bl size = 128 #默認值50,OSD進程在內(nèi)存中的OSD Map緩存(MB)
osd mount options xfs = "rw,noexec,nodev,noatime,nodiratime,nobarrier" #默認值rw,noatime,inode64,Ceph OSD xfs Mount選項
osd recovery op priority = 2 #默認值10,恢復操作優(yōu)先級,取值1-63,值越高占用資源越高
osd recovery max active = 10 #默認值15,同一時間內(nèi)活躍的恢復請求數(shù)
osd max backfills = 4 #默認值10,一個OSD允許的最大backfills數(shù)
osd min pg log entries = 30000 #默認值3000,修建PGLog是保留的最大PGLog數(shù)
osd max pg log entries = 100000 #默認值10000,修建PGLog是保留的最大PGLog數(shù)
osd mon heartbeat interval = 40 #默認值30,OSD ping一個monitor的時間間隔(默認30s)
ms dispatch throttle bytes = 1048576000 #默認值 104857600,等待派遣的最大消息數(shù)
objecter inflight ops = 819200 #默認值1024 ,客戶端流控,允許的最大未發(fā)送io請求數(shù),超過閥值會堵塞應用io,為0表示不受限
osd op log threshold = 50 #默認值5,#一次顯示多少操作的log
osd crush chooseleaf type = 0 #默認值為1,CRUSH規(guī)則用到chooseleaf時的bucket的類型
##############################################################
[client]
rbd cache = true #默認值 true ,RBD緩存
rbd cache size = 335544320 #默認值33554432,RBD緩存大小(bytes)
rbd cache max dirty = 134217728 #默認值25165824,緩存為write-back時允許的最大dirty字節(jié)數(shù)(bytes),如果為0,使用write-through
rbd cache max dirty age = 30 #默認值1,在被刷新到存儲盤前dirty數(shù)據(jù)存在緩存的時間(seconds)
rbd cache writethrough until flush = false
#默認值true,該選項是為了兼容linux-2.6.32之前的virtio驅(qū)動,避免因為不發(fā)送flush請求,數(shù)據(jù)不回寫。
#設(shè)置該參數(shù)后,librbd會以writethrough的方式執(zhí)行io,直到收到第一個flush請求,才切換為writeback方式。
rbd cache max dirty object = 2
#默認值0,最大的Object對象數(shù),默認為0,表示通過rbd cache size計算得到,librbd默認以4MB為單位對磁盤Image進行邏輯切分。
#每個chunk對象抽象為一個Object;librbd中以O(shè)bject為單位來管理緩存,增大該值可以提升性能。
rbd cache target dirty = 235544320
#默認值16777216,開始執(zhí)行回寫過程的臟數(shù)據(jù)大小,不能超過 rbd_cache_max_dirty
7、PG Number
PG和PGP數(shù)量一定要根據(jù)OSD的數(shù)量進行調(diào)整,計算公式如下,但是最后算出的結(jié)果一定要接近或者等于一個2的指數(shù)。
Total PGs = (Total_number_of_OSD * 100) / max_replication_count
例:有100個osd,2副本,5個pool
Total PGs =100*100/2=5000
每個pool 的PG=5000/5=1000,那么創(chuàng)建pool的時候就指定pg為1024
ceph osd pool create pool_name 1024
8、修改crush map
Crush map可以設(shè)置不同的osd對應到不同的pool,也可以修改每個osd的weight
9、其他因素
ceph osd perf
通過osd perf可以提供磁盤latency的狀況,如果延時過長,應該剔除osd