这好像有点频道对不上啊, (1)使用nfs,你是在用共享存储,共享存储和分布式存储,是完全不相同的两个事物,结合在一起,好像没有这么做的。(2)ceph是在每台服务器上部署ceph软件,每台服务器所管理的磁盘组合起来,有的磁盘是mds,有的是watch,有的是osd,构成一个大的分布式存储。(3)如果这些服...
CRUSH 图主要有 4 个主要段落设备 由任意对象存储设备组成,即对应一个 ceph-osd 进程的存储器。 Ceph 配置文件里的每个 OSD 都应该有一个设备。桶类型: 定义了 CRUSH 分级结构里要用的桶类型( types ),桶由逐级汇聚的存储位置(如行、机柜、机箱、主机等等)及其权重组成。桶例程...
作为生产系统,有一个dashboard是很有必要的。(1)建议滚动升级到L版(2)寻求是否有其他第三方的dashboard可供J版使用;(3)根据ceph api接口,自己开发一个dashboard
采用增加节点的方法(1)首先打通新老机房的网络环境(2)然后在新机房增加建立老机房的相同数量的osd节点和mds节点(这些都是标准的做法)(3)然后,停止老机房的osd节点,让系统把数据同步到新的机房节点osd去(4)最后,停止老机房的master节点缺点,需要两套设备变通方法,一个个迁移,很麻烦(2.1)关...
作者:知乎用户 链接:https://www.zhihu.com/question/26993542/answer/129451667 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 对于分布式文件系统应用,大致有以下场景大文件冷数据,比如片库并行读写,高though put,比如HPC 和视频在线编...
文档中写了设置名字的命令**ceph-deploy --cluster mydom new _ceph-node_**但是同时,又写了没有必要去设置集群名字。应该是原先是有这功能的,但后来被开发小组移除了,以下是移除该功能的公告,供参考http://lists.ceph.com/pipermail/ceph-users-ceph.com/2017-June/018497....
/dev/sdb1 分区删除清理磁盘:ceph-deploy disk zap ceph2:/dev/sdb创建 OSD:ceph-deploy osd create ceph2:sdb:/dev/sdd1结果OSD就回来了:[root@ceph1:~]# ceph-deploy osd create ceph2:sdb:/dev/sdd1c^C
[root@ceph1:~]# ceph osd tree
# id weight type name ...
1)将该 osd 设置为 out[root@ceph1:/home/s1]# ceph osd out osd.1
marked out osd.1.2)集群做 recovery2017-06-03 01:54:21.596632 mon.0 [INF] osdmap e90: 4 osds: 4 up, 3 in
2017-06-03 01:54:21.608675 mon.0 [INF] pgmap v565: 256 pgs: 256 active+clean; 1422 MB...
原因分析PG 的分布和 CRUSH ruleset 有关。我的集群当前只有一个默认的 ruleset:[root@ceph1:~]# ceph osd crush rule dump
[
{ "rule_id": 0,
"rule_name": "replicated_ruleset",
"ruleset": 0,
"type": 1,
"min_size": 1,
"max_siz...
原因分析-> 查看 ceph health detail[root@ceph1]# ceph health detail
HEALTH_WARN 88 pgs stuck unclean
pg 1.23 is stuck unclean for 337.342290, current state active+remapped, last acting [0,1]
pg 0.1f is stuck unclean for 336.838743, current state ac...