Ceph
Ceph
Ceph 最初是一项关于存储系统的 PhD 研究项目,由 Sage Weil 在 University of California, Santa Cruz(UCSC)实施。Ceph 是开源分布式存储,也是主线 Linux 内核(2.6.34)的一部分。
Ceph 最初是一项关于存储系统的 PhD 研究项目,由 Sage Weil 在 University of California, Santa Cruz(UCSC)实施。Ceph 是开源分布式存储,也是主线 Linux 内核(2.6.34)的一部分。

问题

互联网服务分布式存储·2020-04-03
zhuqibs · Adidas 擅长领域:云计算, 服务器, 存储
58 会员关注
这好像有点频道对不上啊, (1)使用nfs,你是在用共享存储,共享存储和分布式存储,是完全不相同的两个事物,结合在一起,好像没有这么做的。(2)ceph是在每台服务器上部署ceph软件,每台服务器所管理的磁盘组合起来,有的磁盘是mds,有的是watch,有的是osd,构成一个大的分布式存储。(3)如果这些服...
互联网服务软件定义存储·2020-04-03
zhuqibs · Adidas 擅长领域:云计算, 服务器, 存储
58 会员关注
CRUSH 图主要有 4 个主要段落设备 由任意对象存储设备组成,即对应一个 ceph-osd 进程的存储器。 Ceph 配置文件里的每个 OSD 都应该有一个设备。桶类型: 定义了 CRUSH 分级结构里要用的桶类型( types ),桶由逐级汇聚的存储位置(如行、机柜、机箱、主机等等)及其权重组成。桶例程...
IT其它Ceph·2020-04-01
zhuqibs · Adidas 擅长领域:云计算, 服务器, 存储
58 会员关注
作为生产系统,有一个dashboard是很有必要的。(1)建议滚动升级到L版(2)寻求是否有其他第三方的dashboard可供J版使用;(3)根据ceph api接口,自己开发一个dashboard
互联网服务Ceph·2020-04-01
zhuqibs · Adidas 擅长领域:云计算, 服务器, 存储
58 会员关注
采用增加节点的方法(1)首先打通新老机房的网络环境(2)然后在新机房增加建立老机房的相同数量的osd节点和mds节点(这些都是标准的做法)(3)然后,停止老机房的osd节点,让系统把数据同步到新的机房节点osd去(4)最后,停止老机房的master节点缺点,需要两套设备变通方法,一个个迁移,很麻烦(2.1)关...
硬件生产分布式存储·2020-03-26
youki2008 · DDT 擅长领域:服务器, 云计算, 数据库
257 会员关注
作者:知乎用户 链接:https://www.zhihu.com/question/26993542/answer/129451667 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 对于分布式文件系统应用,大致有以下场景大文件冷数据,比如片库并行读写,高though put,比如HPC 和视频在线编...
IT其它Ceph·2020-03-19
zhuqibs · Adidas 擅长领域:云计算, 服务器, 存储
58 会员关注
文档中写了设置名字的命令**ceph-deploy --cluster mydom new _ceph-node_**但是同时,又写了没有必要去设置集群名字。应该是原先是有这功能的,但后来被开发小组移除了,以下是移除该功能的公告,供参考http://lists.ceph.com/pipermail/ceph-users-ceph.com/2017-June/018497....
保险分布式存储·2020-01-14
智诩 · hanergy 擅长领域:存储, 灾备, 服务器
19 会员关注
/dev/sdb1 分区删除清理磁盘:ceph-deploy disk zap ceph2:/dev/sdb创建 OSD:ceph-deploy osd create ceph2:sdb:/dev/sdd1结果OSD就回来了:[root@ceph1:~]# ceph-deploy osd create ceph2:sdb:/dev/sdd1c^C [root@ceph1:~]# ceph osd tree # id weight type name ...
保险分布式存储·2020-01-14
智诩 · hanergy 擅长领域:存储, 灾备, 服务器
19 会员关注
1)将该 osd 设置为 out[root@ceph1:/home/s1]# ceph osd out osd.1 marked out osd.1.2)集群做 recovery2017-06-03 01:54:21.596632 mon.0 [INF] osdmap e90: 4 osds: 4 up, 3 in 2017-06-03 01:54:21.608675 mon.0 [INF] pgmap v565: 256 pgs: 256 active+clean; 1422 MB...
保险分布式存储·2020-01-14
智诩 · hanergy 擅长领域:存储, 灾备, 服务器
19 会员关注
原因分析PG 的分布和 CRUSH ruleset 有关。我的集群当前只有一个默认的 ruleset:[root@ceph1:~]# ceph osd crush rule dump [ { "rule_id": 0, "rule_name": "replicated_ruleset", "ruleset": 0, "type": 1, "min_size": 1, "max_siz...
保险分布式存储·2020-01-13
月光满楼 · 南车青岛四方 擅长领域:存储, 灾备, 服务器
7 会员关注
原因分析-> 查看 ceph health detail[root@ceph1]# ceph health detail HEALTH_WARN 88 pgs stuck unclean pg 1.23 is stuck unclean for 337.342290, current state active+remapped, last acting [0,1] pg 0.1f is stuck unclean for 336.838743, current state ac...

描述

Ceph 最初是一项关于存储系统的 PhD 研究项目,由 Sage Weil 在 University of California, Santa Cruz(UCSC)实施。Ceph 是开源分布式存储,也是主线 Linux 内核(2.6.34)的一部分。
Ceph 最初是一项关于存储系统的 PhD 研究项目,由 Sage Weil 在 University of California, Santa Cruz(UCSC)实施。Ceph 是开源分布式存储,也是主线 Linux 内核(2.6.34)的一部分。
X社区推广
  • 提问题