xenserver使用ceph的rbd的方法 首先安装的xenserver6.5的环境,看到有地方有提到这个上面可以安装rbd的支持,网上有一种方式是libvirt+kvm方式,因为ceph对libviet是原生支持的,但是xenserver底层是xen的,这个就不去研究太多,这个用最简单的方式最好 https://github.com/mstarikov/rbdsr这个是个第三方的插件,最近才出来的 实现原理是ssh到ceph的机器上获取到 2015-12-16 暂未分类 #暂未分类
如何在所有的mon的损坏情况下将数据恢复如初 本篇主题在mon无法启动,或者所有的mon的数据盘都损坏的情况下,如何把所有的数据恢复如初 写本章的缘由在ceph中国的群里有看到一个技术人员有提到,在一次意外机房掉电后,三台mon的系统盘同时损坏了,这个对于熟悉ceph的人都知道这意味着什么,所有的集群数据将无法访问,关于这个的解决办法目前没有在哪里有看到,这个对于大多数人是用不上的,但是一旦出现了,这个损失将是无法估量的,当然谁都不希望这个情 2015-12-13 暂未分类 #暂未分类
ceph集群的安装和配置教程 本篇主题: 1、怎样配置ssh免登陆访问 2、为什么搭建集群要关闭防火墙和selinux,如何关闭 3、从哪里获取ceph的安装包,怎样安装才是快速正确的 4、为什么要配置时间同步服务,怎样配置 5、怎样创建集群 6、怎样使用不同的方式增加osd(这里我总结了五种) 默认方式 磁盘journal 目录配置方式 btrfs文件系统 disk+ssd方式 7、怎样配 2015-12-12 暂未分类 #暂未分类
在线调整ceph的参数 能够动态的进行系统参数的调整是一个很重要并且有用的属性ceph的集群提供两种方式的调整,使用tell的方式和daemon设置的方式 一、tell方式设置调整配置使用命令: 调整mon的参数1#ceph tell mon.* injectargs '--{tunable value_to_be_set}' 调整osd的参数1#ceph tell osd.* i 2015-11-18 暂未分类 #暂未分类
验证rbd的缓存是否开启 简单快速的在客户端验证rbd的cache是否开启首先修改配置文件 在ceph.conf中添加: 123[client]rbd cache = truerbd cache writethrough until flush = true 开启以后,在这台机器上进行测试 1234[root@node8109 ~]# rbd -p rbd bench-write zp --io-size 4096 -- 2015-11-16 暂未分类 #暂未分类
如何删除一台OSD主机 在ceph的一台OSD主机出现故障的时候,数据可以通过副本的机制进行恢复,之后通过删除osd的操作也能够将故障osd从osd tree当中删除掉,但是故障的 osd 的主机仍然会留在集群当中,通过 ceph osd tree 或者打印 crush map 都可以看到这个损坏的节点主机名,所以这里讲下怎么删除掉这个无用的host 首先集群环境为两台主机 node8109 node8110 , nod 2015-11-12 暂未分类 #暂未分类
Mon失效处理方法 假设环境为三个mon,主机名为mon1、mon2、mon3,现在mon3上面的系统盘损坏,mon的数据完全丢失,现在需要对mon3进行恢复处理 1、停止所有mon进程,可以不停其他进程,需要停止内核客户端以及对外的服务,防止卡死在mon1机器上执行 1/etc/init.d/ceph stop mon 在mon2机器上执行 1/etc/init.d/ceph stop mon 2、分别在mon主机 2015-11-01 暂未分类 #暂未分类
查询osd上的pg数 本文中的命令的第一版来源于国外的一个博客,后面的版本为我自己修改的版本 查询的命令如下: 123456789101112131415ceph pg dump | awk ' /^pg_stat/ { col=1; while($col!="up") {col++}; col++ } /^[0-9a-f]+\.[0-9a-f]+ 2015-10-14 暂未分类 #暂未分类
rbd的数据在哪里 创建一个rbd1[root@mytest ~]# rbd create test1 --size 4000 查看rbd信息123456[root@mytest ~]# rbd info test1rbd image 'test1': size 4000 MB in 1000 objects order 22 (4096 kB objects) block_name_prefi 2015-09-28 暂未分类 #暂未分类
删除ceph集群mds ceph集群新搭建以后是只有一个默认的存储池rbd的池 ## 创建文件接口集群 1.创建一个元数据池12[root@mytest ~]# ceph osd pool create metadata 20 20pool 'metadata' created 2.创建一个数据池12[root@mytest ~]# ceph osd pool create data 20 2015-09-24 暂未分类 #暂未分类