背景rbd的做快照,然后克隆,原始设备可以变成两个设备供客户端使用,占用的空间为1份,这个是在没有新写入情况下的容量占用情况那么如果有新写入的的数据之后,这个地方容量是怎么去看的,以及在出现写入又删除的情况下,rbd的实际占用空间又是如何释放的
相关测试操作快照后的容量占用我们先准备一个rbd的设备,并且格式化为ntfs的文件系统,然后写入一个大文件为2.4G的我们看下容量占用情况
12345678[root@lab101 ~]# rbd du gamebaseNAME PROVISIONED USEDgamebase 30 GiB 2.4 GiB[root@lab101 ~]# ceph df--- POOLS ---POOL ID PGS STORED OBJECTS USED %USED MAX AVAILrbd 9 32 2.4 GiB 631 2.4 GiB 3.22 73 GiB
占用就是这么多,我们再做一个快照
12[root@lab101 ~]# rbd snap create --im ...
背景网上有很多的winpe,有的时候确实方便,但是又怕里面放入了一些第三方的软件什么的,想要一个自定使用的纯净版的iso,本篇就是自己打的iso
方法12下载地址https://learn.microsoft.com/zh-cn/windows-hardware/get-started/adk-install
选择版本2004
下载链接
12https://go.microsoft.com/fwlink/?linkid=2120254https://go.microsoft.com/fwlink/?linkid=2120253
安装的是ADK2004 版本
这个版本的winpe 在vmware下面进行安装的时候驱动会正常一些注意如果需要安装的系统是中文版本的,那么winpe一定要是中文版本的,否则会提示驱动无法安装
定制winpe
运行这个部署和映像工具环境,就会打开一个终端主要操作目录在这个下面
1C:\Program Files (x86)\Windows Kits\10\Assessment and Deployment Kit\Windows Preinstallation ...
问题背景lvmetad是操作系统上面的lvm的缓存服务,基本上所有的操作系统上面都有,我们使用的操作系统版本为
12345678[root@node232 ~]# lsb_release -aLSB Version: :core-4.1-amd64:core-4.1-noarchDistributor ID: CentOSDescription: CentOS Linux release 7.6.1810 (Core) Release: 7.6.1810Codename: Core[root@node232 ~]# uname -aLinux node232 4.14.113-1.el7.x86_64 #1 SMP Wed Sep 9 17:22:41 CST 2020 x86_64 x86_64 x86_64 GNU/Linux
lvm版本为
123[root@node232 ~]# rpm -qa|grep lvmlvm2-libs-2.02.180-8.el7.x86_64lvm2-2.02.180-8.el7.x86_64
如果环境为上面 ...
问题现象ceph -s命令无返回了,查看mon的日志输出内容如下
看到的现象是 failed to assign global_id
然后尝试预分配更多的 global_id
mon_globalid_prealloc=1111110000
这个地方调整后,只是延缓了id的无法分配,没有解决问题,这个地方并不是消息id的问题,而是mon此时出现了问题,无法去正常的回收和响应消息,从而耗尽了id,出现了上面的现象,出现问题以后,mon实际无法响应请求了
把mon的进程直接放到前台运行
12345/usr/bin/ceph-mon -f --cluster ceph --id MYMON1 --setuser ceph --setgroup cephtcmalloc: large alloc 1073741824 bytes == 0x5568d6ac6000 @ 0x7fb651ad24ef 0x7fb651af1bd6 0x556892b6c049 0x556892b6c08b 0x556892b6c940 0x7fb64f4e36f6 0x7fb64f4e7e66 ...
坏快的模拟操作1234[root@lab102 ~]# hdparm --yes-i-know-what-i-am-doing --make-bad-sector 5555 /dev/sdb/dev/sdb:Corrupting sector 5555 (WRITE_UNC_EXT as pseudo): succeeded
注意这个操作如果操作了后面记得恢复,不然留在磁盘上面忘记处理,后面就是坏快在那里的,这个是人为的注入一个坏块的操作的
检查坏快的情况(我的环境一个block = 2个sector)
12345678[root@lab102 ~]# badblocks -v -s /dev/sdb 3333Checking blocks 0 to 3333Checking for bad blocks (read-only test): 277629% done, 0:06 elapsed. (0/0/0 errors)277732% done, 0:08 elapsed. (1/0/0 errors)277835% done, 0:10 elapsed. (2/0/0 ...
问题描述在内网部署的https的时候,我们采用的是自签名的ssl证书,内网的这个证书是无法被客户端认证通过的,这个地方主要体现在下面几个现象可以看到
chrome下的表现
s3cmd下面的表现
s3browser下的表现
这些共同的表现就是无法建立信任的关系
这里我们实际要解决的问题就是,内网是可以绕过这个证书的检测的
不同客户端的处理s3cmd的处理1[root@lab103 ~]# s3cmd ls --no-check-certificate s3://mybucket/
s3browser的处理
可以看到官方在11.5.7版本开始考虑到这个问题了,可以忽略证书的认证,我们只是用到https传输即可
把这个选项勾选,也就是信任所有的证书,重启客户端
可以看到启用https,并且使用了最新的客户端,也是可以正常运行了,也就是证书的问题
通过自颁发证书来解决证书验证问题自颁发证书1yum install openssl openssl-devel -y
step1: 生成证书请求文件新建openssl.cnf,内容如下:
1234567891011121314151617 ...
问题现象在vmware的平台下的虚拟机里面配置了IPv6,然后测试的时候发现丢包严重,引起带宽非常低
问题Esxi虚拟机采用的是vmxnet3 driver,底层在处理IPv6的包的时候,额外加上了一些信息所以默认的1500的MTU无法处理完整的包,也就需要丢弃一些,然后造成了需要重传,带宽就低了
MTU调整为1515之后,问题消失,带宽恢复正常
这个只在IPv6使用的时候有这个问题,应该是跟这个驱动有关系,物理机下面没这个问题
调整MTU的方法在线调整1ifconfig ens160 mtu 1515
配置文件调整1MTU='1515'
重启网络服务
背景最近翻ceph的官方的博客,发现了一篇博客提到了一个ubuntu下面的编译参数引起的rocksdb的性能下降,这个地方应该是ceph官方代码的参数没生效
受影响的系统
P版本之前的ceph版本
操作系统是ubuntu的
某些ceph版本
这个要素比较多,所以运行的环境并不一定受到影响,那么我们看下,收到影响的版本是哪些,非ubuntu的系统可以忽略这个问题
我对15的版本比较熟,就以这个版本举例子
受到影响的版本这个版本是从ceph官方同步过来的版本
1https://mirrors.tuna.tsinghua.edu.cn/ceph/debian-15.2.17/pool/main/c/ceph/
不受影响的版本1https://launchpad.net/ubuntu/focal/+source/ceph
这个是ubuntu官方打包的版本
下载不同的版本源文件
123456789101112root@lab103:~# cat /etc/apt/sources.listdeb http://archive.ubuntu.com/ubuntu/ focal main res ...
系统管理
未读前言本篇记录一些常用的配置raid的命令
安装下载storcli管理软件
1wget https://docs.broadcom.com/docs-and-downloads/raid-controllers/raid-controllers-common-files/1.21.16_StorCLI.zip
常用操作查询控制器信息123456root@ubuntu:~# storcli show---------------------------------------------------------------------------------------------------Ctl Model Ports PDs DGs DNOpt VDs VNOpt BBU sPR DS EHS ASOs Hlth--------------------------------------------------------------------------------------------------- 0 I ...
需求bluestore_min_alloc_size可以修改ceph的osd的底层的最小分配单元,初始化的时候能够调整,这个修改后我们如何确认呢
查询记录大小的日志在bluestore日志里面,需要调整osd的bluestore日志级别
1debug_bluestore=10
调整好了以后重启osd,查看日志
12[root@lab103 ceph]# cat /var/log/ceph/ceph-osd.2.log |grep min_alloc_size|grep order2024-03-07T11:00:42.419+0800 7ff28b4a0bc0 10 bluestore(/var/lib/ceph/osd/ceph-2) _set_alloc_sizes min_alloc_size 0x1000 order 12 max_alloc_size 0x0 prefer_deferred_size 0x0 deferred_batch_ops 64
上面的order 12就是获取的值
这个值需要计算一下
12[root@lab103 local]# echo " ...