vmware平台下IPv6丢包 问题现象在vmware的平台下的虚拟机里面配置了IPv6,然后测试的时候发现丢包严重,引起带宽非常低 问题Esxi虚拟机采用的是vmxnet3 driver,底层在处理IPv6的包的时候,额外加上了一些信息所以默认的1500的MTU无法处理完整的包,也就需要丢弃一些,然后造成了需要重传,带宽就低了 MTU调整为1515之后,问题消失,带宽恢复正常 这个只在IPv6使用的时候有这个问题,应该是跟这个 2024-04-17 系统管理 #网络配置
一个编译参数引起的ceph性能大幅下降 背景最近翻ceph的官方的博客,发现了一篇博客提到了一个ubuntu下面的编译参数引起的rocksdb的性能下降,这个地方应该是ceph官方代码的参数没生效 受影响的系统 P版本之前的ceph版本 操作系统是ubuntu的 某些ceph版本 这个要素比较多,所以运行的环境并不一定受到影响,那么我们看下,收到影响的版本是哪些,非ubuntu的系统可以忽略这个问题 我对15的版本比较熟,就以这个版 2024-03-21 存储相关 #ceph
storecli管理raid 前言本篇记录一些常用的配置raid的命令 安装下载storcli管理软件 1wget https://docs.broadcom.com/docs-and-downloads/raid-controllers/raid-controllers-common-files/1.21.16_StorCLI.zip 常用操作查询控制器信息123456root@ubuntu:~# storcli show- 2024-03-20 系统管理
查看ceph的osd的bluestore_min_alloc_size 需求bluestore_min_alloc_size可以修改ceph的osd的底层的最小分配单元,初始化的时候能够调整,这个修改后我们如何确认呢 查询记录大小的日志在bluestore日志里面,需要调整osd的bluestore日志级别 1debug_bluestore=10 调整好了以后重启osd,查看日志 12[root@lab103 ceph]# cat /var/log/ceph/cep 2024-03-07 存储相关 #ceph
drbd的快速初始化 需求默认启动drbd后,两个设备需要进行同步,而某些测试情况下,设备是空的,并不需要同步,都是空的就不需要同步了,但是系统自身是不会判断是否为空的,需要按下面的步骤处理一下 操作方法1、两台机器上面都执行初始化元数据 1drbdadm create-md <resource> 2、两台设备上面都执行启动 1drbdadm up <resource> 3、在备用节点上面执行 2024-03-06 存储设备 #系统配置
Intel E810-XXV开启rdma功能 操作系统环境操作系统1234[root@lab102 ~]# cat /etc/redhat-releaseCentOS Linux release 7.7.1908 (Core)[root@lab102 ~]# uname -aLinux lab102 3.10.0-1062.el7.x86_64 #1 SMP Wed Aug 7 18:08:02 UTC 2019 x86_64 x86_64 2024-03-06 网络配置 #系统配置
使用iptable配置代理网关 需求内网需要通过一台服务器作为网关,服务器只有一个网卡 配置12345678#! /bin/shiptables -Xiptables -Fiptables -t nat -F# 允许网段 192.168.0.0/24 的终端通过拨号主机转发iptables -I FORWARD -t filter -s 192.168.0.0/24 -j ACCEPTiptables -A POSTROUTIN 2024-03-01 系统配置
SCST配置ALUA的支持 背景在多路径配置下面,如果是主备的情况下,那么哪个盘是主盘,这个默认来说是没有办法进行配置的,这个时候需要服务端进行一个控制,来实现这个,这个是通过SCSI的协议把相关的信息保存在磁盘属性里面的,然后客户端程序再根据这个通用的标准进行主备的选择,这里不详细讲ALUA 像那种双控的盘阵,比如有两个控制器,一个主,一个备的,然后主上面有4个链路,备的上面有4个链路 多路径连上去以后,多路径软件能够把主 2024-02-28
multipath多路径主主和主备配置 前言多路径的配置方法,尽量最小操作的配置 配置方法主备的配置1234567 defaults { user_friendly_names yes}blacklist {devnode "^sd[a]"} 核心控制主备的是多活 12path_grouping_policy multibuspath_selector 2024-02-28 系统配置 #系统配置
fio的联机模式 需求通过fio控制多台同时测试,让io并发 使用方法在受控客户端每台机器上面执行 1fio --server 运行测试执行命令 1[root@node232 testnvme]# fio --client=host.list fio1.job 测试主机配置文件 123[root@node232 testnvme]# cat host.list192.168.122.2192.168.122.1 2024-02-23 测试工具 #测试