背景最近在看3D打印的东西,看到一个模型不错就拿来打了
Mōcintosh 摸鱼小副屏|IPS面板|2.8寸|640x480|这个是任工坊的模型,可以直接从makerworld里面下载
然后根据作者提供的链接去购买了一个2.8寸的屏幕,这个看评论里面说,macos下会出现屏幕被拉伸的问题
正好正在用的就是macos,本着遇到问题解决问题的想法,来尝试解决一下
问题现象
默认的分辨率为800x600
可以看到,这个时候,我们把屏幕横着摆放,屏幕内容是水平的,系统识别是横屏的,这个地方方向与系统分辨率是对不上的
我们操作旋转270度,操作系统显示竖屏的
这里又实际是横屏的,也就是分辨率正好方向错开了,也就出现了拉伸的情况
这个问题应该是macos识别屏幕的分辨率的方向的内部文件没有匹配上,这个地方我们需要做的就是给屏幕设置一个正确的分辨率,也就是跟系统识别到的分辨率进行一个纵向和横向的交换即可
关闭SIP查看当前的SIP状态
12zphj1987@zphj1987Macmini ~ % csrutil statusSystem Integrity Protection status: ...
背景这个问题困扰了很久,之前在macbook pro m1 上面就有这个不停的弹窗的问题,把系统改成宽松才绕过了,但是一直没解决
最近把系统整个复制到mac mini m4上面,这个问题一直存在
这个是很久前安装的citrix的一个远程控制系统的一个残留,一直不知道怎么解决
关键词是
ReceiverHelper 将对您的电脑造成伤害
ServiceRecords 将对您的电脑造成伤害
处理完成后,安全策略就可以根据自己的需要进行修改了,也不会一直弹窗了
处理方法这个是citrix workspace helper and citrix service records残留服务位置在
12/usr/local/libexec/ReceiverHelper.app//usr/local/libexec/ServiceRecords.app/
先要禁用这几个服务
123launchctl remove com.citrix.ServiceRecordslaunchctl remove com.citrix.ReceiverHelperlaunchctl remove com.cit ...
背景iscsi的单向认证和双向认证的验证
验证单向认证开启单向认证
1234567<target iqn.2008-09.com.example:server.target1> backing-store /dev/rbd0 incominguser zp 123456</target>[root@lab102 ~]# iscsiadm -m discovery -t sendtargets -p 192.168.0.101192.168.0.101:3260,1 iqn.2008-09.com.example:server.target1
可以发现
12345[root@lab102 ~]# iscsiadm -m node -T iqn.2008-09.com.example:server.target1 -lLogging in to [iface: default, target: iqn.2008-09.com.example:server.target1, portal: 192.168.0.101,3260] (multiple)i ...
系统管理
未读背景centos7的支持已经没有了,源也移动到其它的路径,还是有环境需要用
源内容123456789101112131415161718192021222324252627282930[root@lab101 yum.repos.d]# cat CentOS-Base.repo[base]name=CentOS-$releasever - Basebaseurl=https://mirrors.aliyun.com/centos-vault/7.9.2009/os/x86_64gpgcheck=0[updates]name=CentOS-$releasever - Updatesbaseurl=https://mirrors.aliyun.com/centos-vault/7.9.2009/updates/x86_64/gpgcheck=0#additional packages that may be useful[extras]name=CentOS-$releasever - Extrasbaseurl=https://mirrors.aliyun.com/centos-vaul ...
故障信息12345678910Nov 26 07:20:12 node03 kernel: nvme nvme0: I/O 24 QID 0 timeout, reset controllerNov 26 07:20:22 node03 kernel: nvme nvme0: I/O 146 QID 4 timeout, abortingNov 26 07:20:25 node03 kernel: nvme nvme0: I/O 719 QID 1 timeout, reset controllerNov 26 07:21:37 node03 kernel: nvme nvme0: Device not ready; aborting resetNov 26 07:21:37 node03 kernel: nvme nvme0: Abort status: 0x7Nov 26 07:21:37 node03 kernel: nvme nvme0: Abort status: 0x7Nov 26 07:21:57 node03 kernel: nvme nvme0: Device not ...
背景内网搭建了一套esxi做测试的机器,没有用vcenter,管理平台没有克隆的操作的地方
方法最开始使用的是平台的存储浏览的复制功能这个里面有个问题是,复制的很慢,并且精简配置的属性没有保留,占用了过多的空间这个地方可以后台通过命令行操作,也比较简单
后台操作123456789101112131415161718192021[root@nucesxi:/vmfs/volumes/6730898e-54870331-6a0a-1c697a6078e1] ls -ahl centos7模板机器/total 2051720drwxr-xr-x 1 root root 76.0K Dec 16 03:26 .drwxr-xr-t 1 root root 76.0K Dec 16 01:55 ..-rw-r--r-- 1 root root 7.2K Dec 16 03:21 centos7模板机器-1.scoreboard-rw-r--r-- 1 root root 7.2K Dec ...
存储系统
未读背景aws的s3以前是不支持追加写这个功能的
这个存储类型大概是2023年发布的,这个文章是2024年11月21日发布的
找到功能的发布大概时间我们看下boto3的工具是什么时候集成进去的就知道这个功能发布的大概的时间
1WriteOffsetBytes
aws里面使用这个参数去控制追加写的偏移量的,我们根据这个关键字去找
找到botcore的代码,使用git下载下来
1cd botocore/botocore/data/s3/2006-03-01
进入到这个目录,这个目录里面是aws的s3的接口文档,也就是不管是用python的sdk还是使用aws进行操作的时候,命令行的一些接口都是通过这个目录里面的json文件去判断的
找到这个文件的所有的历史提交
1git log -p service-2.json
找到了这个地方的提交代码
12345678910@@ -9579,6 +9667,12 @@ "location":"uri", "locationName":"Key ...
背景迁移的时候出现osd的崩溃,然后进行pg的备份的时候出现了无法获取属性的情况,本篇记录问题和解决的方法
问题1234567891011Error getting attr on : 2.7s2_head,2#2:f7d032a7:::rbd_data.1.101a6b8b4567.00000000000000a1:head#f6, (61) No data availableError getting attr on : 2.7s2_head,2#2:fecb9c0c:::rbd_data.1.101a6b8b4567.0000000000000089:head#46, (61) No data availableError getting attr on : 2.7s2_head,2#2:fecb9c0c:::rbd_data.1.101a6b8b4567.0000000000000089:head#48, (61) No data availableError getting attr on : 2.7s2_head,2#2:fecb9c0c:::rbd_data.1.101a ...
问题
修复pg的时候出现了 unexpected clone
可以看到这个对象后面有编号,这个编号有两种情况
快照的对象(snapid)
纠删对象的中间版本(对应是generation)
1{"oid":"rbd_data.1.101a6b8b4567.00000000000000b3","key":"","snapid":26,"hash":3266086655,"max":0,"pool":2,"namespace":"","generation":251,"shard_id":2,"max":0}
这个地方需要根据自己的使用情况分析是哪种数据
通过在osd上面进行object list操作的时候发现只有快照对象,没有原始对象
这个说明这个对象其实是做了删除的,但是快照对象没删除掉,遗留在这里了,所 ...
背景我们拿到故障环境,看到环境就坏一个osd,但是环境还是处于卡着的状态,这个时候客户肯定会问,怎么就坏一个盘,还无法用了,不是都配置了冗余么
这个地方我们来分析下这个问题的原因,坏一个osd只是结果,不是过程,我们看下过程发生了哪些状况
中间过程这个中间过程我们用图来说过程比较清晰一些
上面是时间线上的三个阶段的情况
阶段一:数据完整,没有任何问题,数据写三份,分布到三台机器
阶段二:主机1sas卡出问题了,这个时候集群处于降级状态,数据只写了两份写到主机2,主机3,这个时候过了一段时间主机3突然又坏了,我们这个时候同时也发现主机1之前坏了,这个时候主机1启动起来,主机3是不可启动状态(磁盘异常无法恢复)
阶段三:ceph集群判断状态正常是需要至少能恢复的数据,也就是如果是三份(ec2+1),至少需要两份数据是完整的,这个时候集群才能读能写,到这个阶段我们可以看到,中间黄色部分的数据,因为主机3现在无法恢复,主机1之前故障了,这个只有一份数据2还在,三份数据只有1份了,这个时候集群自己是没法让自己正常的,因为主机3如果能启动起来,那么数据就还是完整的,集群内部也无法知道主机3 ...