公司各组命令备忘

ceph 组

1、添加磁盘:
hcli ceph disk add node1:/dev/sdb node2:/dev/sdb -y
2、删除osd
hcli_sh ceph disk del --cluster ceph --osd $i -y
3、全域重启
/root/iraid/TOOLS/reboot-all.sh
4、获取当前ceph集群名称
/b_iscsi/bn_cli/hcli_sh ceph cluster show_name 
5、页面停止一个osd
hcli ceph disk stop --name ceph -d 0
6、页面重启一个osd
hcli ceph disk restart --name ceph -d 0 
7、修改ip后重设方法
/b_iscsi/config/ceph.cfg 
8、重启 cephfs服务
/b_iscsi/bin/ceph-fuse-mount All ceph
10、查看磁盘cache
/b_iscsi/bin/write_cache_bak.sh check all
11、重启cephfs客户端
systemctl start cephfs_client_daemon 
systemctl enable cephfs_client_daemon 
12、修改磁盘格式化类型
/usr/lib/python2.7/site-packages/ceph_disk/main.py
下修改
FREEBSD = False
DEFAULT_FS_TYPE = 'ext4'
PROCDIR = '/proc'
13、C300清空磁盘标记
CLI-DISK-FW -i -n node1|grep free
for i in `CLI-DISK-FW -i |grep MSN|awk 'BEGIN{FS=":"}{print $2}'`;do CLI-DISK-FW -E data -m $i ;done
CLI-DISK-FW -i | grep data
14、ceph源码升级
S:\Ceph组\外部文件\张回归\超融合 ceph版本升级-12.2.12-rpm
15、内核源码升级
Y:\存储业务部\Ceph组\外部文件\张回归\超融合 2x16 内核升级包
16、不启用共享盘
/b_iscsi/bin/ceph_install_deploy.sh 
#  ceph_ln_data_dir
#  [ $? -ne 0 ] && return 1 
17、曾聪检测pg状态
/b_iscsi/bin/hyper/test_hyper_cli ceph check_pg_status
18、双控通过ip获取虚节点
 /b_iscsi/bn_cli/hcli_sh ceph network get --host --node_ip $host_ip
 19、hikos C300代码编译
 网页:http://10.192.45.10/jenkins/job/PJ01TD20180302002-HIKOS-20190708-TX/
 配置文件:\\10.192.44.20\hik_config\920\PJ01TD20180302002-HIKOS-20190708-TX\update
 解密升级包:/home/mygpg -d hikos-1.3.2_SUBLINE-37189.el7.centos.x86_64.rpm

iraid

1、查看主节点:
bcli node leader
2、查看集群名称:
hcli_sh ceph cluster show_name
bcli domain list 
3、每个节点同时执行命令:
bcli dm con date
4、重设iraid域
/root/iraid/TOOLS/domain_reset_all.sh 重设所有节点
/root/iraid/TOOLS/domain_reset.sh 重设单个节点
5、设备重启
system_complete_reboot
6、启动激活共享盘
/b_iscsi/bin/double_ceph_server_switch.sh
7、创建共享盘
/root/iraid/TOOLS/create_share_disk.sh
8、修改设备控制模式
/b_iscsi/http/web/global.php
controller_mode
9、一键清理账号密码:
账号:oem_admin
密码:368904531
10、配网:modify_nic -n eth2 -i 10.192.55.12 -m 255.255.255.0 -g 10.192.55.254
11、配bond:(千兆:前2后4    万兆:前4后2)
CLI-IRAID-BOND create 'eth0 eth1' 0 1
CLI-IRAID-BOND create 'eth2 eth3 eth4 eth5' 0 2
查看绑定:cat /proc/net/bonding/bondx
删除绑定:CLI-IRAID-BOND delete bond2 0
查看bond:CLI-IRAID-BOND report 0 
12、配网
modify_nic -n bond1 -i 10.192.56.19 -m 255.255.255.0 -g 10.192.56.254
modify_nic -n bond2 -i 10.193.56.19 -m 255.255.0.0
13、设置内外网
外网:CLI-IRAID set-network bond1 0 1
内网:CLI-IRAID set-network bond2 0 0 
14、查看域中可识别的网
smi_sadp -e
15、查看网络绑定情况
cat /b_iscsi/config/bond_config.conf
16、查看磁盘列表:
bcli disk list
17、添加磁盘信息:
vi  /b_iscsi/config/support_disk_type.conf
vi  /b_iscsi/config/support_disk_type.conf_12G
18、zk
bcli start-all 开启所有zk服务
bcli stop-all 关闭所有zk服务
bcli status-all 查看所有zk服务状态
19、告警信息接口
 cli-alarm current-alarm -l all 
cat /etc/iraid/alarm/WEB_ALARM.info 
20、显示前六个槽位磁盘
/b_iscsi/bin/report_all_scsi_device_info -d --ceph --num 6 
/b_iscsi/bin/report_all_scsi_device_info -d 
21、一键清理标记:
enable_product_test
22、判断配置环境是sata域还是sas域
bcli dm cat /b_iscsi/http/web/global.php | grep disk_link
1、sata域
2、sas域
23、检查全部版本
report_all_version
24、查看系统是否启动完全:
/usr/bin/systemd-analyze time
25、global.php文件获取办法
<1>:修改关键字值为整数:   
rwrite_file_value  -n enable_frontpanel -v 0
<2>修改关键字值为字符串的:
rwrite_file_value  -n g_nic1 -v "eth0"
<3>获取关键字的值:
rwrite_file_value  -r enable_frontpanel
26、iraid调用markdown脚本
/b_iscsi/bin/osd_markdown.sh node 

固件

1、查看磁盘设备详细信息
/b_iscsi/bin/report_all_scsi_device_info -d --ceph --num 6
/b_iscsi/bin/report_all_scsi_device_info -d
2、选择环控表
/b_iscsi/bn_cli/environinfo_conf_manage -a set -n enviroinfo_current_table_name DS-A82036S12G_V2.csv
3、使sync有效
/sys/block/sdb/device/device_sync_ctrl 必须设置为255
echo 0 > /sys/module/libsas_hik/parameters/use_env 过滤掉sync
4、磁盘cache操作
打开磁盘cache:/b_iscsi/bin/write_cache.sh enable all  
检查磁盘cache:/b_iscsi/bin/write_cache.sh check all 
5、死机日志路径
/b_iscsi/log/forever_log/system_dead_log/
6、固件模拟踢盘
固件模拟踢盘:
echo 1 >/sys/block/sdc/device/device_kicked     踢盘
上面接口中会全部做掉:
固件模拟踢盘接口中会 1、将盘符踢掉   2、冷启动一下磁盘
/b_iscsi/bin/report_all_scsi_device_info -d 
/b_iscsi/bin/ses_interface.sh --obj=0x5000cba9900e933e.01 --action=coldrestart    冷启动 
7、页面识别磁盘槽位问题
cat /b_iscsi/config/enviro_config/enviroinfo.conf 
8、查看系统卡寿命
bcli dm "cat /b_iscsi/log/ssd_log/ssd_smart/20191202151818_hda |grep Power_On_Hours"
bcli dm "cat /b_iscsi/log/ssd_log/ssd_info|tail -n 1" 

san

1、停止san模块
/root/iraid/SCRIPTS/san_module.sh stop 
2、local scsi映射
/home/upgrade/create_local_scsi.sh 
3、linux客户连接存储rbd命令
iscsiadm -m discovery -t st -p 10.192.52.230:3260 -l >/dev/null 2>&1
在存储端需要先启动iscsi服务
/root/iraid/SCRIPTS/san_module.sh stop   ---停掉target服务
/root/iraid/SCRIPTS/bootup_idisk         --启动initiator服务
4、创建,查询,删除local scsi
执行该命令:/home/upgrade/create_local_scsi.sh
查询:lsmod |grep scst
删除:rmmod  scst_local
两个rbd:bcli san san-start

由LUN创建本地块设备步骤:
1、rmmod scst_local
2、/root/iraid/SCRIPTS/san_module.sh stop
3、./home/upgrade/create_local.sh 
4、./usr/sbin/hsadm -P LocalSCSI -m map -T rbd -l san_SSD/LUN_BUFF -t 1
删除:
1、lsmod |grep scst
2、rmmod scst_local

一键配置:删除当前环境步骤
 bcli db del /mod/san/rbd
 bcli db del /mod/localscsi
 bcli dm con  /root/iraid/SCRIPTS/san_module.sh stop
 POOL删除强制删除,若index存在则强制删除index
 bcli dm con  /b_iscsi/bn_cli/saninit  环境初始化


创建local scsi相关命令
rbd create --pool san_meta --image lun0 --data-pool san_data  --size 50T --object-size 4M 
hsadm -P iSCSI -m map -T rbd -l san_meta/lun0 -p 10.192.56.56 -i 10.192.56.30 -a 1 -t 1 
iscsiadm -m discovery -t st -p 10.192.56.56:3260 -l  
multipath -v2 扫描磁盘
启动磁盘
/root/iraid/SCRIPTS/shutdown_idisk
/root/iraid/SCRIPTS/bootup_idisk 

2、 /root/iraid/SCRIPTS/san_module.sh stop
3、 /b_iscsi/bn_cli/saninit 
2、断开连接
iscsiadm -m node -u 

查看san超时时间
grep exec_write /var/log/messages 

清理zk配置:
/mod/san/session

客户端聚合相关操作:
查看多路径挂载情况
multipath -ll
查看挂载节点和块设备对应关系
ll /dev/disk/by-path/*
该块设备为聚合块设备,格式化文件系统应该格式化他
 ll /dev/mapper/mpatha
查看默认配置路径:
/var/lib/iscsi/send_targets/10.192.55.91,3260/iqn.2016-12.com.hikvision.ssan.b1b2b6542d34.t-1,10.192.55.91,3260,1,default
默认配置值:node.session.timeo.replacement_timeout 

创建RBD命令:
RBD创建接口:
hcli ceph rbd create –s signID -u lunName -U poolId -S simplyConfig -L lunCount -c capacity -C cephName
例子:
hcli ceph rbd create -s 1 -u lun1 -U san -S picture -L 1 -c 100G -C ceph  

查看超时记录:
cat /var/log/messages |grep -E "exec_write|exec_read" 

可用的linux服务器:
10.192.52.189

在hikos上安装iscsi连接服务:
1、rpm -qa |grep iscsi	在镜像中找iscsi的rpm安装包    iscsi-initiator-utils-6.2.0.873-21.el7.x86_64
2、在hikos系统中安装yum源后,yum install iscsi-initiator-utils   安装iscsi的rpm包,systemctl restart iscsid.service  启动iscsid 

客户端起服务:
/root/iraid/SCRIPTS/san_module.sh stop 
/root/iraid/SCRIPTS/bootup_idisk 

查看是否有网络超时:
在客户端搜索如下日志:
Aug 15 13:41:28 localhost kernel: connection1:0: ping timeout of 5 secs expired, recv timeout 5, last rx 5083112259, last ping 5083117264, now 5083122272
Aug 15 13:41:49 localhost kernel: session1: session recovery timed out after 20 secs 

san组io压力查询命令:
saniostat -i

查看具体rbd和iscsi映射关系
bcli db tree /mod/san/map
ll /dev/disk/by-path/ 
[root@HikvisionOS ~]# iscsiadm -m session
tcp: [22] 10.192.56.135:3260,1 iqn.2016-12.com.hikvision.ssan.e4142e7434c9.t-1 (non-flash)
tcp: [23] 10.192.56.135:3260,1 iqn.2016-12.com.hikvision.ssan.e4142e7434c9.t-3 (non-flash)
tcp: [24] 10.192.56.135:3260,1 iqn.2016-12.com.hikvision.ssan.e4142e7434c9.t-4 (non-flash) 

最新io统计工具地址:
Z:\存储业务部\SAN组\外部文件\2个人目录\曹梦飞\2x16升级包 

虚机迁移命令
qemu-img convert -f qcow2 -O raw cafead97-687a-44a8-b9f8-18eab8474c36_disk rbd:pool/cafead97-687a-44a8-b9f8-18eab8474c36_disk 

如果san那边格式化iscsi挂出去的分支失败,则执行如下命令恢复
multipath -F

mullpath聚合
chkconfig --level 2345 multipathd on
modprobe dm-multipath
modprobe dm-round-robin
/root/iraid/SCRIPTS/bootup_idisk
systemctl enable multipathd.service
/bin/systemctl restart multipathd.service
/sbin/mpathconf /etc/multipath.conf
mv /usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf /etc/multipath.conf 

iscsi断开连不上
/root/iraid/SCRIPTS/san_module.sh stop 
/root/iraid/SCRIPTS/bootup_idisk 

查看连接
 iscsiadm -m node
 如果有连接记录,直接连接即可
 iscsiadm -m node -l 

##加粗样式# docker

1、查看docker业务是否存在
 docker ps -a
2、开启docker业务
/b_iscsi/http/web/global.php 下 $enable_docker = 1;
3、启动流媒体服务
docker run -itd --name=vtdu --net=host b_cvr_vtdu:V314_factory /home/initrun.sh 
4、查看流媒体服务是否正常
ps -ef | grep stream

启动docker业务
1、查询docker业务
docker ps -a  
2、删除容器
docker rm -vf  b_cvr_record_0
3、删除b-cache
bch.sh dkdestroy sdl (为cache块设备名称)

rm /dom/storoswd/docker/config/cluster_conf/containers/b_cvr_record_0/
4、使用hda8做cache
bch.sh cdevcreate hda8
bch.sh start hda8
bch.sh dkinit sdl(小块)
bch.sh dkgetbch sdl(小块)
ln -s /dev/bcache0 /dev/hik-bcache0 


5、创建容器
docker run -idt --cap-add=ALL --device /dev/hikded:/dev/hikded --device /dev/hikio:/dev/hikio --volume /etc/localtime:/etc/localtime:ro --volume /b_iscsi/config/map_dir:/b_iscsi/config/map_dir --device /dev/hik-bcache1:/dev/hik-mt  --device /dev/sdaa:/dev/hik-sd1 --volume /dom/storoswd/docker/log/containers/b_cvr_record_0:/b_iscsi/log --volume /dom/storoswd/docker/config/cluster_conf/containers/b_cvr_record_0:/dav2/cfg  --ipc=host --name b_cvr_record_0 b_cvr_record:V315_201802251100 initrun 10.192.52.181 255.255.255.0 10.192.52.254 

6、ipc  58.33   58.34  36 37 38 39 72

31x

1、查看31x业务是否存在
dcli docker console --name=cvrtest1
top查看是否存在如下进程
   33 root      20   0 4849912 259588   8528 S  13.9  6.9 160:06.48 sc_hicore                                                                                                                             
  121 root      20   0 4963004 528972   8848 S   4.3 14.0  56:37.65 dspcore                                                                                                                               
   26 root      20   0  448932   4412   2584 S   0.3  0.1   1:02.74 master  
2、重启31x服务
/home/hik/initrun.sh 
3、通过日志查看有没有丢帧
tail -f /dom/storoswd/docker/log/containers/cvrtest1/310_watchdog.log 
4、ipc配置
hikvision://10.192.58.22:8000:0:0username=admin&password=Abc123456 

5、下发数据配置为4M
进入docker环境
dcli docker console --name=`docker ps | grep -v IMAGE | awk '{print $NF}'` 
cd /home/hik/
执行 ./myinit.sh 
如果要还原 , 先停止上面的myinit.sh脚本
cp sc_hicore.org sc_hicore 
再执行 ./myinit.sh  

os

进入该目录:/b_iscsi/config/cache/ceph
守护进程记录内容:/b_iscsi/config/cache/ceph 下由数字组成的文件
查看执行周期:cat rules
查看执行内容:cat cache_cmd.cfg
查看守护进程:ps -elf | grep cli-cache
cli-cache show	+命令	显示如果缓存中有,则直接在缓存中读取
cli-cache update +命令  更新缓存内容
cat /etc/crontab 例行工作
下面这个命令用来查看cli-cache取那个节点数据内容
/b_iscsi/bn_cli/hcli ceph env check --cluster ceph
当集群域ip网段修改后,需要手动修改如下ip
vim /etc/iraid/node/local_ip.conf

os组日志路径:
/b_iscsi/log/newlogbak/global_log   存放的是集群内所有节点的日志信息(该文件集群内所有节点一致)
/b_iscsi/log/local_log  存放的是本节点的部分日志信息
local_log为节点异常时记录的部分操作日志。分析日志时需要结合两个日志配置文件结合时间信息合并后再分析。

下载维护日志分析查看
实际下载时是将global_log复制成syslog下载,分析日志时需要将syslog和local_log中的内容按照时间排序后形成完整日志进行分析。

测试部

1、配置每个创建磁盘所需个数:
920-ceph-common_libs-v2 -->Hcli_Ceph_Quick_Config_One_Button
2、配置一些基本信息:
hci-system-variables

3、断外网
/root/iraid/TOOLS/extranet_breakdown.sh 600、
4、断内网
/root/iraid/TOOLS/network-breakdown.sh 300
如果断了起不来,执行如下命令
/usr/sbin/ifconfig bond2 10.193.56.131 netmask 255.255.0.0 
发布了349 篇原创文章 · 获赞 6 · 访问量 9747

猜你喜欢

转载自blog.csdn.net/qq_23929673/article/details/98209592