iscsi :

iSCSI

node2节点出现故障时,可以使用node3进行替换

  1. 配置iscsi客户端

[root@node3~]# vim /etc/iscsi/initiatorname.iscsi

InitiatorName=iqn.2018-07.cn.tedu.node3

[root@node3~]# iscsiadm --mode discoverydb --type sendtargets --portal192.168.4.1 --discover

[root@node3~]# systemctl restart iscsi

  1. 配置mariadb-server

[root@node3~]# yum install -y mariadb-server

[root@node3~]# mount /dev/sda1 /var/lib/mysql/

[root@node3~]# systemctl start mariadb


注意:千万不要使用两个节点同时挂载相同的文件系统(分区),如果多个节点同时挂载这个文件系统,很可能会导致文件系统损坏,数据丢失!因为XFSEXT3EXT4这些文件系统都是单节点文件系统。红帽的GFS才能支持多节点同时挂载。


UDEV:动态管理硬件文件的方法。如,把U盘接入到主机,主机会多一个硬盘文件,把U盘移除的时候,硬盘文件消失。

  1. udev规则文件存放目录/etc/udev/rules.d/

  2. 规则文件命名:数字-名字.rules

数字大小顺序是规则文件执行的顺序

  1. 应用udev,给iscsi磁盘创建一个软链接叫idisk

  1. 查看iscsi磁盘(sda)在/sys/目录中的位置

[root@node3~]# udevadm info --query=path --name=/dev/sda1

  1. 通过上一步的路径,查看iscsi磁盘的信息(以和其他设备进行区别)

[root@node3~]# udevadm info --query=all --attribute-walk--path=/devices/platform/host2/session1/target2:0:0/2:0:0:0/block/sda/sda1

  1. 创建规则文件

[root@node3~]# vim /etc/udev/rules.d/90-iscsi.rules

KERNEL=="sd[a-z]*",ACTION=="add", SUBSYSTEMS=="scsi",ATTRS{model}=="formysql ", SYMLINK+="idisk%n"

注:KERNEL==””表示内核识别出来的设备名

ACTION==“add”表示新接入设备

SUBSYSTEMSATTRS{model}是第(2)步查到的

SYMLINK表示创建符号链接,+=表示额外创建,%n是分区号

  1. 只有把磁盘移除再接入才能生效或是重启系统

[root@node3~]# systemctl stop mariadb

[root@node3~]# umount /dev/sda1

[root@node3~]# iscsiadm --mode node --targetname iqn.2018-07.cn.tedu.nsd1803--portal 192.168.4.1:3260 --logout

[root@node3~]# iscsiadm --mode discoverydb --type sendtargets --portal192.168.4.1 --discover

[root@node3~]# systemctl restart iscsi

[root@node3~]# ll /dev/idisk*


NFS:实现网络共享的,用于unix-like(类unix)系统间的共享

端口号是2049,基于RPC(远程过程调用,端口号111)服务。NFS只提供了共享功能,底层数据传输交给RPC服务。

  1. 只读共享

  1. node1作为服务端

1)安装软件包

[root@node1~]# yum install -y nfs-utils

2)创建共享目录

[root@node1~]# mkdir -pv /nfsroot/nfsro

[root@node1~]# cp /etc/hosts /nfsroot/nfsro

  1. 修改配置文件

[root@node1~]# vim /etc/exports

/nfsroot/nfsro *(ro) ->允许所有地址以只读方式访问

  1. 启动服务并验证

[root@node1~]# systemctl start nfs

[root@node1~]# showmount -e 192.168.4.1

  1. node3作为客户端

  1. 创建挂载点

[root@node3~]# mkdir /mnt/nsfshare

  1. 查看共享,并挂载

[root@node3~]# showmount -e 192.168.4.1

[root@node3~]# mount 192.168.4.1:/nfsroot/nfsro /mnt/nsfshare

[root@node3~]# ls /mnt/nsfshare

  1. 读写共享

不管是NFS,还是SAMBA,还是FTP,只要是读写共享,必须注意本地权限和配置文件内的授权

  1. Node1作为服务器

1)创建用于读写目录

[root@node1~]# mkdir -m 777 /nfsroot/nfsrw

2)修改配置文件说明

[root@node1~]# vim /etc/exports

/nfsroot/nfsro *(ro)

/nfsroot/nfsrw 192.168.4.*(rw,sync)

3)重新输出共享

[root@node1~]# exportfs -rv

  1. 配置客户端

  1. 创建挂载点

[root@node3~]# mkdir /mnt/rwnfs

2)挂载,测试

[root@node3~]# mount 192.168.4.1:/nfsroot/nfsrw /mnt/rwnfs

[root@node3~]# echo 'hello world' > /mnt/rwnfs/hi.txt

  1. NFS选项

(1)no_root_squash表示当root创建文件时,保留文件的属主属组还是root,默认写入到共享目录中的文件属主属组是nfsnobody

/nfsroot/nfsrw 192.168.4.*(rw,sync,no_root_squash)

(2)all_squash:作用是客户端任何用户写入的文件属主属组都是nfsnobody



多路径:当主机到共享存储有多条路径,每条路径都会被识别为一个设备。多路径配置可以将多个设备合并成一个虚拟设备。

  1. node1node3再配置一个网络192.168.2.0/24

#nmtui

#ifup eth1

  1. node3192.168.2.0网络上发现共享存储

[root@node3~]# iscsiadm --mode discoverydb --type sendtargets --portal192.168.2.1 --discover

[root@node3~]# systemctl restart iscsi

[root@node3~]# lsblk 发现新的sdb

  1. 主机通过WWID(全球识别符)来判断哪些路径上的设备是同一设备

[root@node3~]# /lib/udev/scsi_id --whitelisted --device=/dev/sda

360014059c375e9ab0604771aa3f719f1

  1. 安装多路径设备软件

[root@node3~]# yum install -y device-mapper-multipath

  1. 合并出来的多路径设备,一般起名为mpath[a-z]

  2. 配置多路径

  1. 生成配置文件,不使用用户友好名称

[root@node3~]# mpathconf --user_friendly_names n

  1. 修改配置文件

[root@node3~]# vim /etc/multipath.conf 尾部追加

multipaths{

multipath{

wwid "360014059c375e9ab0604771aa3f719f1"

alias mpatha

}

}

  1. 多路径设备出现在/dev/mapper/目录下

[root@node3~]# ls /dev/mapper/

[root@node3~]# systemctl start multipathd

[root@node3~]# ls /dev/mapper/

[root@node3~]# mount /dev/mapper/mpatha1 /var/lib/mysql/

[root@node3~]# ls /var/lib/mysql/

[root@node3~]# multipath -ll 查看多路径信息





猜你喜欢

转载自blog.csdn.net/weixin_40018205/article/details/80993059