kvm中基于ISCSI 的pool的建立

        起初看到这种方式的时候觉得应该很简单的,毕竟一般环境下都做过,没遇到过问题。但是谁能想到,放到kvm中,我可真遇到问题了。
        说出来可能会被笑死。就是忽略了一个问题,我在做实验,要在vm上创建target,在kvm主机上创建initiator。这么做的原因只是为了实验和熟悉整个流程,而不是实际上的应用。因为在生产环境中有专门的存储服务器,到时候只是需要在存储服务器上设置target,然后在kvm上还是设置initiator,通关virt-manager或者virsh管理,实现kvm控制自动login 或logout。
        之前在网上给老师留了言,然后自己在家里思考,大概知道了自己的错误后,今天上午看到老师的留言后,我就更加确信了自己之前的猜测。这里要感谢,linuxplus的讲师--陈涛,真的是有问必答,在e51cto上能找到他的课程。
我的个人意见就是,先知道iscsi的整个流程之后,再在kvm中运用和实施。我下面只写一些大概步骤。
    1.测试iscsi是否可用。
        找两天主机,一个target,一个initiator。分别装包,配置,mapping设置,还有就是确保两台主机可以通讯。
    2.在kvm环境下,一定要确保target是装在vm上,initiator装在kvm 主机上。
             1.通过virt-manager---------pool的名字,iscsi作为类型----target path(默认),hostname(vm的ip),source iqn(vm的iqn),initiator iqn(kvm的iqn)
             2.通过virsh。
             #virsh pool-define-as --name test_pool --type iscsi 
 --source-host 192.168.122.159 \ -------vm的ip地址
 --source-dev iqn.2010-05.com.example.server1:vm1 \------------vm的iqn
 --target /dev/disk/by-path
     Pool test_pool defined
         #virsh pool-start test_pool

这个就是整个的创建的过程,假如需要检查的话,就是在导入disk后用fdisk-l查看一下或者用lsblk --scsi也是可以的。

猜你喜欢

转载自blog.51cto.com/11419317/2129135