一步步实现SDDC-双节点VSAN部署

实验摘要:

1>ROBO VSAN部署(双节点VSAN) [难度★★复杂度★★]

正文:

在上一篇文章中,我们利用VMware vSphere Auto Deploy技术,完成迷你SDDC环境中,所有ESXI服务器的自动安装与配置部署。

经过多个演示,相信各位已经了解VC作为SDDC基础架构层的核心,在管理服务器和虚拟机方面的基本功能。现在,环境中计算资源的部署已经告一段落,今天将演示如何部署VMware Virtual SAN,实现迷你SDDC环境的软件定义存储

说到软件定义存储,VMware的产品线除了VSAN,还有VVol。不过在今天的演示中,我将着重介绍如何通过简单的鼠标点击,实现VMware超融合产品VSAN的部署。

现在不少厂商都推出了自己的超融合解决方案,除了VSAN,我也接触了不少HCI的产品。几家主流厂商的产品可以说各有千秋,各有各的优势与特点。我对于VSAN的描述,归纳起来就是:

VSAN是运行在任何满足硬件兼容性的x86服务器上,用来取代传统存储的超融合产品。

相比采用ESXI作为底层的众多其他超融合产品,VSAN得天独厚的优势,是在ESXI的用户空间不会额外创建一台实现分布式存储的控制虚拟机CVM;数据的读写全部在内核空间中实现。

由于我的迷你SDDC环境资源有限,我将采用VSAN ROBO部署,即双节点VSAN,作为AT-Compute集群,两台ESXI服务器的数据存储。在实际生产环境中,企业可以选择VSAN ROBO Bundle,为远程和分支站点部署超融合解决方案。

主题:迷你SDDC环境搭建

任务18:双节点VSAN部署

阶段1:准备工作

在开始双节点VSAN部署前,我们需要做一些准备工作:

  • 为esxi-2a和esxi-3a添加4块虚拟磁盘,第1块为50GB,其余3块为100GB

  • 访问VMware官网,下载集群中ESXI版本相应的VSAN仲裁虚拟机

    如我的迷你SDDC环境,ESXI采用的是ESXI6.7U1标准版;因此需要下载对应的仲裁节点虚拟机

  • 在之前的文章中,我们已经创建模拟承载VSAN流量的交换机,esxi-2a和esxi-3a的vmnic6和vmnic7分别上联到这个交换机

  • 我们设计1块50GB的磁盘作为缓存盘,3块100GB的磁盘作为容量盘

    由于缓存盘必须是SSD,在一些演示或者测试场景中,管理员必须将HDD缓存盘声明成SSD

    需要特别注意的是,这类操作只能在演示或者测试场景中使用;对于实际生产环境,一定要根据官方的兼容性列表来选择缓存层和容量层硬盘

主题:迷你SDDC环境搭建

任务18:双节点VSAN部署

阶段2:VSAN网络配置

无论是VSAN还是其他超融合解决方案,大多需要定义一个二层或者三层网络,用于集群节点间的数据复制和同步;一般情况下,建议采用独立的物理网卡来承载VSAN流量。

接下来,我将创建一个标准交换机vSwitch1,用来承载AT-Compute集群服务器的VSAN流量。

  • 选择esxi-2a服务器,进入Configure-Network-Virtual switch页面,创建一个标准虚拟交换机

  • 承载VSAN流量的是vmkernal端口,因此选择创建一个vmkernal端口

  • 创建一个新的标准交换机

  • 为了后续演示分布式交换机的日常操作,我们首先选择vmnic8和vmnic9承载VSAN流量

    注:在我的迷你SDDC环境中,由于所有虚拟网络都没有打VLAN TAG,并且由v587-esxi-01的vSwitch0承载所有的流量,因此从本质上说,选择任何vmnic作为上联都不会影响VSAN流量的转发

  • 设置承载VSAN流量的网卡Teaming策略为Active-Standby

  • 勾选“vsan”,声明创建的名为“vsan”的vmkernal来承载VSAN流量

  • 定义vmkernal的IP地址,其中:

    esxi-2a:192.168.11.22/24

    esxi-3a:192.168.11.23/24

    witness-node:192.168.11.24/24

  • 确认各项设置无误后,完成vmkernal端口的添加操作

  • 重复上述操作,完成esxi-3a的相关配置

在VSAN的架构中,在使用2副本的情况下,必须要有台服务器充当2个副本的仲裁角色。因此,在默认情况下,部署VSAN至少需要3台物理服务器

后来,在VSAN推出ROBO部署的同时,这种2+1的模式并没有本质的变化,我们仍然需要1个仲裁角色;在双节点VSAN中,这个角色由一台虚拟机来扮演。

主题:迷你SDDC环境搭建

任务18:双节点VSAN部署

阶段3:仲裁虚拟机的部署

一般来说,仲裁虚拟机会由集群外的设备承载,在迷你SDDC环境中,选择v587-esxi-01作为承载该仲裁虚拟机的服务器。

  • 仲裁虚拟机通过OVF的方式部署

  • 浏览本地文件,选择仲裁虚拟机的OVF

  • 定义虚拟机命名和在VC清单中的存放位置,如vsan-witness

  • 选择v587-esxi-01承载该仲裁虚拟机

  • 选择仲裁虚拟机的部署规模,在我的演示环境中,双节点VSAN承载的虚拟机数量为5台,因此选择Tiny微型部署规模

  • 选择以精简模式部署该虚拟机

  • VSAN仲裁虚拟机共有2个上联网络:

    Witness Network,上联到VSAN网络,即192.168.11.0/24网段

    Management Network,上联到MGMT网络,即172.20.10.0/24网段

  • 该虚拟机是一个迷你版的ESXI操作系统,定义它的超级管理员root密码为VMware1!

  • 确认各项设置无误后,完成仲裁虚拟机OVF部署向导

  • 等待仲裁虚拟机上载完成

  • 开启仲裁虚拟机电源,通过Console可以看到这台仲裁虚拟机本质上是一台迷你ESXI服务器

  • 编辑该虚拟机设置,可以看到它有2块虚拟磁盘,第一块12GB的虚拟磁盘,其中2GB用以安装ESXI操作系统,10GB作为仲裁节点的缓存盘,第二块15GB的虚拟磁盘,作为仲裁节点的容量盘,2块磁盘将来会组成一个磁盘组,作为仲裁磁盘组

主题:迷你SDDC环境搭建

任务18:双节点VSAN部署

阶段4:仲裁虚拟机的配置

既然仲裁虚拟机是一台迷你ESXI服务器,那么管理员可以像配置普通的ESXI服务器一样,对它进行管理网络的基本设置。

  • 在DNS服务器上,添加该虚拟机的域名解析

  • 通过Console界面,配置该仲裁虚拟机的管理地址,包括IP、掩码、网关和DNS服务器等;所有的配置步骤,与普通ESXI服务器相同

  • 由于该虚拟机充当仲裁服务器的角色,因此管理员必须通过Web Client,将该服务器添加到VC的清单列表

    值得注意的是,仲裁虚拟机在完成安装后,默认已经导入了授权许可

  • 完成添加操作后,管理员可以在VC清单列表中查看到该服务器,图标区别于普通的ESXI服务器和虚拟机

  • 查看该仲裁服务器(虚拟机)的网络配置,可以看到他有2台标准虚拟交换机,其中witnessSwitch用来承载VSAN流量(仲裁);在安装过程中,系统已经自动在该witnessSwitch上创建了1个vmkernal端口,命名为vmk1,但是并没有分配IP地址

  • 选中该vmk1,点击铅笔图标,编辑该vmkernal端口设置

  • 定义IP地址为192.168.11.24/24,与AT-Compute集群2台服务器的VSAN网络vmkernal相同网段

  • 启动该仲裁虚拟机的SSH服务,通过SSH客户端访问该虚拟机的底层命令行

  • 使用vmkping命令,检查仲裁虚拟机与VSAN双节点之间的网络连通性

    # vmkping -I vmk1 192.168.11.22

    其中-I表示指定接口,vmk1表示使用承载VSAN流量的vmkernal1端口,192.168.11.22为esxi-2a的VSAN vmkernal地址

  • 在确认网络可达后,我们就完成了VSAN仲裁虚拟机的安装与配置部署

主题:迷你SDDC环境搭建

任务18:双节点VSAN部署

阶段5:创建vsandatastore

我们在谈论VSAN的时候,都是说“VSAN集群”,可见VSAN是以VC的集群作为最小单位来部署的;接下来,我将演示如何创建双节点vsandatastore,配置流程与普通的vsan部署基本类似。

  • 点击AT-Compute Cluster,在Configure-vSAN页面,可以看到默认情况下VSAN状态是关闭的;点击Configure,开始部署向导

  • 在故障域和延伸集群选项下,选择部署双节点VSAN,即“Configure two host vSAN cluster”

  • 由于esxi-2a和esxi-3a的所有磁盘均为SSD,因此在全闪部署下,管理员可以选择是否开启加密和去重压缩选项;为了节约存储空间,我选择开启“Deduplication and Compression”,即开启去重和压缩

  • 向导会自动检测集群包含的服务器中,勾选了vsan流量的vmkernal端口;可以看到esxi-2a和esxi-3a的vmk1,均为vsan流量端口,在它们的标签旁,管理员可以确认相应的vmkernal地址

  • 声明磁盘组;在我的环境中,50GB的硬盘作为缓存盘,3块100GB的硬盘作为容量盘,一个磁盘组有1+3块硬盘组成;

    注意,一般情况下,缓存空间/容量空间不小于10%;一台物理服务器最多不能超过5个磁盘组,每个磁盘组最多1+7,即最多7块磁盘作为容量层

  • 选择仲裁虚拟机,即vsan-witness.eccomat.local

  • 声明10GB的硬盘为缓存盘,15GB的硬盘为容量盘,2块盘组成一个磁盘组,作为仲裁使用

  • 确认各项设置无误后,完成双节点VSAN创建向导,开始部署

  • 在VC的Web Client,可以看到一系列双节点VSAN创建相关的任务

  • 在vSAN-Disk management页面,管理员可以实现对磁盘组的管理

  • 等待数分钟后,在VC的数据存储清单列表中,可以看到vsandatastore已经被创建,并且挂载给esxi-2a和esxi-3a两台服务器(底层是通过iSCSI协议挂载)

至此,我们已经完成双节点VSAN的部署。在后续的演示中,vsandatastore将作为AT-Compute集群虚拟机的数据存储使用。

经过一系列的演示,我向各位演示了VSAN解决方案的另一个显著优势:所有的VSAN管理操作均通过VC的Web Client实现,即一站式管理;避免出现像管理员在使用传统存储时一样,由于不同厂商的限制,无法做到统一管理的尴尬;熟悉VMware VC的管理员,可以非常容易地学习使用和管理VSAN。

现在,迷你SDDC环境已经具备计算和存储两个大的板块,在后续推出的内容中,我将向大家演示如何部署VMware NSX for vSphere解决方案,实现逻辑路由与交换,以及强大的分布式防火墙功能,敬请期待。

发布了3 篇原创文章 · 获赞 20 · 访问量 4万+

猜你喜欢

转载自blog.csdn.net/z136370204/article/details/104109660