MFS分布式文件系统的原理及环境搭建

概述:

NFS网络文件系统在性能与容量上无法胜任更高的要求,而本篇讲的MFS(MooseFS)可以提供容量PB级别的共享存储,无需昂贵的专业硬件服务器,自身就拥有冗余功能及动态扩容功能,能保证数据的安全性。`

分布式原理:

分布式文件系统(distributed file system)是指文件系统管理的物质存储资源不一定直接连接在本地节点上,而是通过计算机网络与节点相连。简单说就是把一些分布在局域网内各个计算机上的共享文件夹,集合到一个虚拟共享文件夹内,客户端访问只需要打开这个虚拟共享文件夹即可。
分布式文件系统的优点:集中访问、简化操作、数据容灾、提高了文件的存储性能。

MFS原理:

MFS是一个具有容错性的网络分布式文件系统,它把数据分散存放在多个物理服务器上,而呈现给用户的则是一个统一整合的资源。

MFS文件系统的组成架构:

MFS分布式文件系统的原理及环境搭建

* 元数据服务器(Master):在整个体系中负责管理文件系统,维护元数据。
* 元数据日志服务器(MetaLogger):备份Master服务器的变化日志文件,文件类型为changelog_ml.*.mfs 当Master服务器数据丢失或者损坏时,可以从日志服务器中取得进行恢复。
* 数据存储服务器(Chunk server):真正存储数据的服务器。将文件分块保存,并相互进行复制。
* 客户端(Client):可以像挂载NFS一样挂载MFS文件系统,其操作是相同的。

MFS读取数据的处理过程:

* 客户端向元数据服务器发出读请求。
* 元数据服务器把所需数据存放的位置(Chunk server的IP地址和Chunk编号)告知客户端。
* 客户端向已知的Chunk server请求发送数据。
* Chunk server向客户端发送数据。

MFS写入数据的处理过程:

* 客户端向元数据服务器发送写入请求。
* 元数据服务器与Chunk server进行交互,但元数据服务器只在某些服务器创建新的分块Chunks,创建成功后由Chunk server告知元数据服务器操作成功。
* 元数据服务器告知客户端,可以在哪个Chunk server的哪些Chunks写入数据。
* 客户端向指定的Chunk server写入数据。
* 该Chunk server与其他Chunk server进行数据同步,同步成功后Chunk server告知客户端数据写入成功。
* 客户端告知元数据服务器本次写入完毕。

接下来进行环境搭建实验:

实验环境部署:

MFS分布式文件系统的原理及环境搭建

主机 操作系统 IP地址 主要软件
Master Server CentOS7.5 x86_64 192.168.138.138 mfs-1.6.27-5.tar.gz
Metalogger Server CentOS7.5 x86_64 192.168.138.128 mfs-1.6.27-5.tar.gz
Chunk Server01 CentOS7.5 x86_64 192.168.138.130 mfs-1.6.27-5.tar.gz
Chunk Server02 CentOS7.5 x86_64 192.168.138.139 mfs-1.6.27-5.tar.gz
Client CentOS7.5 x86_64 192.168.138.140 mfs-1.6.27-5.tar.gz/fuse-2.9.2.tar.gz

首先搭建master server:

安装环境包:

* yum install -y zlib-devel gcc gcc-c++              #安装所需的环境包
* useradd mfs -s /sbin/nologin                          #创建用户mfs

解压下载好的软件包并进行手工编译安装:

* tar zxvf mfs-1.6.27-5.tar.gz -C /opt/
* cd mfs-1.6.27                     #切换到opt/mfs-1.6.27下插入如下配置
* ./configure \
--prefix=/usr/local/mfs \
--with-default-user=mfs \           
--with-default-group=mfs \
--disable-mfschunkserver \
--disable-mfsmount
* make && make install

切换到配置文件下复制并去掉模板的dist后缀,开启配置文件:

* cd /usr/local/mfs/etc/mfs/    
  cp mfsmaster.cfg.dist mfsmaster.cfg    
  cp mfsexports.cfg.dist mfsexports.cfg
  cp mfstopology.cfg.dist mfstopology.cfg
* cd /usr/local/mfs/var/mfs/
  cp metadata.mfs.empty metadata.mfs
* vim mfsmaster.cfg    #不需要改动
* vim mfsexports.cfg   #不需要改动

关闭防火墙、关闭增强×××:

* systemctl stop firewalld.service
* setenforce 0
* /usr/local/mfs/sbin/mfsmaster start    #开启服务
* ps -ef | grep mfs        #查看监听状态
* /usr/local/mfs/sbin/mfsmaster -s  #停止

到此master server已经搭建完成,接下来搭建metalogger server:

安装编译环境、关闭防火墙、关闭增强×××:

* yum install -y zlib-devel gcc gcc-c++
* systemctl stop firewalld.service
* setenforce 0

创建mfs用户,解压软件包进行手工编译:

* useradd -s /sbin/nologin mfs
* tar xzvf mfs-1.6.27-5.tar.gz -C /opt/
* cd mfs-1.6.27
./configure \
--prefix=/usr/local/mfs \
--with-default-user=mfs \
--with-default-group=mfs \
--disable-mfschunkserver \
--disable-mfsmount
* make && make install

切换到配置文件下复制并去掉模板的dist后缀,开启配置文件

* cd /usr/local/mfs/etc/mfs/
cp mfsmaster.cfg.dist mfsmaster.cfg
cp mfsexports.cfg.dist mfsexports.cfg
cp mfsmetalogger.cfg.dist mfsmetalogger.cfg
* vim mfsmetalogger.cfg
MASTER_HOST = 192.168.138.138      去掉#注释 添加主机地址
* cd /usr/local/mfs/var/mfs
  mv metadata.mfs.empty metadata.mfs
* /usr/local/mfs/sbin/mfsmetalogger start    #开启服务

到此metalogger server已经搭建完成,接下来搭建两台节点服务器 chunk server:

先搭建第一台chunk server:

* systemctl stop firewalld.service
* setenforce 0
* yum install -y zlib-devel gcc gcc-c++
* useradd -s /sbin/nologin mfs
* tar xzvf mfs-1.6.27-5.tar.gz -C /opt/
* cd /opt/mfs-1.6.27
./configure \
--prefix=/usr/local/mfs \
--with-default-user=mfs \
--with-default-group=mfs \
--disable-mfsmaster \
--disable-mfsmount
* make && make install
* cd /usr/local/mfs/etc/mfs/
  cp mfschunkserver.cfg.dist mfschunkserver.cfg
  cp mfshdd.cfg.dist mfshdd.cfg
*   vim mfschunkserver.cfg
MASTER_HOST = 192.168.138.138      去掉#注释 添加主机地址
* vim mfshdd.cfg
/data               #末尾添加`` 提供存储空间
* mkdir /data
* chown -R mfs:mfs /data
* /usr/local/mfs/sbin/mfschunkserver start
* netstat -ntap 
* 提示: 第一台 chunk server搭建完成,第二台和第一台安装配置是一样的,这里就不再写了。

接下来配置客户端:

* systemctl stop firewalld.service
* setenforce 0
* yum install -y zlib-devel
* tar xzvf fuse-2.9.2.tar.gz -C /opt/
* cd /opt/fuse-2.9.2
  ./configure
* make && make install 
* vim /etc/profile
  export PKG_CONFIG_PATH=/usr/local/lib/pkgconfig:$PKG_CONFIG_PATH  #末尾插入
* source /etc/profile
* 安装mfs客户端:
* useradd mfs -s /sbin/nologin
* tar zxvf mfs-1.6.27-5.tar.gz -C /opt/
* cd /opt/mfs-1.6.27
./configure \
--prefix=/usr/local/mfs \
--with-default-user=mfs \
--with-default-group=mfs \
--disable-mfsmaster \
--disable-mfschunkserver \
--enable-mfsmount

* make && make install 
* mkdir /opt/mfs
* modprobe fuse  #加载fuse模块到内核
* /usr/local/mfs/bin/mfsmount /opt/mfs -H 192.168.138.138   #指向master主机
* df -hT   #查看挂载
* umount /opt/mfs    #需要时可解挂载
* 优化客户端:
* vim /etc/profile
* export PATH=/usr/local/mfs/bin:$PATH       #设置环境变量 在末尾插入
* cd /opt/mfs(可在mfs里写入内容进行验证:echo "this is test" > test.txt)
* source /etc/profile    #重新加载
* mfsgetgoal -r /opt/mfs/
* mfsgetgoal -r 2 /opt/mfs/        #复制2份文件

最后一步在master server启动监控程序:

* /usr/local/mfs/sbin/mfscgiserv
* http://192.168.138.138:9425        #客户端浏览器上进行访问测试

MFS分布式文件系统的原理及环境搭建

MFS分布式文件系统的原理及环境搭建

MFS分布式文件系统的原理及环境搭建

* 上述测试访问到的MFS监控表中各部分的含义如下:
Info部分:显示了MFS的基本信息
Server部分:列出现有的Chunk Server
Disks部分:列出每一台Chunk Server的磁盘目录及使用量
Exports部分:列出被共享的目录,即可被挂载的目录
Mounts部分:显示被挂载的情况
Operations部分:显示正在执行的操作
Master Charts部分:显示Master Server的操作情况,包括读取、写入、创建目录、删除目录等

本篇总结:

  • MFS是一个具有容错性的网络分布式文件系统,它把数据分散存放在多个物理服务器上,而呈现给用户的是一个统一整合的资源。
  • MFS文件系统的组成包括 元数据服务器(Master)、元数据日志服务器(MetaLogger)、数据存储服务器(Chunk server)和客户端(Client)。
  • 元数据服务器(Master)需要用到的配置文件有两个,分别是mfsmaster.cfg和mfsexports,cfg.
  • 在元数据服务器(Master)发生故障时,可以从Metalogger中恢复Master.

猜你喜欢

转载自blog.51cto.com/13721050/2286861
今日推荐