PostgreSQL流复制之二:pgpool-II实现PostgreSQL数据库集群

转发来源:

PostgreSQL的集群技术比较https://iwin.iteye.com/blog/2108807

参考:https://blog.csdn.net/yaoqiancuo3276/article/details/80983201

参考:https://blog.csdn.net/yaoqiancuo3276/article/details/80805783

参考:https://my.oschina.net/u/3308173/blog/900093?nocache=1494825611692

参考:http://www.pgpool.net/docs/latest/en/html/example-cluster.html

 

pgpool-II实现PostgreSQL数据库集群

以三台服务器,部署三个postgreSQl数据,一Master、2个Standby。在三台服务器上部署pgpool来管理数据库集群为例。

 一、数据规划:

PostgreSQL库的IP/Port规划:

主库地址/端口

10.10.10.1  /  5432

备库2地址/端口

10.10.10.2  /  5432

备库3地址/端口

10.10.10.3  /  5432

 

Pgpool-II的IP/Port规划:

Pgpool-II使用的端口

9999

Pgpool-II管理的数据库浮动IP

10.10.10.101

Pgpool-II看门狗心跳端口

9694

pgpool-II 服务器上的需要被监控的看门狗的端口

9000

 

注:由于安全原因,我们创建了一个单独用于复制目的的用户(u_standby),以及一个用于Pgpool-II流复制延迟检查和健康检查的用户(pgcheck)。

1、postgreSQL数据库用户名/密码2、执行自动恢复的用户(自动恢复:主库故障后切换,原主库恢复后自动变更为备库)User running online recovery

Postgre  /  123456

postgreSQL备、主库流复制用户名/密码

u_standby  /  standby123

Pgpool-II监看健康检查用户/密码(需在数据库开户,具备查询权限)

pgcheck  /  123456

 

二、安装配置pgpool-II

步骤一:已经搭建好数据库,并配置流复制

搭建过程见:PostgreSQL流复制之一:原理+环境搭建

步骤二:主、备库安装pgpool-II

1、 主库上安装pgpool-II工具(采用root权限用户)

下载—>解压,在解压目录下:make编译—>make install安装

2、 安装pgpool-II的扩展函数(使用数据库postgres用户)

(1)     安装pgpool_regclass扩展函数

  pgpool-II解压目录/src/sql 下执行 make—>make install

  pgpool-II解压目录/src/sql/pgpool-regclass 下执行:

  psql -p 5433 -f pgpool-regclass.sql template1

 

 (2)     建立insert_lock表

  pgpool-II解压目录/src/sql下执行:

  psql -p 5433 -f insert_lock.sql template1

(3)     安装pgpool_recovery扩展函数

  pgpool-II解压目录/src/sql/pgpool-recovery下执行make install

  pgpool-II解压目录/src/sql/pgpool-recovery下执行:

  psql -p 5433 -f pgpool-recovery.sql template1

3、 在2个备库上安装pgpool-II工具。(同主库操作)

  下载—>解压,在解压目录下:make编译—>make install安装

4、 检查2个备库已具备pgpool-II扩展函数。(注:扩展函数在数据库中,数据库的主备流复制已经复制到备库,不需要重复安装)

  postgres=# select * from pg_extension;

extname     | extowner | extnamespace | extrelocatable | extversion | extconfig | extcondition

-----------------+----------+--------------+----------------+------------+-----------+--------------

 plpgsql         |       10 |           11 | f              | 1.0        |           |

 pgpool_regclass |       10 |         2200 | t              | 1.0        |           |

 pgpool_recovery |       10 |         2200 | t              | 1.1        |           |

(3 rows)

 

步骤三:主库配置pgpool-II

pgpool有四个主要的配置文件,分别是

  • pcp.conf 用于管理查、看节点信息,如加入新节点。该文件主要是存储用户名及md5形式的密码。
  • pgpool.conf 用于设置pgpool的模式,主次数据库的相关信息等。
  • pool_hba.conf 用于认证用户登录方式,如客户端IP限制等,类似于postgresql的pg_hba.conf文件。
  • pool_passwd 用于保存相应客户端登录帐号名及md5密码。   

1、 配置pgpool.conf

  listen_addresses = '*'  # rtm用于pgpool监听地址,控制哪些地址可以通过pgpool 连接,`*`表示接受所有连接

  port = 9999    # rtm   pgpool 监听的端口

  pcp_listen_addresses = '*'  # rtm

  pcp_port = 9898         # rtm

  backend_hostname0 = '10.10.10.1'  # rtm  配置后端postgreSQL 数据库地址,此处为主库

  backend_port0 = 5432              # rtm 后端postgreSQL 数据库端口

  backend_weight0 = 1               # rtm 权重,用于负载均衡

  backend_data_directory0 = '/pgdata/ha/masterdata' # rtm 后端postgreSQL 数据库实例目录

  backend_flag0 = 'ALLOW_TO_FAILOVER'   # rtm  允许故障自动切换

  backend_hostname1 = '10.10.10.2'      # rtm 此处为备库1数据库地址

  backend_port1 = 5432                    # rtm

  backend_weight1 = 1                     # rtm

  backend_data_directory1 = '/pgdata/ha/slavedata'        # rtm

  backend_flag1 = 'ALLOW_TO_FAILOVER'     # rtm

  backend_hostname2 = '10.10.10.3'      # rtm 此处为备库2数据库地址

  backend_port2 = 5432                    # rtm

  backend_weight2 = 1                     # rtm

  backend_data_directory2 = '/pgdata/ha/slavedata'        # rtm

  backend_flag2 = 'ALLOW_TO_FAILOVER'     # rtm

  enable_pool_hba = on            # rtm  开启pgpool认证,需要通过 `pool_passwd` 文件对连接到数据库的用户进行md5认证

  pool_passwd = 'pool_passwd'     # rtm 认证文件

  log_destination = 'stderr,syslog'  # rtm  日志级别,标注错误输出和系统日志级别

  log_line_prefix = '%t: pid %p: '    # rtm  日志输出格式

  log_connections = on               # rtm  开启日志

  log_hostname = on                  # rtm  打印主机名称

  #log_statement = all             # rtm    取消注释则打印sql 语句

  #log_per_node_statement = on     # rtm    取消注释则开启打印sql负载均衡日志,记录sql负载到每个节点的执行情况

  #client_min_messages = log  # rtm          日志

  #log_min_messages = info   # rtm            # 日志级别

  pid_file_name = '/opt/pgpool-3/run/pgpool/pgpool.pid'   # rtm pgpool的运行目录,若不存在则先创建

  logdir = '/opt/pgpool-3/log/pgpool'  # rtm  指定日志输出的目录

  replication_mode = off           # rtm   关闭pgpool的复制模式

  load_balance_mode = on             # rtm  开启负载均衡

  master_slave_mode = on           # rtm   开启主从模式

  master_slave_sub_mode = 'stream'         # rtm设置主从为流复制模式

  sr_check_period = 10             # rtm    流复制的延迟检测的时间间隔

  sr_check_user = 'pgcheck'        # rtm    Specifiy replication delay check user and password,该用户需要在pg数据库中存在,且拥有查询权限

  sr_check_password = '123456'       # rtm  Pgpool-II 4.0开始,如果这些参数为空,Pgpool-II将首先尝试从sr_check_password文件中获取指定用户的密码

  sr_check_database = 'postgres'           # rtm  流复制检查的数据库名称

  delay_threshold = 10000000             # rtm  设置允许主备流复制最大延迟字节数,单位为kb

  health_check_period = 10          # rtm  pg数据库检查检查间隔时间

  health_check_timeout = 20        # rtm

  health_check_user = 'pgcheck'           # rtm   健康检查用户,需pg数据库中存在

  health_check_password = '123456'        # rtm   设置方法同sr_check_password

  health_check_database = 'postgres'      # rtm   健康检查的数据库名称

  health_check_max_retries = 3            # rtm   健康检查最大重试次数

  health_check_retry_delay = 3            # rtm  重试次数间隔

  failover_command = '/etc/pgpool-II/failover.sh %d %h %p %D %m %H %M %P %r %R'  # rtm 在failover_command参数中指定failover后需要执行的failover.sh脚本

  follow_master_command = '/etc/pgpool-II/follow_master.sh %d %h %p %D %m %M %H %P %r %R'    # rtm如果使用3台PostgreSQL服务器,需要在主节点切换后指定follow_master_command运行,如果是两PostgreSQL服务器,则不需要设置  follow_master_command。

  fail_over_on_backend_error = off  # rtm    如果设置了health_check_max_retries次数,则关闭该参数

  use_watchdog = on                   # rtm  开启看门狗,用于监控pgpool 集群健康状态

  wd_hostname = '10.10.10.1'             # rtm   本地看门狗地址,配置为当前库的IP

  wd_port = 9000                          # rtm

  wd_priority = 1                         # rtm  看门狗优先级,用于pgpool 集群中master选举

  delegate_IP = '10.10.10.101'             # rtm   在三个库上指定接受客户端连接的虚拟IP地址。

  if_up_cmd = 'ip addr add $_IP_$/24 dev eth0 label eth0:0'  # rtm 配置虚拟IP到本地网卡

  if_down_cmd = 'ip addr del $_IP_$/24 dev eth0'          # rtm 

  wd_lifecheck_method = 'heartbeat'         # rtm  看门狗健康检测方法

  wd_heartbeat_port = 9694                # rtm    看门狗心跳端口,用于pgpool 集群健康状态通信

  wd_heartbeat_keepalive = 2              # rtm    看门狗心跳检测间隔

  wd_heartbeat_deadtime = 30              # rtm

  heartbeat_destination0 = '10.10.10.2'  # rtm    配置需要监测健康心跳的IP地址,非本地地址,即互相监控,配置对端的IP地址

  heartbeat_destination_port0 = 9694      # rtm 监听的端口

  heartbeat_device0 = 'eth0'              # rtm 监听的网卡名称

  heartbeat_destination1 = '10.10.10.3'  # rtm    配置需要监测健康心跳的IP地址,非本地地址,即互相监控,配置对端的IP地址

  heartbeat_destination_port1 = 9694      # rtm 监听的端口

  heartbeat_device1 = 'eth0'       # rtm

  wd_life_point = 3               # rtm   生命检测失败后重试次数

  wd_lifecheck_query = 'SELECT 1' # rtm  用于检查 pgpool-II 的查询语句。默认为“SELECT 1”。

  wd_lifecheck_dbname = 'postgres'        # rtm 检查健康状态的数据库名称

  wd_lifecheck_user = 'pgcheck'           # rtm 检查数据库的用户,该用户需要在Postgres数据库存在,且有查询权限

  wd_lifecheck_password = '123456'        # rtm  看门狗健康检查用户密码

  other_pgpool_hostname0 = '10.10.10.2'  # rtm 指定被监控的 pgpool-II 服务器的主机名

  other_pgpool_port0 = 9999       # rtm 指定被监控的 pgpool-II 服务器的端口号

  other_wd_port0 = 9000           # rtm 指定 pgpool-II 服务器上的需要被监控的看门狗的端口号

  other_pgpool_hostname1 = '10.10.10.3'  # rtm 指定被监控的 pgpool-II 服务器的主机名

  other_pgpool_port0 = 9999       # rtm 指定被监控的 pgpool-II 服务器的端口号

  other_wd_port0 = 9000           # rtm 指定 pgpool-II 服务器上的需要被监控的看门狗的端口号

2、 配置pool_passwd,该文件用于配置哪些用户可以访问pgpool。使用如下命令生成:

  pg_md5 -p -m -u postgres  pool_passwd  //执行后输入密码

  通过如上命令,设置数据库的postgre用户名和密码,及pgpool进行健康检查的pgcheck用户名和密码。

3、 配置.pgpass。使用pgpool-II进行故障库自动切换(failover)、或自动恢复(online recovery)(自动恢复:主库故障后切换,原主库恢复后自动变更为备库),需要能够无密码SSH访问其他postgreSQL服务器。为了满足此条件,我们需要在每个postgreSQL服务器上,在postgres用户的home file下创建了.pgpass文件,并修改器文件权限为600。

  [all servers]# su - postgres

  [all servers]$ vi /var/lib/pgsql/.pgpass

  10.10.10.1:5432:replication:repl:<repl user password>

  10.10.10.2:5432:replication:repl:<repl user passowrd>

  10.10.10.3:5432:replication:repl:<repl user passowrd>

  [all servers]$ chmod 600  /var/lib/pgsql/.pgpass

4、 配置pcp.conf。由于pcp命令需要用户认证,该在文件中指定配置pcp命令的pgpool用户的用户名、密码。格式:

用户名:密码MD5编码

       注:密码的MD5编码看通过“pg_md5” 密码命令生成

5、 配置pcp的.pcppass。需要follow_master_command脚本情况下,由于此脚本必须在不输入密码的情况下执行pcp命令,所以我们在Pgpool-II用户(root用户)的home directory下创建.pcppass:

  # echo 'localhost:9898:pgpool:pgpool' > ~/.pcppass

  # chmod 600 ~/.pcppass

6、 配置pool_hba.conf认证文件,类似于PostgreSQL的pg_hba.conf文件。

 

步骤四:备库配置pgpool-II

类同主库配置pgpool-II步骤:

1、 配置pgpool.conf。类同主库pgpool-II配置。以备库1配置pgpool.conf为例:修改配置中主库、备库2的IP:

  use_watchdog = on                   # rtm  开启看门狗,用于监控pgpool 集群健康状态

  wd_hostname = '10.10.10.2'      # rtm   本地看门狗地址,配置为当前库地址

  wd_port = 9000                          # rtm

  wd_priority = 1                         # rtm  看门狗优先级,用于pgpool 集群中master选举

 

  wd_lifecheck_method = 'heartbeat'         # rtm  看门狗健康检测方法

  wd_heartbeat_port = 9694                # rtm    看门狗心跳端口,用于pgpool 集群健康状态通信

  wd_heartbeat_keepalive = 2              # rtm    看门狗心跳检测间隔

  wd_heartbeat_deadtime = 30              # rtm

  heartbeat_destination0 = '10.10.10.1'  # rtm    配置需要监测健康心跳的IP地址,非本地地址,即互相监控,配置对端的IP地址

  heartbeat_destination_port0 = 9694      # rtm 监听的端口

  heartbeat_device0 = 'eth0'              # rtm 监听的网卡名称

  heartbeat_destination1 = '10.10.10.3'  # rtm    配置需要监测健康心跳的IP地址,非本地地址,即互相监控,配置对端的IP地址

 

  other_pgpool_hostname0 = '10.10.10.1'  # rtm 指定被监控的 pgpool-II 服务器的主机名

  other_pgpool_port0 = 9999       # rtm 指定被监控的 pgpool-II 服务器的端口号

  other_wd_port0 = 9000           # rtm 指定 pgpool-II 服务器上的需要被监控的看门狗的端口号

  other_pgpool_hostname1 = '10.10.10.3'  # rtm 指定被监控的 pgpool-II 服务器的主机名

  other_pgpool_port0 = 9999       # rtm 指定被监控的 pgpool-II 服务器的端口号

  other_wd_port0 = 9000           # rtm 指定 pgpool-II 服务器上的需要被监控的看门狗的端口号

2、 其他部署类同主库配置。

 

步骤五:启动pgpool-II

注:

  • 启动pgpool-II前,必须先启动PostgreSQL;同理,停止PostgreSQL前,必须先停止pgpool-II.
  • 上面步骤中,配置的三个库的优先级一致(backend_weight)。所以Pgpool-II节点角色取决于Pgpool-II启动的先后顺序

分别在主库、备库1、备库2执行如下命令启动pgpool-II:  pgpool -n -d > pgpool.log 2>&1 &

1、 pgpool-II先启动的库,如下打印

  显示角色是主库。看门狗向另外两个库发送心跳,也接收另外另个库的响应。

  DEBUG:  STATE MACHINE INVOKED WITH EVENT = STATE CHANGED Current State = MASTER

  DEBUG:  watchdog heartbeat: send heartbeat signal to 10.10.10.2:9694

  DEBUG:  watchdog heartbeat: send heartbeat signal to 10.10.10.3:9694

  DEBUG:  received heartbeat signal from  。。。。

2、 pgpool-II后启动的库,如下打印

  显示角色是备库。看门狗向另外两个库发送心跳,也接收另外另个库的响应。

  DEBUG:  STATE MACHINE INVOKED WITH EVENT = PACKET RECEIVED Current State = STANDBY

   DEBUG:  watchdog heartbeat: send heartbeat signal to 10.10.10.1:9694

  DEBUG:  watchdog heartbeat: send heartbeat signal to 10.10.10.3:9694

  DEBUG:  received heartbeat signal from "10.10.10.1(10.10.10.1):9999" node:10.10.10.1:9999 Linux CLWDB3

  DEBUG:  received heartbeat signal from "10.10.10.3(10.10.10.3):9999" node:Not_Set

3、 查看VIP

  在主库上执行:#ip addr,看到10.10.10.101虚拟IP绑定在主库的eth0上。

步骤六:查看pgpool集群状态

1、 通过pgpool命令查看pgpool中库状态(IP为pgpool的VIP)

  执行:psql -h 10.10.56.87 -p 9999 -U postgres pgpool

   

  其他命令:

  查看pgpool配置:# show pool_status;

  查看pgpool连接池:# show pool_pools;

2、 通过pcp管理pgpool。Pcp是管理pgpool的linux命令。

(1)     查看pgpool集群状态(IP为pgpool的VIP)

  # pcp_watchdog_info -h 10.10.10.101 -p 9898 -U pgcheck -v

  可以看到集群Node的IP、Port、状态,虚拟IP绑定的Node等信息。

(2)     查看pgpool集群Node数量(IP为pgpool的VIP)

  # pcp_node_count -h 10.10.10.101 -p 9898 -U pgcheck -v

(3)     查看pgpool集群配置(IP为pgpool的VIP)

  # pcp_pool_status -h 10.10.10.101 -p 9898 -U pgcheck -v

(4)     查看pgpool processer进程状态连接池(IP为pgpool的VIP)

  #pcp_proc_count -h 10.10.10.101 -p 9898 -U pgcheck -v

 

步骤七:配置主库故障自动切换脚本

PostgreSQL流复制,支持故障情况下两种方式切换:

  • recovery.conf配置文件中指定trigger_file(trigger_file = '/home/postgres/pg11/trigger'),且trigger_file在备库中存在,则主库故障自动切换。
  • 在备库上通过pg_ctl promote命令使备库升主。

 在pgpool-II工具场景下,pgpool-II的pgpool.conf配置文件中支持指定故障切换脚本。尤其是多库场景下,此方式可根据用户需要自定义切换规则,在脚本中通过trigger_file、或pg_ctl promote命令方式触发指定的备库升主:

  failover_command = '/etc/pgpool-II/failover.sh %d %h %p %D %m %H %M %P %r %R'  # rtm 在failover_command参数中指定failover后需要执行的failover.sh脚本

    failover.sh样例见附录。

切换过程观察:

1) 切换前状态

  # pcp_watchdog_info -h 10.10.10.101 -p 9898 -U pgcheck –v

  Host Name      : 10.10.10.1

  Status Name    : MASTER

 

  Host Name      : 10.10.10.2

  Status Name    : STANDBY

 

  Host Name      : 10.10.10.3

  Status Name    : STANDBY

2)    停止主库。可以stop Pgpool-II service或shutdown整个主库

  systemctl stop pgpool.service

3)   切换后组黄台。

  # pcp_watchdog_info -h 10.10.10.101 -p 9898 -U pgcheck –v

  Host Name      : 10.10.10.1

  Status Name    : STANDBY

 

  Host Name      : 10.10.10.2

  Status Name    : MASTER

 

  Host Name      : 10.10.10.3

  Status Name    : STANDBY

 

步骤八:配置故障库恢复后自动变更为备库(online recovery

我们期望原主库故障后,恢复后能自动变更为备库,需要:

  • 安装pgpool_recovery、pgpool_remote_start、pgpool_switch_xlog扩展函数,方法参考安装步骤。
  • 确保原主库recovery_1st_stage和pgpool_remote_start。

1)   配置pgpool.conf文件

  在线恢复需要PostgreSQL的超级组权限,所以指定postgres用户为recovery_user。

  recovery_user = 'postgres'    # Online recovery user

  recovery_password = ''    # Online recovery password

  recovery_1st_stage_command = 'recovery_1st_stage'

2)   在主库服务器 (server1) 的数据库集群目录下创建recovery_1st_stage和pgpool_remote_start,并添加可执行权限。详细脚本参考附录。

  [server1]# su - postgres

  [server1]$ vi /var/lib/pgsql/11/data/recovery_1st_stage

  [server1]$ vi /var/lib/pgsql/11/data/pgpool_remote_start

  [server1]$ chmod +x /var/lib/pgsql/11/data/{recovery_1st_stage,pgpool_remote_start}

3)   使用pcp命令执行恢复备库节点

  # pcp_recovery_node -h 192.168.137.150 -p 9898 -U pgpool -n 0

  Password:

  pcp_recovery_node -- Command Successful

 

1failover.shfialover_master.shrecovery_1st_stagpgpool_remote_start件样例参考:http://www.pgpool.net/docs/latest/en/html/example-cluster.html

猜你喜欢

转载自www.cnblogs.com/yickel/p/11161915.html