mysql主从常见问题

一、主从复制概述

      主从复制是Mysql内建的复制功能,它是构建高性能应用程序的基础,技术成熟,应用也很广泛。其原理就是通过将Mysql主库的sql语句复制到从库上,并重新执行一遍来实现的。复制过程中主库将更新写入二进制日志文件,并维护文件的一个索引以跟踪日志循环。这些日志可以记录发送到从库的更新。每次从库连接主库时,它会通知主库最后一次成功更新的位置。从库接收从那时起发生的任何更新。在进行主从复制时,所有命令都必须在主库上进行,从库不做操作。否则,会引起主从库之间的数据不同步,复制会中断。

下面列举了主从模式时常见的一些问题,都是平时工作中实际遇到过的实战案例。

二、错误及解决办法

问题: 从数据库无法同步

Slave_SQL_Running 值为 NO,或 Seconds_Bebind_Master 值为 Null

原因:

1. 程序有可能在 slave 上进行了写操作

2. 也有可能是 slave 机器重启后,事务回滚造成的

解决方法一:

msyql> stop slave;

msyql> set GLOBAL SQL_SLAVE_SKIP_COUNTER=1;

msyql> start slave;

解决方法二:

msyql> stop slave; 

#查看主服务器上当前的 bin-log 日志名和偏移量

msyql> show master status;

#获取到如下内容:

+------------------+----------+--------------+------------------+

| File            | Position | Binlog_Do_DB | Binlog_Ignore_DB |

+------------------+----------+--------------+------------------+

| mysql-bin.000005 |      286 |              |                  |

+------------------+----------+--------------+------------------+

#然后到从服务器上执行手动同步

msyql> change master to

    ->master_host="192.168.10.1",

    ->master_user="user",

    ->master_password="123456",

    ->master_post=3306,

    ->master_log_file="mysql-bin.000005",

    ->master_log_pos=286;

    

msyql> start slave;

  • 场景1:主库上用系统命令复制或删除表数据文件

    【模拟异常】:

    主库上直接copy表数据文件,或直接rm表数据文件主库上拷贝test表数据文件后,执行insert into test values('111');或主库上执行rm -f test05.*后,执行create table test05(a int(11));

【错误日志】:

从库日志:SHOW SLAVE STATUS \G;

Last_Errno: 1146

Last_Error:Error 'Table'testdb.test 'doesn't exist'on query' insertinto test values('111') '.

Default database: 'testdb'. Query: 'insert into testvalues('111')'

或者如下:

Last_Error: Error 'Table’test05 'already exists' on query.

【错误原因】:

表的创建或删除不是通过执行sql,未写入binlog,从库上没有相关表;

【解决方案】:

在从库上手动创建此表(建表语句可参考主库);

以后,主库上对表的操作请通过sql完成,避免使用系统命令拷贝或删除

  • 场景2:数据不一致:包括删除失败、主键重复、更新丢失

【问题1】:

主键重复:在slave已经有该记录,又在master上插入了同一条记录。

从库日志:SHOW SLAVE STATUS \G;

Last_Errno: 1062

Last_Error: Error 'Duplicate entry 'xxxn-66-77' for key1' on query. Default database: 'guild'. Query: 'insert into pynpcrecord setMapCode = 'xxxn', UpdateTime = '2015-08-07 00:00:32''

     【解决方案】:

方案1:在从库上将重复的主键记录删除,再次重启主从;

 deletefrom xxxx where 主键=yyyy;

  stopslave;start slave;

       方案2:停掉主从同步,忽略一次错误,再开启同步:

    stop slave;

      set global sql_slave_skip_counter=1;startslave;

  若是新配主从,忽略3次还报此错,还可以在my.cnf里加

      一 行: slave-skip-errors=1062

      然后重启实例,再重启主从同步;

   stop slave; start slave;

【问题2】删除失败:在master上删除一条记录,而slave上找不到。

从库日志:SHOW SLAVE STATUS \G;

Last_Errno: 1032;

Last_Error: Could not execute Delete_rows event ontable hcy.t1;

Can't find record in 't1',

【解决方案】:

由于master要删除一条记录,而slave上找不到而报错,这种情况主库都将其删除了,从库可以直接跳过。

可用命令:

stop slave;

set global sql_slave_skip_counter=1;startslave;

【问题3】:更新丢失:在master上更新一条记录,而slave上找不到,丢    失了数据。

从库日志:SHOW SLAVE STATUS \G;

Last_Errno: 1032;

Last_Error: Could not execute Update_rows event ontable hcy.t1; Can't find record in 't1',

     【解决方案】:

把丢失的数据在slave上填补,然后跳过报错即可。

  • 场景3:字段不一致:包括字段丢失、不够长等

【问题1】

从库日志:SHOW SLAVE STATUS \G;

Slave_IO_Running: Yes

Slave_SQL_Running: No

Last_Errno: 1264

Last_Error: Error 'Out of range value for column 'JFNow' at row 1' onquery. Default database: 'guild'. Query: 'update pyPHBWS set JFNow =JFNow -1 wherePlayerName = '狂魔''

虽然从库该字段和主库的一致,但从库还是报错:

guild> desc pyPHBWS;

+------------+---------------------+------+-----+---------+-------+

| Field      |Type                | Null | Key |Default | Extra |

+------------+---------------------+------+-----+---------+-------+

| PlayerName | varchar(30)         | NO  | PRI | NULL    |       |

| JFNow   | int(10)unsigned    | YES  |     |NULL    |       |

| JFAll   |int(10) unsigned    | NO   |    | NULL    |       |

     【解决方案】

修改字段:

ALTER TABLE guild.pyPHBWS MODIFY JFNowbigint(20) unsigned;

重启主从:stop slave;start slave;

【问题2】

从库日志:

  SHOW SLAVE STATUS \G;

Slave_IO_Running: Yes

Slave_SQL_Running: No

Last_Errno: 1054

Last_Error:Error 'Unknown column 'qdir' in 'field list''on query. Default database: 'club'. Query: 'insert into club.question_del (id,pid, ques_name, title, intime, order_d, endtime,qdir) select id, pid,ques_name, title, intime, order_d, endtime ,qdir from club.question whereid=7330212'

【解决方案】

主库:查询 desc club.question_del,发现club.question_del表里面没有qdir这个字段;

从库:执行 alter table question_del add qdirvarchar(30) not null;

  • 场景4:超出MyISAM数据表大小限制

【错误日志】

从库日志:

   SHOW SLAVE STATUS \G;

Slave_IO_Running: No

Slave_SQL_Running: Yes

Last_Errno : 1114

Last_Error : Error 'The table   'tbleventlog' is full' onquery. Default database: 'dblog'. Query: 'insert into `tbleventlog`(`PlayerName`, `ACTION`, `VALUE`, `PARAM`, `TIME`) values ('ĺɫ', '־', '620',':2,:397842703', '2015-07-28 06:56:04')'

找到该实例所在的目录,发现该表大小超过4GB;

【解决方案】

对于MyISAM数据表,单个.MYD和.MYI默认4GB。

利用AVG_ROW_LENGTH和MAX_ROWS建表选项可以把这个最大值扩大到800万TB.

max_rows主要对myisam生效.

从库:调整max_rows并重启slave.

use dblog; ALTER TABLE tbleventlog MAX_ROWS=1000000000;

stop slave; start slave;

  • 场景5:slave的中继日志relay-bin损坏

【模拟异常】

SLAVE在宕机,或者非法关机,例如电源故障、主板烧了等,造成中继日志损坏,同步停掉。

【错误日志】

从库日志:SHOW SLAVE STATUS \G;

Slave_IO_Running: Yes

Slave_SQL_Running: No

Last_Errno: 1593

Last_Error: Error initializing relay log position: I/Oerror reading event at position 4

【解决方案】

在主库上找到同步的binlog和POS点,然后重新做同步,这样就可以有新的中继日志了。

mysql> CHANGE MASTER TO MASTER_LOG_FILE='mysql-bin.000010',MASTER_LOG_POS=821;

  • 场景6:binlog index记录不一致

【模拟异常】

主数据库突然停止或问题终止,更改了mysql-bin.xxx日志,slave服务器找不到这个文件。

【错误日志】

从库日志:SHOW SLAVE STATUS \G;

Master_Log_File: mysql-bin.000029

Last_Errno: 1594

Last_Error: Relay log read failure: Could not parserelay log event entry.

【解决方案】

找到同步的点和日志文件,然后chage master即可:

change master to master_log_file='mysql-bin.000025',master_log_pos=1010663436;

  • 场景7:时区不一致导致主从数据不一致

【模拟异常】:主从服务器设置不同的时区

主库:show variables like '%timezone%';      #.看到变量timezone值为EDT

从库:showvariables like '%timezone%';       #.看到变量timezone值为 CST

【错误日志】:主库执行insert into tbname(dtime)values(now());

主库:  select* from tbname;  #.看到字段dtime值为 2013-05-08 18:40:18

从库:  select* from tbname;  #.看到字段dtime值为 2013-05-09 06:40:18

【解决方案】:

设置主从为相同时区,并尽量使用相同时间服务器

如果对时间字段用now()写入,在删除时候用delete * from tbname where dtime='xxx',由于主从时间是不一致的,就会造成删除的非同一条记录,也会引起主键冲突问题。

  • 场景8:字段集不一致

【模拟异常】

1.主库:版本MySQL 4.0.18,字符集gb2312,主键字段PlayerName

show create table pybcsltscore; 

PRIMARY KEY (`PlayerName`)  ENGINE=MyISAM DEFAULT CHARSET=gb2312

2.从库:版本MySQL 4.1.22,字符集latin1,主键字段PlayerName

show create table pybcsltscore; 

PRIMARY KEY (`PlayerName`)  ENGINE=MyISAM DEFAULT CHARSET=latin1

3.主库:执行sql:

mysql> insert into pybcsltscore set PlayerName = '怒☆斩', PT = 'pchg.c8';

mysql> insert into pybcsltscore set PlayerName = '怒★斩', PT = 'pchg.c8';

4. 主库:查询正常

select * from pybcsltscore where playername='怒☆斩' or playername='怒★斩';

【错误日志】

从库:查询异常,查询实心星号,结果却出现空心星号

select * from pybcsltscore_bak where playername='怒★斩';

从库: 从库状态:

Last_Errno: 1062

Last_Error: Error 'Duplicate entry '怒★斩' for key 1' on query. Defaultdatabase: 'test0505'. Query: 'insert into pybcsltscore set PlayerName = '怒★斩', PT = 'pchg.cs68'‘

从库:插入playname=’怒★斩’ 的记录,会提示主键冲突

insert into score_bak set PlayerName = '怒★斩', PT = 'pchg.cs68';

ERROR 1062 (23000): Duplicate entry '怒★斩' for key 1

【解决方案】

方案1. 从库:去掉主键

alter table pybcsltscore_test0513 drop primary key;

stop slave sql_thread; start slave sql_thread;

       方案2. 从库:修改默认编码为gb2312

mysql --default-character-set=gb2312 -S mysql3307.sock

       从库:再次查询:

select * from pybcsltscore where playername='怒☆斩' or playername='怒★斩';

  • 场景9:max_allowed_packet太小

【模拟异常】

1. 主库:设置max_allowed_packet为特小值,比如12K:

mysql> set global max_allowed_packet=12*1024;

Query OK, 0 rows affected (0.00 sec)

   mysql> show variables like 'max_allowed_packet';                 

+--------------------+-------+

| Variable_name      | Value |

+--------------------+-------+

| max_allowed_packet | 12288 |

+--------------------+-------+

2. 重启slave io thread

#说明:slave如果不重启的话,个人觉得主从关系所使用的主库的变

不会改变,重启以便重新加载一些变量

3. 主库:导入r2.txt(仅一行记录    

 # du -sh r2.txt    80K    r2.txt)

 ./bin/mysql test0505 -e "load data infile'/tmp/r2.txt' into table test2;"

4. 查看从库状态

Slave_IO_Running: No

Slave_SQL_Running: Yes

5. 从库:

mysql> show variables like 'max_allowed_packet';                 

+--------------------+----------+

| Variable_name      | Value    |

+--------------------+----------+

| max_allowed_packet | 16776192|

+--------------------+----------+

【错误日志】

查看从数据库的错误日志,找到如下信息:

[ERROR] Got fatal error 1236: 'log event entry exceededmax_allowed_packet;

Increase max_allowed_packet on master' from master whenreading data from binary log

或类似:

[ERROR] Error reading packet from server: Got packetbigger than          'max_allowed_packet' bytes (server_errno=2020)

应该是master上的dump线程在从binlog读取数据时,读取的结果集超出了max_allowed_packet限制,造成往slave发送失败。

【解决方案】

修改max_allowed_packet的大小,然后重启slave。建议主从一致

mysql> set global max_allowed_packet=16*1024*1024;

重启slave, stop salve;start slave;

  • 场景10:临时表太大导致磁盘写满

【错误日志】:从库日志

 Last_Errno: 3

  Last_Error: Error 'Error writing file '/tmp/FeqMc' (Errcode: 28)'on query.

  Default database: 'evt'. Query: 'delete from goodslogwhere OpTime<'2015-07-01''

【错误原因】

1. tmp目录不可写,或磁盘没有空间;

2. tmp还有空间,但是原表太大,所以查询时生成的临时表过大,因此出   错。

【解决方案】

1. 确认/tmp可写入,同时磁盘未写满;

2. 修改socket目录到空间较大的分区,再重启实例;

把 socket = /tmp/mysql.sock 改为 socket = /app/mysql.sock

猜你喜欢

转载自my.oschina.net/u/3803404/blog/1838590