目录
3.3、半同步复制(Semi-Sync Replication)
3.4、增强半同步复制(lossless Semi-Sync Replication、无损复制)
搭建时间同步(从服务器:192.168.58.19、192.168.58.30)
5、配置从服务器(192.168.58.19、192.168.58.30)
前言:在实际的生产环境中,如果对数据库的读和写都在同一个数据库服务器中操作,无论是在安全性、高可用性还是高并发等各个方面都是完全不能满足实际需求的。因此,一般来说 都是通过主从复制(Master-Slave)来同步数据,再通过读写分离来提升数据库并发负载能力的方案来进行部署与实施。
一、主从复制原理
MySQL 的主从复制和 MySQL 的读写分离两者有着紧密联系,首先要部署主从复制,
只有主从复制完成了,才能在此基础上进行数据的读写分离。
1、MySQL 支持的复制类型
1.1、基于语句的复制(STATEMENT)
在主服务器上执行的 SQL 语句,在从服务器上执行同样的语句。MySQL 默认采用基于语句的复制,效率比较高。
1.2、基于行的复制(ROW)
把改变的内容复制过去,而不是把命令在从服务器上执行一遍
1.3、混合类型的复制(MIXED)
默认采用基于语句的复制,一旦发现基于语句无法精确复制时,就会采用基于行的复制。
2、主从复制的工作过程
核心:两个日志,三个线程
两个日志:二进制日志、中继日志
三个线程:I/O、dump、sql
主要原理:Master将数据保存在二进制日志中,I/O向dump发出同步请求,
dump把数据发送给I/O线程,I/O写入本地的中继日志数据,同步到自己数据库中,完成同步。
1、主MySQL服务器做的增删改操作,都会写入自己的二进制日志(Binary log)
2、然后从MySQL从服务器打开自己的I/O线程连接主服务器,进行读取主服务器的二进制日志
3、I/O去监听二进制日志,一旦有新的数据,会发起请求连接
4、这时候会触发dump线程,dump thread响应请求,传送数据给I/O(dump线程要么处于等待,要么处于睡眠)
5、I/O接收到数据之后存放在中继日志
6、SQL thread线程会读取中继日志里的数据,存放到自己的服务器中。
- 在每个事务更新数据完成之前,Master在二进制日志(Binary log)记录这些改变。写入二进制日志完成后,Master通知存储引擎批交事务。
- Slave 将Master复制到其中继日志(Relay log),首先slave开始一个工作线程(I/O),I/O线程在Master上打开一个普通的连接,然后开始Binlog dump process。Binlog dump process从Master的二进制日志中读取事件,如果已经跟上Master,它会睡眠并等待Master产生新的事件,I/O线程将这些事件写入中继日志。
- SQL slave thread(SQL从线程)处理该过程的最后一步,SQL线程从中继日志读取事件,并重放其中的事件而更新slave数据,使其与Master中的数据一致,只要该线程与I/O线程保持一致。
注:
中继日志通常会位于OS缓存中,所以中继日志的开销很小。
复制过程有一个很重要的限制,即复制在slave上是串行化的,
也就是说Master上的并行更新操作不能在slave上并行操作。
3、MySQL四种同步方式
MySQL有四种同步方式:
- 异步复制(Async Replication)
- 同步复制(sync Replication)
- 半同步复制(Async Replication)
- 增强半同步复制(lossless Semi-Sync Replication)、无损复制
3.1、异步复制(Async Replication)
主库将更新写入Binlog日志文件后,不需要等待数据更新是否已经复制到从库中,就可以继续处理更多的请求。Master将事件写入binlog,但并不知道Slave是否或何时已经接收且已处理。在异步复制的机制的情况下,如果Master宕机,事务在Master上已提交,但很可能这些事务没有传到任何的Slave上。假设有Master->Salve故障转移的机制,此时Slave也可能会丢失事务。MySQL复制默认是异步复制,异步复制提供了最佳性能。
3.2、同步复制(Sync Replication)
主库将更新写入Binlog日志文件后,需要等待数据更新已经复制到从库中,并且已经在从库执行成功,然后才能返回继续处理其它的请求。同步复制提供了最佳安全性,保证数据安全,数据不会丢失,但对性能有一定的影响。
3.3、半同步复制(Semi-Sync Replication)
主库提交更新写入二进制日志文件后,等待数据更新写入了从服务器中继日志中,然后才能再继续处理其它请求。该功能确保至少有1个从库接收完主库传递过来的binlog内容已经写入到自己的relay log里面了,才会通知主库上面的等待线程,该操作完毕。
半同步复制,是最佳安全性与最佳性能之间的一个折中。
MySQL 5.5版本之后引入了半同步复制功能,主从服务器必须安装半同步复制插件,才能开启该复制功能。如果等待超时,超过rpl_semi_sync_master_timeout参数设置时间(默认值为10000,表示10秒),则关闭半同步复制,并自动转换为异步复制模式。当master dump线程发送完一个事务的所有事件之后,如果在rpl_semi_sync_master_timeout内,收到了从库的响应,则主从又重新恢复为增强半同步复制。
ACK (Acknowledge character)即是确认字符。
3.4、增强半同步复制(lossless Semi-Sync Replication、无损复制)
增强半同步是在MySQL 5.7引入,其实半同步可以看成是一个过渡功能,因为默认的配置就是增强半同步,所以,大家一般说的半同步复制其实就是增强的半同步复制,也就是无损复制。
增强半同步和半同步不同的是,等待ACK时间不同
rpl_semi_sync_master_wait_point = AFTER_SYNC(默认)
半同步的问题是因为等待ACK的点是Commit之后,此时Master已经完成数据变更,用户已经可以看到最新数据,当Binlog还未同步到Slave时,发生主从切换,那么此时从库是没有这个最新数据的,用户看到的是老数据。
增强半同步将等待ACK的点放在提交Commit之前,此时数据还未被提交,外界看不到数据变更,此时如果发送主从切换,新库依然还是老数据,不存在数据不一致的问题。
二、读写分离原理
读写分离就是只在主服务器上写,只在从服务器上读。基本的原理是让主数据库处理事务性操作,而从数据库处理 select 查询。数据库复制被用来把主数据库上事务性操作导致的变更同步到集群中的从数据库。
1、什么是读写分离?
读写分离,基本的原理是让主数据库处理事务性增、改、删操作(INSERT、UPDATE、DELETE),而从数据库处理SELECT查询操作。数据库复制被用来把事务性操作导致的变更同步到集群中的从数据库。
2、为什么要读写分离呢?
因为数据库的“写”(写10000条数据可能要3分钟)操作是比较耗时的。
但是数据库的“读”(读10000条数据可能只要5秒钟)。
所以读写分离,解决的是,数据库的写入,影响了查询的效率。
3、什么时候要读写分离?
数据库不一定要读写分离,如果程序使用数据库较多时,而更新少,查询多的情况下会考虑使用。利用数据库主从同步,再通过读写分离可以分担数据库压力,提高性能。
4、主从复制与读写分离
在实际的生产环境中,对数据库的读和写都在同一个数据库服务器中,是不能满足实际需求的。无论是在安全性、高可用性还是高并发等各个方面都是完全不能满足实际需求的。因此,通过主从复制的方式来同步数据,再通过读写分离来提升数据库的并发负载能力。有点类似于rsync,但是不同的是rsync是对磁盘文件做备份,而mysql主从复制是对数据库中的数据、语句做备份。
三、MySQL 读写分离类型
1、基于程序代码内部实现
在代码中根据 select、insert 进行路由分类,这类方法也是目前生产环境应用最广泛的。
优点是性能较好,因为在程序代码中实现,不需要增加额外的设备为硬件开支;
缺点是需要开发人员来实现,运维人员无从下手。
但是并不是所有的应用都适合在程序代码中实现读写分离,像一些大型复杂的Java应用,如果在程序代码中实现读写分离对代码改动就较大。
2、基于中间代理层实现
代理一般位于客户端和服务器之间,代理服务器接到客户端请求后通过判断后转发到后端数据库,有以下代表性程序。
- MySQL-Proxy。MySQL-Proxy 为 MySQL 开源项目,通过其自带的 lua 脚本进行SQL 判断。
- Atlas。是由奇虎360的Web平台部基础架构团队开发维护的一个基于MySQL协议的数据中间层项目。它是在mysql-proxy 0.8.2版本的基础上,对其进行了优化,增加了一些新的功能特性。360内部使用Atlas运行的mysql业务,每天承载的读写请求数达几十亿条。支持事物以及存储过程。
- Amoeba。由陈思儒开发,作者曾就职于阿里巴巴。该程序由Java语言进行开发,阿里巴巴将其用于生产环境。但是它不支持事务和存储过程。
由于使用MySQL Proxy 需要写大量的Lua脚本,这些Lua并不是现成的,而是需要自己去写。这对于并不熟悉MySQL Proxy 内置变量和MySQL Protocol 的人来说是非常困难的。
Amoeba是一个非常容易使用、可移植性非常强的软件。因此它在生产环境中被广泛应用于数据库的代理层。
四、MySQL主从复制延迟
master服务器高并发,形成大量事务
网络延迟
主从硬件设备导致
cpu主频、内存io、硬盘io
本来就不是同步复制、而是异步复制
从库优化Mysql参数。比如增大innodb_buffer_pool_size,让更多操作在Mysql内存中完成,减少磁盘操作。
从库使用高性能主机。包括cpu强悍、内存加大。避免使用虚拟云主机,使用物理主机,这样提升了i/o方面性。
从库使用SSD磁盘
网络优化,避免跨机房实现同步
五、主从复制实验
1、环境配置
master服务器: 192.168.58.33 mysql 5.7
slave1服务器: 192.168.58.19 mysql 5.7
slave1服务器: 192.168.58.30
2、实验准备
#关闭防火墙
systemctl stop firewalld
setenforce 0
3、设置时间同步
搭建时间同步(主服务器:192.168.58.33)
#安装时间同步软件
yum install ntp -y
#编辑配置文件
vim /etc/ntp.conf
#在最后添加如下配置
server 127.127.58.0
#设置本地是时钟源
fudge 127.127.58.0 stratum 8
#网段固定格式127.127.+自己的网段号,stratum时间层级为8(限制在15内)
#启动服务
systemctl start ntpd
#安装时间同步服务器
修改配置文件
vim /etc/ntp.conf
开启服务
搭建时间同步(从服务器:192.168.58.19、192.168.58.30)
从服务器时间同步设置
#关闭防火墙
systemctl stop firewalld
setenforce 0
#安装时间同步软件
yum install ntpdate -y
开启服务
service ntpd start
#进行时间同步
crontab -e
/usr/sbin/ntpdate 192.168.58.33
#slave2:192.168.58.30与以上操作相同#####
安装时间同步服务器、同步服务
开启服务
执行同步
4、配置主服务器(192.168.58.33)
#开启二进制日志
vim /etc/my.cnf
log-bin=master-bin #开启二进制日志
binlog_format=MIXED #二进制日志格式
log-slave-updates=true #开启从服务器同步
2. #重启服务
systemctl restart mysqld.service
3. #登入mysql,给从服务器在网段授权
mysql -uroot -p
grant replication slave on *.* to 'myslave'@'192.168.58.%'identified by '123456';
#刷新数据库
flush privileges;
#查看主服务器二进制文件
show master status;
开启二进制日志
#重启服务
登入mysql,给从服务器在网段授权
5、配置从服务器(192.168.58.19、192.168.58.30)
#开启二进制日志
vim /etc/my.cnf
server-id = 2 #slave1和slave2的id不能相同与主不能一样
relay-log=relay-log-bin #开启中继日志,从主服务器上同步日志文件记录到本地
relay-log-index=slave-relay-bin.index #当slave从库宕机后,加入relay-log 损坏了,
导致一部分中继日志没有处理,则自动放弃所有未执行的relay-log ,
并且重新从master 上获取日志,这样就保证了relay-log 的完整性,默认情况下该功能是关闭的
#重启服务
systemctl restart mysqld.service
#登入mysql,配置同步注意master_log_file和master_log_pos的值要和master查询的一致
mysql -uroot -p
change master to master_host='192.168.58.33',master_user='myslave',master_password='123456',master_log_file='master-bin.000004',master_log_pos=154;
start slave;
#启动同步,如果报错,执行restart slave试试
#以下两个必须要是YES
show slave status\G;
##slave2:192.168.58.30与以上操作相同#
开启二进制日志
重启服务
登入mysql,配置同步注意master_log_file和master_log_pos的值要和master查询的一致
6、 验证主从同步
#在主服务器上创建一个库
create database ceshi_1;
#在从服务器上查看
show databases;
六、搭建Amoeba 实现读写分离
1、环境配置准备
master服务器: 192.168.58.33 mysql 5.7
slave1服务器: 192.168.58.19 mysql 5.7
slave1服务器: 192.168.58.30 mysql 5.7
Amoeba服务器: 192.168.59.113 jdk1.6、Amoeba
客户机 192.168.58.20 mariadb
2、初始环境准备
#服务器上都初始化
systemctl stop firewalld
setenforce 0
3、安装 Java 环境
###安装 Java 环境#######
下载安装包:
cd /opt
jdk-6u14-linux-x64.bin、amoeba-mysql-binary-2.2.0.tar.gz
把jdk复制到/usr/local下
cp jdk-6u14-linux-x64.bin /usr/local/jdk1.6
#赋予jdk权限并执行
chmod +x /usr/local/jdk1.6
cd /usr/local/
./jdk1.6 #一路回车到底,最后输入yes 自动安装
jdk改个名字
mv jdk1.6.0_14/ jdk1.6
#配置环境变量
vim /etc/profile
export JAVA_HOME=/usr/local/jdk1.6
export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$JAVA_HOME/lib:$JAVA_HOME/jre/bin/:$PATH:$HOME/bin
export AMOEBA_HOME=/usr/local/amoeba
export PATH=$PATH:$AMOEBA_HOME/bin
source /etc/profile #刷新配置文件
java -version #查看jdk环境
下载安装包
把jdk复制到/usr/local下
jdk改个名字
#配置环境变量
vim /etc/profile
source /etc/profile
4、配置amoeba
## 安装amoeba #
#在/usr/local目录下创建amoeba目录
mkdir /usr/local/amoeba
2.#切换至opt解压amoeba
cd /opt/
tar zxvf amoeba-mysql-binary-2.2.0.tar.gz -C /usr/local/amoeba
cd /usr/local/ 切换至目录查看
#给目录/usr/local/amoeba赋予执行权限
chmod -R 755 /usr/local/amoeba/
ll /usr/local/amoeba/
#配置 Amoeba读写分离
#先在Master、Slave1mysql上开放权限给 Amoeba 访问
grant all on *.* to test@'192.168.58.%' identified by '123456';
备份amoeba配置
cd /usr/local/amoeba/conf/
cp amoeba.xml amoeba.xml.bak
cp dbServer.xml dbServer.xml.bak
修改amoeba配置
30 <property name="user">amoeba</property>
32 <property name="password">123456</property>
115 <property name="defaultPool">master</property>
118 <property name="writePool">master</property>
119 <property name="readPool">slaves</property>
vim dbServers.xml
23 <!-- <property name="schema">test</property> -->
26 <property name="user">test</property>
29 <property name="password">123456</property>
44 <dbServer name="master" parent="abstractServer">
47 <property name="ipAddress">192.168.58.33</property>
51 <dbServer name="slave1" parent="abstractServer">
54 <property name="ipAddress">192.168.58.19</property>
58 <dbServer name="slave2" parent="abstractServer">
61 <property name="ipAddress">192.168.58.30</property>
64 <dbServer name="slaves" virtual="true">
#定义池名
70 <property name="poolNames">server1,server2</property>
#写上从节点名
#启动amoeba,并测试
amoeba start
netstat -ntap |grep java
在/usr/local目录下创建amoeba目录
切换至opt解压amoeba
#给目录/usr/local/amoeba赋予执行权限
#配置 Amoeba读写分离
备份amoeba配置
修改amoeba配置
vim dbServers.xml
启动amoeba
6、 在客户端测试(192.168.58.20)
#安装mariadb
yum install mariadb mariadb-server.x86_64 -y
2.#登入并查看数据库
mysql -uamoeba -p123123 -h 192.168.59.113 -P8066
#测试同步
##在主服务器服务器上新建表
use ceshi_1;
create table info(id int(10),name char(20));
show tables;
#在客户机上,插入数据会同步到所有数据库中
use ceshi_1;
insert into info values(1,'li');
在主从服务器上查看
测试读写分离
#停止slave1和slave2的slave同步功能
stop slave;
#在master、slave1和slave2上插入数据
安装mariadb
登入并查看数据库
1、测试同步
#在客户机上,插入数据会同步到所有数据库中
#在主从服务器上查看
2、 测试读写分离
两台从服务器上
stop slave; #关闭同步
在slave1上
insert into info values('1','slave1');
在slave2上
insert into info values(2,'slave2');
在主服务器上
insert into info values(3,'master');
在客户端服务器上
use ceshi_1;
select * from info;
//客户端会分别向slave1和slave2读取数据,显示的只有在两个从服务器上添加的数据,没有在主服务器上添加的数据
insert into info values('4','client'); //只有主服务器上有此数据
再在两个从服务器上执行 start slave; 即可实现同步在主服务器和客户机上添加的数据
七、总结
读写分离解析
1、首先在客户端插入的数据写入了主服务器,
2、因为从服务器关闭了同步数据服务,所以在从服务器上无法查询到在客户端写入的数据
3、主服务器可以查看到客户端的数据,说明在写入数据是从主服务器写入的
4、读取数据时只能查看到原先创建的和在slave服务器本地创建的数据,说明读取数据是从从服务器读取数据的。
原文链接:https://blog.csdn.net/weixin_56270746/article/details/125490089
此处评论已关闭