大橙子网站建设,新征程启航
为企业提供网站建设、域名注册、服务器等服务
简介
成都创新互联公司长期为上千余家客户提供的网站建设服务,团队从业经验10年,关注不同地域、不同群体,并针对不同对象提供差异化的产品和服务;打造开放共赢平台,与合作伙伴共同营造健康的互联网生态环境。为榆次企业提供专业的网站建设、成都网站制作,榆次网站改版等技术服务。拥有10多年丰富建站经验和众多成功案例,为您定制开发。
Percona XtraDB Cluster是针对MySQL用户的高可用性和扩展性解决方案,基于Percona Server 。其包括了Write Set REPlication补丁,使用Galera 2.0库,这是一个针对事务性应用程序的同步多主机复制插件。
Percona XtraDB Cluster特点:
(1)同步复制,事务在所有集群节点要么同时提交,要么不提交。
(2)多主复制,可以在任意一个节点写入。
(3)从服务器上的并行应用事件,真正的“并行复制”。
(4)自动配置节点。
(5)数据一致性,没有不同步的从服务器。
pxc框架图
优点总结:
可以达到时时同步,无延迟现象发生
完全兼容MySQL
对于集群中新节点的加入,维护起来很简单
数据的强一致性
不足之处总结:
只支持Innodb存储引擎
最大的缺点是多写问题,最短板性能上限问题
在线DDL语句,锁表问题
sst针对新节点加入的传输代价过高的问题
测试场景测试:
在我们硬件水平是256G内存,32核CPU,SSD硬件,单行数据大概1K,单表1千万,512表。 QPS在2.5k写+5K读时,就会有节点同步阻塞问题。当时我们临时切成只读(不执行写SQL)10分钟后,才缓解过来。写queue配置参数在下面。
建议场景:低写QPS的DB,使用PXC集群,以防硬件故障,达到高可用。
一、环境准备
1、系统环境
[root@master ~]# cat /etc/redhat-release
CentOS Linux release 7.5.1804 (Core)
2、数据库环境
数据库IP地址 | 数据库版本 | 主机名 | server_id |
192.168.56.129 | 无 | master | 129 |
192.168.56.130 | 无 | slave1 | 130 |
192.168.56.131 | 无 | slave2 | 131 |
3、注意事项
暂时关闭防火墙和selinux服务
使用端口 3306 、4444、4567、4568
二、搭建(yum安装)(三台都要)
1、安装percona环境
1.1、配置yum源
[root@master ~]# yum installhttp://www.percona.com/downloads/percona-release/redhat/0.1-4/percona-release-0.1-4.noarch.rpm
[root@master ~]# yum install perl-IO-Socket-SSL perl-DBD-MySQL perl-Time-HiRes socat nc openssl -y
1.3、下载安装Percona-XtraDB-Cluster
[root@master ~]# yum install -y libaio*
[root@master ~]# yum groupinstall -y 'Development tools'
[root@master ~]# yum install -y libssl.so.6
[root@master lib64]# ln -sf /usr/lib64/libssl.so.10 /usr/lib64/libssl.so.6
[root@master lib64]# ln -sf /usr/lib64/libcrypto.so.10 /usr/lib64/libcrypto.so.6
yum安装
[root@master ~]# yum install Percona-XtraDB-Cluster-57
2、启动服务
[root@master ~]# systemctl start mysqld.service (第一个节点启动方式不一样)
查看默认密码
[root@master ~]# grep "temporary password" /var/log/mysqld.log
3、登录数据库修改
mysql> alter user 'root'@'localhost' identified by 'Jsq@2018';
Query OK, 0 rows affected (0.00 sec)
mysql> flush privileges;
Query OK, 0 rows affected (0.00 sec)
4、创建sst账号密码(只在第一个节点添加,其他同步即可)
mysql> GRANT RELOAD,LOCK TABLES,PROCESS,REPLICATION CLIENT ON *.* TO 'sstuser1'@'localhost' IDENTIFIED BY '123456';
mysql> FLUSH PRIVILEGES;
5、配置mysqld.cnf文件
cat /etc/percona-xtradb-cluster.conf.d/mysqld.cnf
默认状态
现在在/etc/my.cnf第一行添加[mysqld],然后重新启动服务成功(节点2和节点3的也需要参照节点1在配置文件/etc/my.cnf的第一行添加[mysqld])。
master配置如下:
[mysqld]
#!includedir /etc/my.cnf.d/
#!includedir /etc/percona-xtradb-cluster.conf.d/
#PXC
# Path to Galera library
wsrep_provider=/usr/lib64/galera3/libgalera_smm.so
# Cluster connection URL contains the IPs of node#1, node#2 and node#3
wsrep_cluster_address=gcomm://192.168.56.129,192.168.56.130,192.168.56.131
# In order for Galera to work correctly binlog format should be ROW
binlog_format=ROW
# MyISAM storage engine has only experimental support
default_storage_engine=InnoDB
# This changes how InnoDB autoincrement locks are managed and is a requirement for Galera
innodb_autoinc_lock_mode=2
# Node #1 address
wsrep_node_address=192.168.56.129
wsrep_node_name=pxc1
# SST method
wsrep_sst_method=xtrabackup-v2
# Cluster name
wsrep_cluster_name=pxc-cluster
# Authentication for SST method
wsrep_sst_auth="sstuser1:123456"
slave1配置如下:
[mysqld]
#PXC
wsrep_provider=/usr/lib64/galera3/libgalera_smm.so
wsrep_cluster_address=gcomm://192.168.56.129,192.168.56.130,192.168.56.131
binlog_format=ROW
default_storage_engine=InnoDB
innodb_autoinc_lock_mode=2
wsrep_node_address=192.168.56.130
wsrep_node_name=pxc2
wsrep_sst_method=xtrabackup-v2
wsrep_cluster_name=pxc-cluster
wsrep_sst_auth="sstuser1:123456"
slave2配置如下:
[mysqld]
#PXC
wsrep_provider=/usr/lib64/galera3/libgalera_smm.so
wsrep_cluster_address=gcomm://192.168.56.129,192.168.56.130,192.168.56.131
binlog_format=ROW
default_storage_engine=InnoDB
innodb_autoinc_lock_mode=2
wsrep_node_address=192.168.56.131
wsrep_node_name=pxc3
wsrep_sst_method=xtrabackup-v2
wsrep_cluster_name=pxc-cluster
wsrep_sst_auth="sstuser1:123456"
启动第一个节点
[root@master ~]# systemctl start mysql@bootstrap.service
[root@master ~]# systemctl status mysql@bootstrap.service
[root@master ~]# ss -tnl
其他节点采用正确方式启动
[root@slave1 ~]# systemctl start mysqld.service
[root@slave2 ~]# systemctl start mysqld.service
6、查看三个节点状态
mysql> show status like '%wsrep%';
三、测试
在master更新数据
在slave1更新数据
在slave2更新数据
到此即可!!!!!!!!!!!!!!!!!