Mysql的主从复制的读写分离之Amoeba实现
Mysql的主从复制的读写分离之Amoeba实现Mysql的主从复制的读写分离之Amoeba实现以前写过了一篇Mysql的主从复制,但没有实现Mysql的主从复制的读写分离。
关于读写分离:
读写分离(Read/Write Splitting),基本的原理是让主数据库处理事务性增、改、删、操作(INSERT、UPDATE、DELETE),而从数据库处理SELECT查询操作。数据库复制被用来把事务性操作导致的变更同步到集群中的从数据库。
关于Mysql的读写分离实现大致有三种:
1、 程序修改Mysql操作类
就以程序来完成Mysql的读写操作,如以PHP程序、java程序等解决此需求。
优点:直接和数据库通信,简单快捷的读写分离和随机的方式实现的负载均衡,权限独立分配
缺点:自己维护更新,增减服务器上的代码处理。
2、 mysql-proxy
MySQL-Proxy是处在你的MySQL数据库客户和服务端之间的程序,它还支持嵌入性脚本语言Lua。这个代理可以用来分析、监控和变换(transform)通信数据,它支持非常广泛的使用场景:
[*]负载平衡和故障转移处理
[*]查询分析和日志
[*]SQL宏(SQL macros)
[*]查询重写(quer rewriting)
[*]执行shell命令
优点:直接实现读写分离和负载均衡,不用修改代码,master和slave用同一个账号
缺点:字符集问题,lua语言编程,还只是alpha版本,时间消耗有点高
3、 Amoeba
参考官网:http://amoeba,meidusa.com/
优点:直接实现读写分离和负载均衡,不用修改代码,有很灵活的数据解决方案
缺点:自己分配账户,和后端数据库权限管理独立,权限处理不够灵活
以上是三种常见的Mysql的读写分离方法。在这建议用第三种也就是amoeba来实现
关于Amoeba
Amoeba(变形虫)项目,该开源框架于2008年开始发布一款Amoeba for Mysql软件。这个软件致力于Mysql的分布式数据库前端代理层,它主要在应用层访问Mysql的时候充当SQL路由功能,专注于分布式数据库代理层(Database Proxy)开发。位于Client、DB Server(s)之间,对客户透明。具有负载均衡、高可用性、SQL过滤、读写分离、可路由相关的到目标数据库、可并发请求多台数据库合并结果。通过Amoeba你能够完成多数据源的高可用、负载均衡、数据切片的功能,目前Amoeba已在很多企业的生产线上使用。
下面就来把 Mysql的主从复制和读写分离完整的实现一下。
先来做Mysql的主从复制。
我实现的环境如下:
System:Centos 5.4 32bit
主:192.168.1.107
从:192.168.1.139
读写分离:192.168.1.183
拓扑图如下:
http://img1.51cto.com/attachment/201209/111457764.jpg
MySql的主从复制:
对主MysqL服务器,主要是开启二进制日志,这个默认是开启的,在配置文件中:
# vim /etc/my.cnf
server-id = 1 (默认为1)
log-bin = mysql-bin (这个也是默认开启的)
下面连接到mysql数据库中创建一个用户并赋予复制权限。
mysql> GRANT REPLICATION CLIENT,REPLICATION SLAVE ON *.* TO 'repl'@'192.168.1.139' IDENTIFIED BY "123456";
这样在主服务器上操作暂时完成了。
下面来在从服务器上操作:
修改主配置文件:my.cnf # vim /etc/my.cnf
定位到 server-id = 1
修改为:server-id = 2
添加如下内容:
relayrelay-log = relay-bin
relayrelay-log-index = relay-bin.index
修改完成后,保存退出;
# service mysqld restart 因为在主mysql中已经有数据了,所以要把主服务器的数据导入到从服务器中,所以在主服务器上的操作: # mysqldump --all-databases --lock-all-tables --master-data=2 > /tmp/slave.sql
导出后复制到从服务器上:
# scp /tmp/slave.sql 192.168.1.139:/tmp/
进入到从服务器上,导入数据。
# mysql < /tmp/slave.sql 以上操作完成后就可以做把主从连接在一起了。
在从服务器上进入数据库中 mysql> CHANGE MASTER TO MASTER_HOST='192.168.1.107',MASTER_USER='repl',MASTER_PASSWORD='123456'; 下面就可以在从服务器上开启复制了
mysql> start slave;
查看是否连接成功: mysql> show slave status\G
如下两行出现则表明主从复制成功:
Slave_IO_Running: Yes
Slave_SQL_Running: Yes 可在主服务器上创建一个数据库或表来在从服务器上来验证一下。
下面来进行最为核心的内容——读写分离
下面的操作要在读写分离的服务器上操作也就是:192.168.1.183
Amoeba的安装:
安装Amoeba前要先安装JDK,因为Amoeba是用java开发的所要有JDK支持。 # java -version
java version "1.6.0_33"
Java(TM) SE Runtime Environment (build 1.6.0_33-b04)
Java HotSpot(TM) Server VM (build 20.8-b03, mixed mode) 如果没有安装JDK,要先安装,方法如下 : 去oracle官网下载jdk安装包后,安装jdk
# chmod 755 jdk-6u33-linux-i586.bin
# ./jdk-6u33-linux-i586.bin
默认安装到/usr/java/jdk1.6.0_33
下面来修改环境变量:
# vim /etc/profile
添加如下行:
export JAVA_HOME=/usr/java/jdk1.6.0_33
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
保存退出!
# source /etc/profile \\使之生效
查看:
# java -version
java version "1.6.0_33"
Java(TM) SE Runtime Environment (build 1.6.0_33-b04)
Java HotSpot(TM) Server VM (build 20.8-b03, mixed mode) 安装完成后就可以安装Amoeba了
下载:wget http://nchc.dl.sourceforge.net/project/amoeba/Amoeba%20for%20mysql/2.x/amoeba-mysql-binary-2.1.0-RC5.tar.gz安装: # mkdir /usr/local/amoeba
# mv amoeba-mysql-binary-2.1.0-RC5.tar.gz /usr/local/amoeba
# cd /usr/local/amoeba
# tar zxvf amoeba-mysql-binary-2.1.0-RC5.tar.gz 解压后就完成了。下面要做的就是配置。 # cd /usr/local/amoeba\\主要是配置下面两个文件
dbServer.xml\\ 定义连接数据库的信息
amoeba.xml\\ 定义读写分离的节点管理信息下面就来配置一下。
# cd /usr/local/amoeba
# vim dbServer.xml <?xml version="1.0" encoding="gbk"?>
<!DOCTYPE amoeba:dbServers SYSTEM "dbserver.dtd">
<amoeba:dbServers xmlns:amoeba="http://amoeba.meidusa.com/">
<!--
Each dbServer needs to be configured into a Pool,
每个dbServer需要配置一个pool,如果多台平等的mysql需要进行loadBalance,
平台已经提供一个具有负载均衡能力的objectPool:
简单的配置是属性加上virtual="true",该Pool不允许配置factoryConfig
或者自己写一个ObjectPool
such as 'multiPool' dbServer
-->
<dbServer name="abstractServer" abstractive="true">
<factoryConfig class="com.meidusa.amoeba.mysql.net.MysqlServerConnectionFactory">
<property name="manager">${defaultManager}</property>
<property name="sendBufferSize">64</property>
<property name="receiveBufferSize">128</property>
<!-- mysql port -->
<property name="port">3306</property>
\\这个是后端数据的端口
<!-- mysql schema -->
<property name="schema">test</property>
\\这个是后端默认的数据库
<!-- mysql user -->
<property name="user">root</property>
<!--mysql password
<property name="password">password</property>
-->
</factoryConfig>
<poolConfig class="com.meidusa.amoeba.net.poolable.PoolableObjectPool">
<property name="maxActive">500</property>
<property name="maxIdle">500</property>
<property name="minIdle">10</property>
<property name="minEvictableIdleTimeMillis">600000</property>
<property name="timeBetweenEvictionRunsMillis">600000</property>
<property name="testOnBorrow">true</property>
<property name="testWhileIdle">true</property>
</poolConfig>
</dbServer>
\\下面的配置是定义一个主节点和一个从节点。
<dbServer name="master"parent="abstractServer">\\定义一个主节点
<factoryConfig>
<!-- mysql ip -->
<property name="ipAddress">192.168.1.107</property>
<property name="user">root</property>\\连接数据库的用户名
<property name="password">123456</property>\\连接数据库的密码
</factoryConfig>
</dbServer>
<dbServer name="slave"parent="abstractServer">\\定义一个从节点
<factoryConfig>
<!-- mysql ip -->
<property name="ipAddress">192.168.1.139</property>
<property name="user">root</property>
<property name="password">123456</property>
</factoryConfig>
</dbServer>
\\定义池,把master和slave加入
<dbServer name="server1" virtual="true">\\server1是要把master节点加入
<poolConfig class="com.meidusa.amoeba.server.MultipleServerPool">
<!-- Load balancing strategy: 1=ROUNDROBIN , 2=WEIGHTBASED , 3=HA--> < !-- 负载均衡参数1=ROUNDROBIN , 2=WEIGHTBASED , 3=HA-->
<property name="loadbalance">1</property>
<!-- Separated by commas,such as: server1,server2,server1 -->
<property name="poolNames">master</property><!--
参与该pool负载均衡的poolName列表以逗号分割 这里只一个主节点所以就一个
-->
</poolConfig>
</dbServer>
<dbServer name="server2" virtual="true">\\server2是要把slave节点加入
<poolConfig class="com.meidusa.amoeba.server.MultipleServerPool">
<!-- Load balancing strategy: 1=ROUNDROBIN , 2=WEIGHTBASED , 3=HA-->
<property name="loadbalance">1</property>
<!-- Separated by commas,such as: server1,server2,server1 -->
<property name="poolNames">slave</property>
</poolConfig>
</dbServer>
</amoeba:dbServers> 下面来配置amoeba.xml文件 <?xml version="1.0" encoding="gbk"?>
<!DOCTYPE amoeba:configuration SYSTEM "amoeba.dtd">
<amoeba:configuration xmlns:amoeba="http://amoeba.meidusa.com/">
<proxy>
<!-- service class must implements com.meidusa.amoeba.service.Service -->
<service name="Amoeba for Mysql" class="com.meidusa.amoeba.net.ServerableConnectionManager">
<!-- port -->
<property name="port">8066</property>
\\定义amoeba读写分离proxy对外代理的端口
<!-- bind ipAddress -->
<!--
<property name="ipAddress">127.0.0.1</property> \\这个是绑定端口的ip
如新注释掉了,说明8066端口绑定在0.0.0.0/0.0.0.0 上面
-->
<property name="manager">${clientConnectioneManager}</property>
<property name="connectionFactory">
<bean class="com.meidusa.amoeba.mysql.net.MysqlClientConnectionFactory">
<property name="sendBufferSize">128</property>
<property name="receiveBufferSize">64</property>
</bean>
</property>
<property name="authenticator">
<bean class="com.meidusa.amoeba.mysql.server.MysqlClientAuthenticator">
<property name="user">root</property>
\\定义通过amoeba登录的用户名
<property name="password">123456</property>
\\相应的这个就是密码了。 定义proxy的管理帐号密码,客户端和程序只需要连接proxy的帐号密码即可,相当于中间接封装
<property name="filter">
<bean class="com.meidusa.amoeba.server.IPAccessController">
<property name="ipFile">${amoeba.home}/conf/access_list.conf</property>
</bean>
</property>
</bean>
</property>
</service>
<!-- server class must implements com.meidusa.amoeba.service.Service -->
<service name="Amoeba Monitor Server" class="com.meidusa.amoeba.monitor.MonitorServer">
<!-- port -->
<!--default value: random number
<property name="port">9066</property>
-->
<!-- bind ipAddress -->
<property name="ipAddress">127.0.0.1</property>
<property name="daemon">true</property>
<property name="manager">${clientConnectioneManager}</property>
<property name="connectionFactory">
<bean class="com.meidusa.amoeba.monitor.net.MonitorClientConnectionFactory"></bean>
</property>
</service>
<runtime class="com.meidusa.amoeba.mysql.context.MysqlRuntimeContext">
<!-- proxy server net IO Read thread size -->
<property name="readThreadPoolSize">20</property>
<!-- proxy server client process thread size -->
<property name="clientSideThreadPoolSize">30</property>
<!-- mysql server data packet process thread size -->
<property name="serverSideThreadPoolSize">30</property>
<!-- per connection cache prepared statement size-->
<property name="statementCacheSize">500</property>
<!-- query timeout( default: 60 second , TimeUnit:second) -->
<property name="queryTimeout">60</property>
</runtime>
</proxy>
<!--
Each ConnectionManager will start as thread
manager responsible for the Connection IO read , Death Detection
\\每个ConnectionManager 都做为一个线程启动
\\manager 负责Connection IO读写/死亡检测
-->
<connectionManagerList>
<connectionManager name="clientConnectioneManager" class="com.meidusa.amoeba.net.MultiConnectionManagerWrapper">
<property name="subManagerClassName">com.meidusa.amoeba.net.ConnectionManager</property>
<!--
default value is avaliable Processors
<property name="processors">5</property>
-->
</connectionManager>
<connectionManager name="defaultManager" class="com.meidusa.amoeba.net.MultiConnectionManagerWrapper">
<property name="subManagerClassName">com.meidusa.amoeba.net.AuthingableConnectionManager</property>
<!--
default value is avaliable Processors
<property name="processors">5</property>
-->
</connectionManager>
</connectionManagerList>
<!-- default using file loader -->
<dbServerLoader class="com.meidusa.amoeba.context.DBServerConfigFileLoader">
<property name="configFile">${amoeba.home}/conf/dbServers.xml</property>
</dbServerLoader>
<queryRouter class="com.meidusa.amoeba.mysql.parser.MysqlQueryRouter">
<property name="ruleLoader">
<bean class="com.meidusa.amoeba.route.TableRuleFileLoader">
<property name="ruleFile">${amoeba.home}/conf/rule.xml</property>
<property name="functionFile">${amoeba.home}/conf/ruleFunctionMap.xml</property>
</bean>
</property>
<property name="sqlFunctionFile">${amoeba.home}/conf/functionMap.xml</property>
<property name="LRUMapSize">1500</property>
<property name="defaultPool">server1</property>
\\定义默认的池,一些除了SELECT\UPDATE\INSERT\DELETE的语句都会在defaultPool执行
<property name="writePool">server1</property>
\\定义写的池,这里的server1就是在dbServer.xml中的server1
<property name="readPool">server2</property>
\\定义读的池,这里的server2就是在dbserver.xml中的server2
<property name="needParse">true</property>
</queryRouter>
</amoeba:configuration> 配置完成后就可以启动amoeba了。 # cd /usr/local/amoeba/bin
# ./amoeba
amoeba start|stop
# ./amoeba start &\\会输出下面的信息
6789
log4j:WARN log4j config load completed from file:/usr/local/amoeba/conf/log4j.xml
2012-09-06 17:56:01,619 INFOcontext.MysqlRuntimeContext - Amoeba for Mysql current versoin=5.1.45-mysql-amoeba-proxy-2.1.0-RC5
log4j:WARN ip access config load completed from file:/usr/local/amoeba/conf/access_list.conf
2012-09-06 17:56:01,987 INFOnet.ServerableConnectionManager - Amoeba for Mysql listening on 0.0.0.0/0.0.0.0:8066.
2012-09-06 17:56:01,992 INFOnet.ServerableConnectionManager - Amoeba Monitor Server listening on /127.0.0.1:6376.
从上面的信息中可以看到8066端口打开了。可查看进程:
# ps aux | grep amoeba
root 67894.11.5 408940 31908 pts/1 Sl 17:56 0:00 /usr/java/jdk1.6.0_33/bin/java -server -Xms256m -Xmx256m -Xss12sworlds.conf=/usr/local/amoeba/bin/amoeba.classworlds -classpath /usr/local/amoeba/lib/classworlds-1.0.jar org.co
root 68200.00.0 5112 680 pts/1 S+ 17:56 0:00 grep amoeba
# netstat -tlnp
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name
tcp 0 0 0.0.0.0:111 0.0.0.0:* LISTEN -
tcp 0 0 0.0.0.0:688 0.0.0.0:* LISTEN -
tcp 0 0 127.0.0.1:631 0.0.0.0:* LISTEN -
tcp 0 0 127.0.0.1:25 0.0.0.0:* LISTEN -
tcp 0 0 :::8066 :::* LISTEN 6789/java
tcp 0 0 ::ffff:127.0.0.1:6376 :::* LISTEN 6789/java
tcp 0 0 :::22 :::* LISTEN - 从上面的一些信息可以看到amoeba已经启动,下面就可以测试一下了。
下面来做一测试:
为了更好的看到测试结果,要做以下这些步骤:
测试之前要先保证amoeba-server有访问两个主从服务器test库的权限,在主mysql上执行: mysql> grant all privileges on *.* to 'root'@'192.168.1.183' identified by "123456";
mysql> flush privileges;
用户创建完成后就可以登录了
# mysql -uroot -p123456 -h192.168.1.183 -P8066 下面开始测试:
先让主从开始复制,即在从服务器上执行:
mysql> slave start;
再从读写分离的服务器上登录:
# mysql -uroot -p123456 -h192.168.1.183 -P8066
进入之后,先来创建一个数据库zhou,然后在这个数据库中创建一个表test
mysql> create database zhou;
mysql> use zhou;
mysql> create table test (id int(10), name varchar(20),adress varchar(30));
做完这些,回到从服务器上执行:
mysql> slave stop;
接着在主从服务器上各加入一条不同的数据。
在主上:
mysql> use zhou;
mysql> insert into test ('1','zhou','this_is_master');
在从上:
mysql> use zhou;
mysql> insert into test ('2','zhou','this_is_slave');
完成后就可以在读写分离服务器上测试读写了
在读写分离服务器上:
mysql> use zhou;
mysql> select * from test;
+------+------+---------------+
| id | name | address |
+------+------+---------------+
| 2 | zhou | this_is_slave |
+------+------+---------------+
1 row in set (0.01 sec)
从结果可以看出数据是读的从服务器上的数据,然后我们直接插入数据,再来测试
mysql> insert into test values('3','hhh','test_write');
Query OK, 1 row affected (0.01 sec)
mysql> select * from test;
+------+------+---------------+
| id | name | address |
+------+------+---------------+
| 2 | zhou | this_is_slave |
+------+------+---------------+
1 row in set (0.00 sec)
结果显示出的数据没有改变,因为我们把主从复制停了,所以数据没有同步,从查询的结果可以看到,数据还是来自从服务器。
然后们再在主服务器上查询可以看到:
mysql> select * from test;
+------+------+--------------- +
| id | name | address |
+------+------+--------------- +
| 1 | zhou | this_is_master |
+------+------+--------------- +
| 3 | hhh|test_write |
+------+------+--------------- +
从上面的结果可以看出,数据的读写分离成功了。
以上就是mysql数据库的主从复制以及读写分离的整个过程。文中可能还存在不完整或者出错的地方,还请大家指出来,谢谢了。
摘自:http://zhou123.blog.51cto.com/4355617/983592
Mysql的主从复制的读写分离之Amoeba实现
页:
[1]