数据库–Cobar分布式数据库集群MySQL中间件
运行环境:
- 主机1:Ubuntu14.04 Desktop + MySQL5.5 + JDK 1.7(HP Z400) 内网IP地址:192.168.137.8
- NODE1:Ubuntu 13.04 server + MySQL5.5 内网IP地址:192.168.137.31
- NODE2:Ubuntu 13.04 server + MySQL5.5 内网IP地址:192.168.137.32
注:(NODE1和NODE2运行于XEN虚拟化平台,硬件环境HP Z800)
Cobar简介:
Cobar是关系型数据库的分布式处理系统,它可以在分布式的环境下看上去像传统数据库一样为您提供海量数据服务。
- 产品在阿里巴巴B2B公司已经稳定运行了3年以上。
- 目前已经接管了3000+个MySQL数据库的schema,为应用提供数据服务。
- 据最近统计cobar集群目前平均每天处理近50亿次的SQL执行请求。
Cobar最主要解决的问题是:分布式和HA。
分布式:主要是通过将同一个表的数据拆分成多个,放入不同的数据库实例,查询的时候也会按照同样的操作方式,来更新具体数据库实例中的对应的数据。
HA:高可用性,在设置了MYSQL心跳的情况下,如果主数据库发生了异常,Cobar会自动连接从数据库,如果主数据库恢复正常,只能手动恢复到主数据库。Cobar只负责切换数据库实例,不负责主从数据库的同步,所以需要提前将主从数据库设置双向同步。
存在的不足:
- (1).不支持跨库情况下的join、分页、排序、子查询操作。
- (2).SET语句执行会被忽略,事务和字符集设置除外。
- (3).分库情况下,insert语句必须包含拆分字段列名。
- (4).分库情况下,update语句不能更新拆分字段的值。
- (5).不支持SAVEPOINT操作。
- (6).暂时只支持MySQL数据节点。
- (7).使用JDBC时,不支持rewriteBatchedStatements=true参数设置(默认为false)。
- (8).使用JDBC时,不支持useServerPrepStmts=true参数设置(默认为false)。
- (9).使用JDBC时,BLOB, BINARY, VARBINARY字段不能使用setBlob()或setBinaryStream()方法设置参数。
当然,如果想努力实现这些功能,可以fork官方的源码:https://github.com/alibaba/cobar
环境搭建
- Cobar服务器:192.168.137.8:8066 用户名/密码:root/sa 实例名:dbtest
- 主机1:192.168.137.8:3306 用户名/密码:cobar/sa 实例名:dbtest1
- Node1:192.168.137.31:3306 用户名/密码:cobar/sa 实例名:dbtest2
- Node2:192.168.137.32:3306 用户名/密码:cobar/sa 实例名:dbtest3
Cobar-Server-1.2.7版本下载:http://pan.baidu.com/s/1pJudQh9
实验拓扑图如下:

首先分别在三个主机创建数据库实例:
#创建dbtest1脚本
dropdatabaseif exists dbtest1;
createdatabasedbtest1;
use dbtest1;
#在dbtest1上创建tb1
createtabletb1(
id intnotnull,
gmt datetime);
#创建dbtest2
dropdatabaseif exists dbtest2;
createdatabasedbtest2;
use dbtest2;
#在dbtest2上创建tb2
createtabletb2(
id intnotnull,
val varchar());
#创建dbtest3
dropdatabaseif exists dbtest3;
createdatabasedbtest3;
use dbtest3;
#在dbtest3上创建tb2
createtabletb2(
id intnotnull,
val varchar());
Cobar配置:
schema.xml配置如下
<!DOCTYPE cobar:schema SYSTEM "schema.dtd">
<cobar:schema xmlns:cobar="http://cobar.alibaba.com/">
<!-- schema定义 -->
<schema name="dbtest" dataNode="dnTest1">
<table name="tb2" dataNode="dnTest2,dnTest3" rule="rule1" />
</schema>
<!-- 数据节点定义,数据节点由数据源和其他一些参数组织而成。-->
<dataNode name="dnTest1">
<property name="dataSource">
<dataSourceRef>dsTest[]</dataSourceRef>
</property>
</dataNode>
<dataNode name="dnTest2">
<property name="dataSource">
<dataSourceRef>dsTest[]</dataSourceRef>
</property>
</dataNode>
<dataNode name="dnTest3">
<property name="dataSource">
<dataSourceRef>dsTest[]</dataSourceRef>
</property>
</dataNode>
<!-- 数据源定义,数据源是一个具体的后端数据连接的表示。-->
<dataSource name="dsTest" type="mysql">
<property name="location">
<location>192.168.137.8:/dbtest1</location>
<location>192.168.137.31:/dbtest2</location>
<location>192.168.137.32:/dbtest3</location>
</property>
<property name="user">cobar</property>
<property name="password">sa</property>
<property name="sqlMode">STRICT_TRANS_TABLES</property>
</dataSource>
</cobar:schema>
server.xml简单配置
<!DOCTYPE cobar:server SYSTEM "server.dtd">
<cobar:server xmlns:cobar="http://cobar.alibaba.com/">
<!-- 用户访问定义,用户名、密码、schema等信息。 -->
<user name="root">
<property name="password">sa</property>
<property name="schemas">dbtest</property>
</user>
</cobar:server>
rule.xml配置
<!DOCTYPE cobar:rule SYSTEM "rule.dtd">
<cobar:rule xmlns:cobar="http://cobar.alibaba.com/">
<!-- 路由规则定义,定义什么表,什么字段,采用什么路由算法 -->
<tableRule name="rule1">
<rule>
<columns>val</columns>
<algorithm><![CDATA[ func2(${val}) ]]></algorithm>
</rule>
</tableRule>
<!-- 路由函数定义 -->
<function name="func1" class="com.alibaba.cobar.route.function.PartitionByLong">
<property name="partitionCount"></property>
<property name="partitionLength"></property>
</function>
<!-- 路由函数定义 -->
<function name="func2" class="com.alibaba.cobar.route.function.PartitionByString">
<property name="partitionCount"></property>
<property name="partitionLength"></property>
<property name="hashSlice">-:</property>
</function>
</cobar:rule>
这里需要说明,INSERT语句中必须包含路由规则定义的字段,否则Cobar不会对数据进行拆分,同时存储到多个数据库实例中,比如上面的tb2表中,id字段如果设置了auto_increment,插入语句中不用指明id字段,这样就无法达到数据包拆分的目的。
准备完成之后直接运行bin目录下的./startup.sh即可。
然后查看输入的日志:
yan@yan-Z400:~/cobar-server-1.2./logs$ tail -f stdout.log
::, INFO Cobar is ready to startup ...
::, INFO Startup processors ...
::, INFO Startup connector ...
::, INFO Initialize dataNodes ...
::, INFO dnTest1: init success
::, INFO dnTest3: init success
::, INFO dnTest2: init success
::, INFO CobarManager is started and listening on
::, INFO CobarServer is started and listening on
::, INFO ===============================================
这样cobar服务端就已经启动。
直接使用jdbc或mysql终端连接cobar:
yan@yan-Z400:~$ mysql -uroot -psa -P8066 -h192.168.137.
Welcome to the MySQL monitor. Commands end with ; or \g.
Your MySQL connection id is
Server version: 5.1.-cobar-1.2. Cobar Server (ALIBABA) Copyright (c) , , Oracle and/or its affiliates. All rights reserved. Oracle is a registered trademark of Oracle Corporation and/or its
affiliates. Other names may be trademarks of their respective
owners. Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.
下面使用几句Pyhton进行数据库的插入操作:
#!/usr/bin/env python
#coding=utf-
import MySQLdb #连接
cxn = MySQLdb.Connect(host='192.168.137.8',port=, user = 'root', passwd = 'sa')
#游标
cur = cxn.cursor() cur.execute("USE dbtest") for i in range(,):
cur.execute("INSERT INTO tb2 (val) values ('this is a test record %d')"%i)
print 'insert the %d record into cobar'%i cur.close()
cxn.commit()
cxn.close()
插入后查看数据库dbtest2和数据dbtest3的情况:
可以看到有100条数据插入了dbtest2,99条数据插入了dbtest3。
后面会对Cobar进行更深入的了解。我的Fork分支
(完)
原创作品,转载请标明:http://blog.geekcome.com/archives/252
数据库–Cobar分布式数据库集群MySQL中间件的更多相关文章
- MySQL/MariaDB数据库的Galera高可用性集群实战
MySQL/MariaDB数据库的Galera高可用性集群实战 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.Galera Cluster概述 1>.什么是Gale ...
- 分布式缓存集群方案特性使用场景(Memcache/Redis(Twemproxy/Codis/Redis-cluster))优缺点对比及选型
分布式缓存集群方案特性使用场景(Memcache/Redis(Twemproxy/Codis/Redis-cluster))优缺点对比及选型 分布式缓存特性: 1) 高性能:当传统数据库面临大规模 ...
- 分布式ActiveMQ集群
分布式ActiveMQ集群的部署配置细节: 官方资料:http://activemq.apache.org/clustering.html 基本上看这个就足够了,本文就不具体分析配置文件了. 1.Qu ...
- 分布式ActiveMQ集群--转载
原文地址:http://shensy.iteye.com/blog/1752529 回顾总结前一段时间学习的ActiveMQ分布式集群相关的知识,分享出来希望对看到的人有所帮助. 一.分布式Activ ...
- hbase单机环境的搭建和完全分布式Hbase集群安装配置
HBase 是一个开源的非关系(NoSQL)的可伸缩性分布式数据库.它是面向列的,并适合于存储超大型松散数据.HBase适合于实时,随机对Big数据进行读写操作的业务环境. @hbase单机环境的搭建 ...
- poptest老李谈分布式与集群 2
集群分类 Linux集群主要分成三大类( 高可用集群, 负载均衡集群,科学计算集群) 高可用集群( High Availability Cluster)负载均衡集群(Load Balance Clus ...
- poptest老李谈分布式与集群
poptest是国内唯一一家培养测试开发工程师的培训机构,以学员能胜任自动化测试,性能测试,测试工具开发等工作为目标.如果对课程感兴趣,请大家咨询qq:908821478,咨询电话010-845052 ...
- java 分布式与集群的区别和联系(转)
本文主要介绍了java分布式与集群的区别和联系,具有很好的参考价值,下面跟着小编一起来看下吧 一.先说区别: 一句话:分布式是并联工作的,集群是串联工作的. 1.分布式是指将不同的业务分布在不同的地方 ...
- 分布式 PostgreSQL 集群(Citus)官方教程 - 迁移现有应用程序
将现有应用程序迁移到 Citus 有时需要调整 schema 和查询以获得最佳性能. Citus 扩展了 PostgreSQL 的分布式功能,但它不是扩展所有工作负载的直接替代品.高性能 Citus ...
随机推荐
- 查找olr备份路径
使用:ocrdump -local <olr_dump_name> more <olr_dump_name> 来查找 [SYSTEM.OLR.BACKUP.LOC] 的相应键值 ...
- C++虚函数表剖析
关键词:虚函数.虚表,虚表指针,动态绑定,多态 一.概述 为了实现C++的多态,C++使用了一种动态绑定的技术. 这个技术的核心是虚函数表(下文简称虚表).本文介绍虚函数表是怎样实现动态绑定的. 二. ...
- R语言pdf输出中文乱码处理
1.使用基础包.使用函数pdf()输出 在使用pdf()函数时,要输出中文,仅仅有一种字体可选. 样例: pdf("chinese.pdf",family="GB1&qu ...
- Java:String和Date、Timestamp之间的转换【转】
原文地址:http://yunnick.iteye.com/blog/1074495 一.String与Date(java.util.Date)互转 1.1 String -> Date Str ...
- 2015ACM/ICPC Asia Regional Changchun Online /HDU 5438 图
Ponds Time Limit: 1500/1000 MS (Java/Others) Memory Limit: 1310 ...
- C中 数组和指针的异同
数组在很多情况下是和指针等价的,数组的下标运算和指针的解引用也有等价形式:arr[i] == *(arr + 1):但是也有一些情况下数组和指针是不一样的:extern int arr[]; exte ...
- 服务器可用的Socket
"; IPAddress ServerIp = IPAddress.Parse("112.124.46.251"); IPEndPoint iep = new IPEnd ...
- MAC OS brew安装MNMP
安装HomeBrew Brew是Mac下面的包管理工具,就像centos下面的yum一样.HomeBrew可以通过ruby来安装,mac系统是自带ruby的,所以只要在终端运行下面的代码即可安装Hom ...
- [luogu2620]虫洞
https://www.zybuluo.com/ysner/note/1284536 题面 给一个一维坐标系,出发点为\(0\),目标点为\(w\). 每\(1\)秒可以往后移不超过\(s\)个单位距 ...
- python3 批量管理Linux服务器 下发命令与传输文件
#!/usr/bin/env python3 # -*- coding: utf-8 -*- import paramiko import os, stat import sys import ope ...