Linux -- 基于zookeeper的java api(二)
Linux -- 基于zookeeper的java api(二)
写一个关于基于集群的zookeeper的自定义实现HA
基于客户端和监控器:使用监控的方法查看每个注册过的节点的状态来做出操作。
Watch:监控端
package com.huhu.zookeeper; import java.util.concurrent.CountDownLatch; import org.apache.zookeeper.WatchedEvent;
import org.apache.zookeeper.Watcher;
import org.apache.zookeeper.ZooKeeper; public class AUTIManager { // zk对象
static ZooKeeper zk;
// 线程类 用来组织程序运行
static CountDownLatch cdl = new CountDownLatch(1);
String connection = "hu-hadoop1:2181,hu-hadoop2:2181,hu-hadoop3:2181";
int TIMEOUT = 2000; // 监视器
Watcher connectionWatch = new Watcher() {
@Override
public void process(WatchedEvent event) {
// TODO Auto-generated method stub
System.out.println("zk服務通知--------------------" + event.toString());
}
}; // 监视器
Watcher existsWath = new Watcher() {
@Override
public void process(WatchedEvent event) {
// TODO Auto-generated method stub
if (event.getType().toString().equals("None")) {
System.out.println("none");
} else if (event.getType().toString().equals("NodeCreated")) {
System.out.println(event.getPath() + "节点上线");
} else if (event.getType().toString().equals("NodeDeleted")) {
System.out.println(event.getPath() + "节点下线");
} else if (event.getType().toString().equals("NodeDataChanged")) {
System.out.println(event.getPath() + "节点数据已经被修改");
} else if (event.getType().toString().equals("NodeChildrenChanged")) {
System.out.println(event.getPath() + "节点的子节点数据已经被修改");
} else {
System.out.println(event.toString());
} // 重复注册 watch 事件是一次性消费
try {
zk.exists("/1708a1/node1", existsWath);
zk.exists("/1708a1/node2", existsWath);
zk.exists("/1708a1/node3", existsWath);
} catch (Exception e) {
// TODO: handle exception
e.printStackTrace();
}
}
}; // 初始化
public void init() {
try {
zk = new ZooKeeper(connection, TIMEOUT, connectionWatch);
} catch (Exception e) {
// TODO: handle exception
e.printStackTrace();
}
} // 将节点 /1708a1/node增加一个监听器
public void Lookexit() {
try {
zk.exists("/1708a1/node1", existsWath);
zk.exists("/1708a1/node2", existsWath);
zk.exists("/1708a1/node3", existsWath);
} catch (Exception e) {
// TODO: handle exception
e.printStackTrace();
}
} public static void main(String[] args) throws Exception {
AUTIManager m = new AUTIManager();
m.init();
m.Lookexit();
cdl.await(); }
}
client1:
package com.huhu.zookeeper; import java.util.concurrent.CountDownLatch; import org.apache.zookeeper.CreateMode;
import org.apache.zookeeper.WatchedEvent;
import org.apache.zookeeper.Watcher;
import org.apache.zookeeper.ZooDefs.Ids;
import org.apache.zookeeper.ZooKeeper;
import org.apache.zookeeper.data.Stat; public class Client1 { static CountDownLatch cdl = new CountDownLatch(1);
static String connection = "hu-hadoop1:2181,hu-hadoop2:2181,hu-hadoop3:2181";
static int TIMEOUT = 2000;
static ZooKeeper zk; static Watcher watcher = new Watcher() {
@Override
public void process(WatchedEvent event) {
// TODO Auto-generated method stub
System.out.println("接受到zk服務信息,会话连接完成");
System.out.println("zk为:" + zk);
try {
Stat s = zk.exists("/1708a1", true);
if (s == null) {
System.out.println("节点不存在,创建节点");
zk.create("/1708a1", "123".getBytes(), Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
System.out.println("/1708al/注册成并创建节点");
zk.create("/1708a1/node1", "123".getBytes(), Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL);
System.out.println("创建node1 OK!!");
} else {
zk.create("/1708a1/node1", "123".getBytes(), Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL);
System.out.println("創建node1 OK!!");
}
} catch (Exception e) {
// TODO: handle exception
e.printStackTrace();
}
}
}; public static void main(String[] args) throws Exception {
System.out.println("客戶2");
zk = new ZooKeeper(connection, TIMEOUT, watcher);
System.out.println("zk对象:" + zk);
cdl.await();
}
}
client2:
package com.huhu.zookeeper; import java.util.concurrent.CountDownLatch; import org.apache.zookeeper.CreateMode;
import org.apache.zookeeper.WatchedEvent;
import org.apache.zookeeper.Watcher;
import org.apache.zookeeper.ZooDefs.Ids;
import org.apache.zookeeper.ZooKeeper;
import org.apache.zookeeper.data.Stat; public class Client2 { static CountDownLatch cdl = new CountDownLatch(1);
static String connection = "hu-hadoop1:2181,hu-hadoop2:2181,hu-hadoop3:2181";
static int TIMEOUT = 2000;
static ZooKeeper zk; static Watcher watcher = new Watcher() {
@Override
public void process(WatchedEvent event) {
// TODO Auto-generated method stub
System.out.println("接受到zk服務信息,会话连接完成");
System.out.println("zk为:" + zk);
try {
Stat s = zk.exists("/1708a1", true);
if (s == null) {
System.out.println("节点不存在,创建节点");
zk.create("/1708a1", "123".getBytes(), Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
System.out.println("/1708a1注册成并创建节点");
zk.create("/1708a1/node2", "123".getBytes(), Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL);
System.out.println("创建node2 OK!!");
} else {
zk.create("/1708a1/node2", "123".getBytes(), Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL);
System.out.println("創建node2 OK!!");
}
} catch (Exception e) {
// TODO: handle exception
e.printStackTrace();
}
}
}; public static void main(String[] args) throws Exception {
System.out.println("客戶2");
zk = new ZooKeeper(connection, TIMEOUT, watcher);
System.out.println("zk对象:" + zk);
cdl.await();
}
}
client3:
package com.huhu.zookeeper; import java.util.concurrent.CountDownLatch; import org.apache.zookeeper.CreateMode;
import org.apache.zookeeper.WatchedEvent;
import org.apache.zookeeper.Watcher;
import org.apache.zookeeper.ZooDefs.Ids;
import org.apache.zookeeper.ZooKeeper;
import org.apache.zookeeper.data.Stat; public class Client3 { static CountDownLatch cdl = new CountDownLatch(1);
static String connection = "hu-hadoop1:2181,hu-hadoop2:2181,hu-hadoop3:2181";
static int TIMEOUT = 2000;
static ZooKeeper zk; static Watcher watcher = new Watcher() {
@Override
public void process(WatchedEvent event) {
// TODO Auto-generated method stub
System.out.println("接受到zk服務信息,会话连接完成");
System.out.println("zk为:" + zk);
try {
Stat s = zk.exists("/1708a1", true);
if (s == null) {
System.out.println("节点不存在,创建节点");
zk.create("/1708a1", "123".getBytes(), Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
System.out.println("/1708al/注册成并创建节点");
zk.create("/1708a1/node3", "123".getBytes(), Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL);
System.out.println("创建node3 OK!!");
} else {
zk.create("/1708a1/node3", "123".getBytes(), Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL);
System.out.println("創建node3 OK!!");
}
} catch (Exception e) {
// TODO: handle exception
e.printStackTrace();
}
}
}; public static void main(String[] args) throws Exception {
System.out.println("客戶3");
zk = new ZooKeeper(connection, TIMEOUT, watcher);
System.out.println("zk对象:" + zk);
cdl.await();
}
}
启动监控端:
将集群中没有/1708a1
启动3个client:
然后分别让他们下线:(停掉服务)
效果很明显。
谈谈mysql和zookeeper:
我自己瞎扯扯淡。。。
mysql和zookeeper都是用来存在数据的,但是存储方式优点不同,那点是MySQL是用表来存储的,zookeeper是按照数的结构存储的,但是zookeeper解决了MySQL的一个从始至终都没有解决的方法。就是并发问题,这就是zookeeper的优势zookeeper使用搭建集群的方式来解决并发问题(这里说的有点绝对)。
MySQL中的主从机制,写只能写入主中,而zookeeper中不存在,你写哪里都可以,并且它实时的和主同步数据,使从和主之间的数据同步。
MySQL由于有并发问题,这里的并发主要表现在读和写之间的问题,从而引出了线程问题(原子性,可见性,有序性)(隔离级别),从而有了rabbitmq和solr,这些解决方案,减少数据库的读,让它可以更准确的写和读。而zookeeper则也可以当作一个监控者或者大黑板,降低业务间的耦合度,解决了并发问题
这里不一定是正确的,是我自己对它们之间的感觉
Linux -- 基于zookeeper的java api(二)的更多相关文章
- Linux -- 基于zookeeper的java api(一)
Linux -- 基于zookeeper的java api 首先启动你所有的 zkService.sh 查看状态:检查是否启动正确 [root@hu-hadoop2 ~]# zkServer.sh s ...
- 【分布式】Zookeeper使用--Java API
一.前言 上一篇博客我们通过命令行来操作Zookeper的客户端和服务端并进行相应的操作,这篇主要介绍如何通过API(JAVA)来操作Zookeeper. 二.开发环境配置 首先打开Zookeeper ...
- zookeeper的java api操作
zookeeper的java api操作 创建会话: Zookeeper(String connectString,int sessionTimeout,Watcher watcher) Zookee ...
- linux -- 基于zookeeper搭建yarn的HA高可用集群
linux -- 基于zookeeper搭建yarn的HA高可用集群 实现方式:配置yarn-site.xml配置文件 <configuration> <property> & ...
- Zookeeper使用--Java API
1 创建节点 创建节点有异步和同步两种方式.无论是异步或者同步,Zookeeper都不支持递归调用,即无法在父节点不存在的情况下创建一个子节点,如在/zk-ephemeral节点不存在的情况下创建/ ...
- 分布式服务管理zookeeper的java api
zookeeper是一个分布式服务管理工具,本身具备高可用性,很多知名分布式系统入hadoop.Hbase等都采用zk管理. 常见的两个应用场景:1.服务的注册与发现 2.集群统一配置 下面看一下使用 ...
- zookeeper的JAVA API使用
1.创建连接 2.创建节点 3.监听信息 Watcher.class 4.获取节点 Stat stat = new Stat(); zk.getData(Path,true,stat); 5.修改节点 ...
- zookeeper Java API 简单操作示例
本文主要介绍如何在java IDE中如何应用使用客户端与zookeeper服务器通信. 首先搭建maven环境,并在pom文件中加入zookeeper引用包: <!-- https://mvnr ...
- Hbase多版本的读写(Shell&Java API版)
Hbase是基于HDFS的NOsql数据库,它很多地方跟数据库差不多,也有很多不同的地方.这里就不一一列举了,不过Hbase有个版本控制的特性,这个特性在很多场景下都会发挥很大的作用.本篇就介绍下基于 ...
随机推荐
- Ajax - 发送请求原理
1,什么是ajax? Asynchronous JavaScript and XML(当然现在xml已经由json代替): 主要是用于前后台的交互(表单提交已经被废弃): 使用场景:前台获取数据.表单 ...
- webpack插件配置(一) webpack-dev-server 路径配置
本文的路径配置主要涉及到webpack.config.js文件中devServer与output两个选项的配置 webpack-dev-server定义 webpack-dev-server主要是启动 ...
- _itemmod_extra_equipments_enable
如果这个表是空的 所有装备都可以当成双甲 如果这个表里有配置物品 那么只有表里的 才可以当成双甲 表说明 `comment` 备注 `entry` 物品ID
- codeforces gym 101164 K Cutting 字符串hash
题意:给你两个字符串a,b,不区分大小写,将b分成三段,重新拼接,问是否能得到A: 思路:暴力枚举两个断点,然后check的时候需要字符串hash,O(1)复杂度N*N: 题目链接:传送门 #prag ...
- python 操作记事本
需事先打开记事本,再运行下面脚本 # encoding: utf- import win32api import win32gui import win32con print("Hello, ...
- Jdbc -Statement
Java提供了 Statement.PreparedStatement 和 CallableStatement三种方式来执行查询语句: PreparedStatement是用于执行参数化查询 预编译s ...
- openModelica调试
1打印信息 Modelica.Utilities.Streams.print(“messge”);
- link 和 import的区别
二者区别: link属于html标签,而@import是css提供的. 页面被加载时,link因为是HTM标签, 把认会同时被加载,而@import引用的css会等到页面加载结束后加载. link是h ...
- Linux 端口信息查看
//查看方法①lsof -i:端口号 用于查看某一端口的占用情况,比如查看8000端口使用情况,lsof -i:8000 lsof -i 用以显示符合条件的进程情况,lsof(list open fi ...
- Linux性能测试工具-UnixBench
■下载路径: unixbench-5.1.2.tar.gz :http://soft.vpser.net/test/unixbench/ unixbench-5.1.3.tar.gz :http:// ...