win系统下启动linux上的kafka集群及使用
一、首先在win系统下C:\Windows\System32\drivers\etc文件夹中hosts文件加入例如以下内容:
10.61.6.167 slaves1
10.61.6.168 slaves2
10.61.6.169 slaves3
二、启动kafka集群类
package com.conn.server.start;
import java.io.IOException;
import ch.ethz.ssh2.Connection;
import ch.ethz.ssh2.Session;
public class StartKafka {
public static void main(String[] args) {
StartKafka startzk=new StartKafka();
//启动kafka自带zookeeper集群
startzk.startZk1();
startzk.startZk2();
startzk.startZk3();
//启动kafka
startzk.startKafka1();
startzk.startKafka2();
startzk.startKafka3();
}
public static void startZk1(){
String hostname = "10.61.6.166";
String username = "root";
String password = "pass@word2";
//指明连接主机的IP地址
Connection conn = new Connection (hostname);
Session ssh = null;
try {
//连接到主机
conn.connect();
//使用username和password校验
boolean isconn = conn.authenticateWithPassword(username, password);
if(!isconn){
System.out.println("username称或者是password不对");
}else{
System.out.println("已经连接OK");
ssh = conn.openSession();
//使用多个命令用分号隔开
ssh.execCommand("cd /home/lee/kafka/kafka;bin/zookeeper-server-start.sh config/zookeeper.properties&");
//仅仅同意使用一行命令,即ssh对象仅仅能使用一次execCommand这种方法,多次使用则会出现异常
}
//连接的Session和Connection对象都须要关闭
ssh.close();
conn.close();
} catch (IOException e) {
e.printStackTrace();
}
}
public static void startZk2(){
String hostname = "10.61.6.168";
String username = "root";
String password = "pass@word2";
//指明连接主机的IP地址
Connection conn = new Connection (hostname);
Session ssh = null;
try {
//连接到主机
conn.connect();
//使用username和password校验
boolean isconn = conn.authenticateWithPassword(username, password);
if(!isconn){
System.out.println("username称或者是password不对");
}else{
System.out.println("已经连接OK");
ssh = conn.openSession();
ssh.execCommand("cd /home/lee/kafka/kafka;bin/zookeeper-server-start.sh config/zookeeper.properties&");
}
ssh.close();
conn.close();
} catch (IOException e) {
e.printStackTrace();
}
}
public static void startZk3(){
String hostname = "10.61.6.169";
String username = "root";
String password = "pass@word2";
//指明连接主机的IP地址
Connection conn = new Connection (hostname);
Session ssh = null;
try {
//连接到主机
conn.connect();
//使用username和password校验
boolean isconn = conn.authenticateWithPassword(username, password);
if(!isconn){
System.out.println("username称或者是password不对");
}else{
System.out.println("已经连接OK");
ssh = conn.openSession();
ssh.execCommand("cd /home/lee/kafka/kafka;bin/zookeeper-server-start.sh config/zookeeper.properties&");
}
ssh.close();
conn.close();
} catch (IOException e) {
e.printStackTrace();
}
}
public static void startKafka1(){
String hostname = "10.61.6.167";
String username = "root";
String password = "pass@word2";
//指明连接主机的IP地址
Connection conn = new Connection (hostname);
Session ssh = null;
try {
//连接到主机
conn.connect();
//使用username和password校验
boolean isconn = conn.authenticateWithPassword(username, password);
if(!isconn){
System.out.println("username称或者是password不对");
}else{
System.out.println("已经连接OK");
ssh = conn.openSession();
ssh.execCommand("cd /home/lee/kafka/kafka;bin/kafka-server-start.sh config/server.properties&");
}
ssh.close();
conn.close();
} catch (IOException e) {
e.printStackTrace();
}
}
public static void startKafka2(){
String hostname = "10.61.6.168";
String username = "root";
String password = "pass@word2";
//指明连接主机的IP地址
Connection conn = new Connection (hostname);
Session ssh = null;
try {
//连接到主机
conn.connect();
//使用username和password校验
boolean isconn = conn.authenticateWithPassword(username, password);
if(!isconn){
System.out.println("username称或者是password不对");
}else{
System.out.println("已经连接OK");
ssh = conn.openSession();
ssh.execCommand("cd /home/lee/kafka/kafka;bin/kafka-server-start.sh config/server.properties&");
}
ssh.close();
conn.close();
} catch (IOException e) {
e.printStackTrace();
}
}
public static void startKafka3(){
String hostname = "10.61.6.169";
String username = "root";
String password = "pass@word2";
//指明连接主机的IP地址
Connection conn = new Connection (hostname);
Session ssh = null;
try {
//连接到主机
conn.connect();
//使用username和password校验
boolean isconn = conn.authenticateWithPassword(username, password);
if(!isconn){
System.out.println("username称或者是password不对");
}else{
System.out.println("已经连接OK");
ssh = conn.openSession();
ssh.execCommand("cd /home/lee/kafka/kafka;bin/kafka-server-start.sh config/server.properties&");
}
ssh.close();
conn.close();
} catch (IOException e) {
e.printStackTrace();
}
}
}
三、生产者类
package com.performanceTest;
import java.io.BufferedReader;
import java.io.File;
import java.io.FileNotFoundException;
import java.io.FileReader;
import java.io.IOException;
import java.util.Properties;
import kafka.javaapi.producer.Producer;
import kafka.producer.KeyedMessage;
import kafka.producer.ProducerConfig;
public class ProducerSample {
public static void main(String[] args) throws FileNotFoundException {
//ProducerSample ps = new ProducerSample();
Properties props = new Properties();
props.put("zookeeper.connect", "slaves1:2182,slaves2:2182,slaves3:2182"); //这里也能够改为集群各节点的ip地址
props.put("serializer.class", "kafka.serializer.StringEncoder");
props.put("metadata.broker.list","slaves1:9092,slaves2:9092,slaves3:9092");
props.put("request.required.acks", "1");
props.put("batch.num.messages","200");
ProducerConfig config = new ProducerConfig(props);
Producer<String, String> producer = new Producer<String, String>(config);
File file=new File("E:/test","110-140_1.txt");
BufferedReader readtxt=new BufferedReader(new FileReader(file));
String line=null;
byte[] item=null;
try {
while((line=readtxt.readLine())!=null){
line = line.replaceAll("\\t", ",");
item=line.getBytes();
String str = new String(item);
producer.send(new KeyedMessage<String, String>("mykafka",str));
}
} catch (IOException e) {
e.printStackTrace();
}
}
}
四、消费者类
package com.performanceTest;
import java.util.ArrayList;
import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.Properties;
import kafka.consumer.ConsumerConfig;
import kafka.consumer.ConsumerIterator;
import kafka.consumer.KafkaStream;
import kafka.javaapi.consumer.ConsumerConnector;
public class ConsumerTest extends Thread {
private final ConsumerConnector consumer;
private final String topic;
private final List<String> messages = new ArrayList<String>();
public static void main(String[] args) {
ConsumerTest consumerThread = new ConsumerTest("mykafka");
consumerThread.start();
}
public ConsumerTest(String topic) {
System.out.println(topic);
consumer = kafka.consumer.Consumer
.createJavaConsumerConnector(createConsumerConfig());
this.topic = topic;
}
private static ConsumerConfig createConsumerConfig() {
Properties props = new Properties();
props.put("zookeeper.connect", "slaves1:2182,slaves2:2182,slaves3:2182");
props.put("group.id", "0");
props.put("zookeeper.session.timeout.ms", "400000");
props.put("zookeeper.sync.time.ms", "200");
props.put("auto.commit.interval.ms", "1000");
return new ConsumerConfig(props);
}
win系统下启动linux上的kafka集群及使用的更多相关文章
- Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)--------hadoop环境的搭建
Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)------https://blog.csdn.net/pucao_cug/article/details/71698903 ...
- win系统下的eclipse连接和使用linux上的hadoop集群
准备工作 先在win系统的hosts文件中加入下面内容 10.61.6.164master //hadoop集群的master节点 一.首先在eclipse上安装hadoop插件 下载hado ...
- 在linux上搭建nacos集群(步骤详细,linux小白也搞得定)
(1)nacos官网:https://github.com/alibaba/nacos/releases/tag/1.2.1下载nacos安装包到window本地(后缀为tar.zip) (2)在li ...
- Linux上搭建Hadoop集群
本文将为初学者的搭建简单的伪分布式集群,将搭建一台虚拟机,用于学习Hadoop 工具:vm虚拟机,centOS7,jdk-8,Hadoop2.7,xftp,xshell 用户:在虚拟机中创建一个had ...
- 在Linux上安装Zookeeper集群
xl_echo编辑整理,欢迎转载,转载请声明文章来源.欢迎添加echo微信(微信号:t2421499075)交流学习. 百战不败,依不自称常胜,百败不颓,依能奋力前行.——这才是真正的堪称强大!! - ...
- linux上配置spark集群
环境: linux spark1.6.0 hadoop2.2.0 一.安装scala(每台机器) 1.下载scala-2.11.0.tgz 放在目录: /opt下,tar -zxvf scal ...
- Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)
1下载hadoop 2安装3个虚拟机并实现ssh免密码登录 2.1安装3个机器 2.2检查机器名称 2.3修改/etc/hosts文件 2.4 给3个机器生成秘钥文件 2.5 在hserver1上创建 ...
- Linux上安装Hadoop集群(CentOS7+hadoop-2.8.3)
https://blog.csdn.net/pucao_cug/article/details/71698903 1下载hadoop 2安装3个虚拟机并实现ssh免密码登录 2.1安装3个机器 2.2 ...
- Kafka集群安装部署、Kafka生产者、Kafka消费者
Storm上游数据源之Kakfa 目标: 理解Storm消费的数据来源.理解JMS规范.理解Kafka核心组件.掌握Kakfa生产者API.掌握Kafka消费者API.对流式计算的生态环境有深入的了解 ...
随机推荐
- 彻底卸载WIN10 OneDrive
彻底卸载WIN10 OneDrive @ECHO OFF %SystemRoot%\SysWOW64\OneDriveSetup.exe /uninstall RD "%UserProfil ...
- svn服务
svn服务实战应用指南 1.1 svn介绍 什么是svn? svn(sub-version)是近年来崛起的非常优秀的版本管理工具,与cvs管理工具一样,svn是一个跨平台的开源的版本控制系统, ...
- 为什么在属性中设置private set
引言: 属性的引入来自C#的封装机制,也就是说对象的内部数据不应该由对象实例来直接访问,我们可以使用传统的Get和Set方法,来封装字段,C#为我们提供了语法糖,也就是属性.属性包括get和set,分 ...
- DOS使用笔记
DOS下cd命令: cd .. 上一级目录: g: 指定当期目录到G盘,而cd g:是没有效果的: 如图: 在安装Windows服务的过程中,如果installutil为64位版本,那么编译生成项目的 ...
- MongoDB中WiredTiger的数据可用性设置
此文已由作者温正湖授权网易云社区发布. 欢迎访问网易云社区,了解更多网易技术产品运营经验. MongoDB中WiredTiger的参数配置主要通过 wiredtiger_open (http://so ...
- mybatis插件 mybatis插件-------从dao快速定位到mapper的sql语句
步骤一:打开settings,点击plugins 快捷键ctrl+alt+s打开settings 步骤二.点击ClearCase Integration,并点击下面中间的按钮(browse repos ...
- zoj 1949 Error Correction
Error Correction Time Limit: 2 Seconds Memory Limit: 65536 KB A boolean matrix has the parity p ...
- 服务器端架构及实战 — C#分享
简介 此文是我2008年读研究生期间做的C#项目技术分享,给计算机专业学生的一些经验分享. 当时工作2年后读研. 计算机基础了解及介绍 了解计算机的核心课程和大家的理解 二进制的历史和原理 数字逻辑及 ...
- CSU 1605 数独
题目大意: 9宫格每个位置都有对应的分数,填完数独后根据对应位置的分数相加之和求个最大值,不存在输出-1 说什么用位运算加速可以解决问题,但是对着标程还是T,最近学了dlx,发现这样解决数独快了很多 ...
- ZOJ 3811 Untrusted Patrol【并查集】
题目大意:给一个无向图,有些点有装监视器记录第一次到达该点的位置,问是否存在一条路径使得监视器以给定的顺序响起,并且经过所有点 思路:牡丹江网络赛的题,当时想了种并查集的做法,通神写完程序WA了几发, ...