一、首先在win系统下C:\Windows\System32\drivers\etc文件夹中hosts文件加入例如以下内容:

10.61.6.167 slaves1

10.61.6.168 slaves2

10.61.6.169 slaves3

二、启动kafka集群类

package com.conn.server.start;





import java.io.IOException;





import ch.ethz.ssh2.Connection;

import ch.ethz.ssh2.Session;









public class StartKafka {  

 

    public static void main(String[] args) {

    StartKafka startzk=new StartKafka();

    //启动kafka自带zookeeper集群

    startzk.startZk1();

    startzk.startZk2();

    startzk.startZk3();

    //启动kafka

    startzk.startKafka1();

    startzk.startKafka2();

    startzk.startKafka3();

    }

          

    public static void startZk1(){

        String hostname = "10.61.6.166";  

        String username = "root";  

        String password = "pass@word2";  

        //指明连接主机的IP地址  

        Connection conn = new Connection (hostname);  

        Session ssh = null;  

        try {  

            //连接到主机  

            conn.connect();  

            //使用username和password校验  

            boolean isconn = conn.authenticateWithPassword(username, password);  

            if(!isconn){  

                System.out.println("username称或者是password不对");  

            }else{  

                System.out.println("已经连接OK");  

                ssh = conn.openSession();  

                //使用多个命令用分号隔开  



                ssh.execCommand("cd /home/lee/kafka/kafka;bin/zookeeper-server-start.sh config/zookeeper.properties&");  

              

                //仅仅同意使用一行命令,即ssh对象仅仅能使用一次execCommand这种方法,多次使用则会出现异常  

            }  

            //连接的Session和Connection对象都须要关闭  

            ssh.close();  

            conn.close();  

              

        } catch (IOException e) {  

            e.printStackTrace();  

        }  

          

    }  

  

    public static void startZk2(){

        String hostname = "10.61.6.168";  

        String username = "root";  

        String password = "pass@word2";  

        //指明连接主机的IP地址  

        Connection conn = new Connection (hostname);  

        Session ssh = null;  

        try {  

            //连接到主机  

            conn.connect();  

            //使用username和password校验  

            boolean isconn = conn.authenticateWithPassword(username, password);  

            if(!isconn){  

                System.out.println("username称或者是password不对");  

            }else{  

                System.out.println("已经连接OK");  

                ssh = conn.openSession();  

               ssh.execCommand("cd /home/lee/kafka/kafka;bin/zookeeper-server-start.sh config/zookeeper.properties&");  

              

            }  

            ssh.close();  

            conn.close();  

              

        } catch (IOException e) {  

            e.printStackTrace();  

        }  

    }  

    

    public static void startZk3(){

        String hostname = "10.61.6.169";  

        String username = "root";  

        String password = "pass@word2";  

        //指明连接主机的IP地址  

        Connection conn = new Connection (hostname);  

        Session ssh = null;  

        try {  

            //连接到主机  

            conn.connect();  

            //使用username和password校验  

            boolean isconn = conn.authenticateWithPassword(username, password);  

            if(!isconn){  

                System.out.println("username称或者是password不对");  

            }else{  

                System.out.println("已经连接OK");  

                ssh = conn.openSession();  

               ssh.execCommand("cd /home/lee/kafka/kafka;bin/zookeeper-server-start.sh config/zookeeper.properties&");  

               }  

            ssh.close();  

            conn.close();  

              

        } catch (IOException e) {  

            e.printStackTrace();  

        }  

    }  

    

    public static void startKafka1(){

        String hostname = "10.61.6.167";  

        String username = "root";  

        String password = "pass@word2";  

        //指明连接主机的IP地址  

        Connection conn = new Connection (hostname);  

        Session ssh = null;  

        try {  

            //连接到主机  

            conn.connect();  

            //使用username和password校验  

            boolean isconn = conn.authenticateWithPassword(username, password);  

            if(!isconn){  

                System.out.println("username称或者是password不对");  

            }else{  

                System.out.println("已经连接OK");  

                ssh = conn.openSession();  

                ssh.execCommand("cd /home/lee/kafka/kafka;bin/kafka-server-start.sh config/server.properties&");  

            }  

            ssh.close();  

            conn.close();  

              

        } catch (IOException e) {  

            e.printStackTrace();  

        }  

    }  

    

    public static void startKafka2(){

        String hostname = "10.61.6.168";  

        String username = "root";  

        String password = "pass@word2";  

        //指明连接主机的IP地址  

        Connection conn = new Connection (hostname);  

        Session ssh = null;  

        try {  

            //连接到主机  

            conn.connect();  

            //使用username和password校验  

            boolean isconn = conn.authenticateWithPassword(username, password);  

            if(!isconn){  

                System.out.println("username称或者是password不对");  

            }else{  

                System.out.println("已经连接OK");  

                ssh = conn.openSession();  

                ssh.execCommand("cd /home/lee/kafka/kafka;bin/kafka-server-start.sh config/server.properties&");  

            }  

            ssh.close();  

            conn.close();  

              

        } catch (IOException e) {  

            e.printStackTrace();  

        }  

    }  

    

    public static void startKafka3(){

        String hostname = "10.61.6.169";  

        String username = "root";  

        String password = "pass@word2";  

        //指明连接主机的IP地址  

        Connection conn = new Connection (hostname);  

        Session ssh = null;  

        try {  

            //连接到主机  

            conn.connect();  

            //使用username和password校验  

            boolean isconn = conn.authenticateWithPassword(username, password);  

            if(!isconn){  

                System.out.println("username称或者是password不对");  

            }else{  

                System.out.println("已经连接OK");  

                ssh = conn.openSession();  

                ssh.execCommand("cd /home/lee/kafka/kafka;bin/kafka-server-start.sh config/server.properties&");  

            }  

            ssh.close();  

            conn.close();  

              

        } catch (IOException e) {  

            e.printStackTrace();  

        }  

    }  

    

}

三、生产者类

package com.performanceTest;



import java.io.BufferedReader;

import java.io.File;

import java.io.FileNotFoundException;

import java.io.FileReader;

import java.io.IOException;

import java.util.Properties;



import kafka.javaapi.producer.Producer;

import kafka.producer.KeyedMessage;

import kafka.producer.ProducerConfig;





public class ProducerSample {

public static void main(String[] args) throws FileNotFoundException {  

        //ProducerSample ps = new ProducerSample();  

  

        Properties props = new Properties();  

        props.put("zookeeper.connect", "slaves1:2182,slaves2:2182,slaves3:2182");    //这里也能够改为集群各节点的ip地址

        props.put("serializer.class", "kafka.serializer.StringEncoder");  

        props.put("metadata.broker.list","slaves1:9092,slaves2:9092,slaves3:9092");

        props.put("request.required.acks", "1");

        props.put("batch.num.messages","200");

        ProducerConfig config = new ProducerConfig(props);  

        Producer<String, String> producer = new Producer<String, String>(config);

File file=new File("E:/test","110-140_1.txt");

        BufferedReader readtxt=new BufferedReader(new FileReader(file));

        String line=null;

        byte[] item=null;

try {

while((line=readtxt.readLine())!=null){

line = line.replaceAll("\\t", ",");

item=line.getBytes();

String str = new String(item);

producer.send(new KeyedMessage<String, String>("mykafka",str));

}

} catch (IOException e) {

e.printStackTrace();

}

     

    }  

}

四、消费者类

package com.performanceTest;





import java.util.ArrayList;

import java.util.HashMap;

import java.util.List;

import java.util.Map;

import java.util.Properties;





import kafka.consumer.ConsumerConfig;

import kafka.consumer.ConsumerIterator;

import kafka.consumer.KafkaStream;

import kafka.javaapi.consumer.ConsumerConnector;





public class ConsumerTest extends Thread {

private final ConsumerConnector consumer;  

    private final String topic;  

    private  final List<String> messages = new ArrayList<String>();

      

    public static void main(String[] args) {  

        ConsumerTest consumerThread = new ConsumerTest("mykafka");  

        consumerThread.start();  

    }  

      

    public ConsumerTest(String topic) {  

    System.out.println(topic);

        consumer = kafka.consumer.Consumer  

                .createJavaConsumerConnector(createConsumerConfig());  

        this.topic = topic;  

    }  

      

    private static ConsumerConfig createConsumerConfig() {  

        Properties props = new Properties();  

       props.put("zookeeper.connect", "slaves1:2182,slaves2:2182,slaves3:2182"); 

        props.put("group.id", "0");  

        props.put("zookeeper.session.timeout.ms", "400000");  

        props.put("zookeeper.sync.time.ms", "200");  

        props.put("auto.commit.interval.ms", "1000");  

      

        return new ConsumerConfig(props);  

      

    }

win系统下启动linux上的kafka集群及使用的更多相关文章

  1. Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)--------hadoop环境的搭建

    Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)------https://blog.csdn.net/pucao_cug/article/details/71698903 ...

  2. win系统下的eclipse连接和使用linux上的hadoop集群

    准备工作 先在win系统的hosts文件中加入下面内容 10.61.6.164master     //hadoop集群的master节点 一.首先在eclipse上安装hadoop插件 下载hado ...

  3. 在linux上搭建nacos集群(步骤详细,linux小白也搞得定)

    (1)nacos官网:https://github.com/alibaba/nacos/releases/tag/1.2.1下载nacos安装包到window本地(后缀为tar.zip) (2)在li ...

  4. Linux上搭建Hadoop集群

    本文将为初学者的搭建简单的伪分布式集群,将搭建一台虚拟机,用于学习Hadoop 工具:vm虚拟机,centOS7,jdk-8,Hadoop2.7,xftp,xshell 用户:在虚拟机中创建一个had ...

  5. 在Linux上安装Zookeeper集群

    xl_echo编辑整理,欢迎转载,转载请声明文章来源.欢迎添加echo微信(微信号:t2421499075)交流学习. 百战不败,依不自称常胜,百败不颓,依能奋力前行.——这才是真正的堪称强大!! - ...

  6. linux上配置spark集群

    环境: linux spark1.6.0 hadoop2.2.0 一.安装scala(每台机器)   1.下载scala-2.11.0.tgz   放在目录: /opt下,tar -zxvf scal ...

  7. Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)

    1下载hadoop 2安装3个虚拟机并实现ssh免密码登录 2.1安装3个机器 2.2检查机器名称 2.3修改/etc/hosts文件 2.4 给3个机器生成秘钥文件 2.5 在hserver1上创建 ...

  8. Linux上安装Hadoop集群(CentOS7+hadoop-2.8.3)

    https://blog.csdn.net/pucao_cug/article/details/71698903 1下载hadoop 2安装3个虚拟机并实现ssh免密码登录 2.1安装3个机器 2.2 ...

  9. Kafka集群安装部署、Kafka生产者、Kafka消费者

    Storm上游数据源之Kakfa 目标: 理解Storm消费的数据来源.理解JMS规范.理解Kafka核心组件.掌握Kakfa生产者API.掌握Kafka消费者API.对流式计算的生态环境有深入的了解 ...

随机推荐

  1. MySQL多版本并发控制(MVCC)

    MVCC是行级锁的一个变种,但是它在很多的情况下避免了加锁操作,因此开销更低.MySQL,包括Oracle.PostgreSQL都实现了MVCC,虽然每个关系数据库实现不一样,但大都是实现了非阻塞的读 ...

  2. POJ 2342 Anniversary party (树形DP入门)

    题意: 给定一个上下属的关系树, 每个人有一个活跃值, 现在要参加一个派对, 每个人都不会和自己的上属参加派对(上属参加了,下属就不能参加了), 求参加派对的最大活跃值 分析: 枚举每个节点取与不取得 ...

  3. hadoop上传文件报错

    19/06/06 16:09:26 INFO hdfs.DFSClient: Exception in createBlockOutputStream java.io.IOException: Bad ...

  4. 【Codeforces 25C】Roads in Berland

    [链接] 我是链接,点我呀:) [题意] 题意 [题解] 用floyd思想. 求出来这条新加的边影响到的点对即可. 然后尝试更新点对之间的最短路就好. 更新之后把差值从答案里面减掉. [代码] #in ...

  5. Java基础学习总结(93)——Java编码规范之代码性能及惯例

    1.避免使用包装类构造函数 按照SUN公司的说明,使用自动装箱或静态工厂方法比使用new一个对象快3到4倍,该规则可以用在valueOf或其它静态工厂的调用中(如:Short.Integer, Lon ...

  6. 【转】亿级Web系统搭建——单机到分布式集群

    当一个Web系统从日访问量10万逐步增长到1000万,甚至超过1亿的过程中,Web系统承受的压力会越来越大,在这个过程中,我们会遇到很多的问题.为了解决这些性能压力带来问题,我们需要在Web系统架构层 ...

  7. 大数据学习——linux常用命令(三)

    三 文件操作 1创建文件 touch somefile.txt 创建一个空文件somefile.txt > 重定向操作符 echo "woshiwoa"> some.t ...

  8. CDOJ 1225 Game Rooms

    Game Rooms Time Limit: 4000/4000MS (Java/Others)     Memory Limit: 65535/65535KB (Java/Others) Your ...

  9. 使用jemalloc优化nginx和mysql内存管理

    预先安装autoconf 和 make yum -y install autoconf make jemalloc的安装jiemalloc 开源项目网站 http://www.canonware.co ...

  10. 【转】关于大型网站技术演进的思考(十三)--网站静态化处理—CSI(5)

    讲完了SSI,ESI,下面就要讲讲CSI了 ,CSI是浏览器端的动静整合方案,当我文章发表后有朋友就问我,CSI技术是不是就是通过ajax来加载数据啊,我当时的回答只是说你的理解有点片面,那么到底什么 ...