Kafka之安装

一、下载kafka

  此博客只讲述kafka0.8和kafka1.0两个版本

  更改kafka下的/home/bigdata/kafka/config/server.properties

1.1 kafka0.8版本

  20行:broker.id=1
  28行:host.name=hadoop1
  63行:log.dirs=/home/bigdata/kafka0.8/data
  118行:zookeeper.connect=192.168.11.11:2181,192.168.11.12:2181,192.168.11.13:2181

1.2 kafka1.0版本

  21行:broker.id=0
  24行:delete.topic.enable=true
  34行:listeners=PLAINTEXT://192.168.11.11:9092(可改可不该,默认端口号9092)
  63行:log.dirs=/home/bigdata/kafka0.10/data
  119行:zookeeper.connect=192.168.11.11:2181,192.168.11.12:2181,192.168.11.13:2181

二、解压安装包

  cd /home/software
  tar -zxvf kafka_2.11-0.11.0.0.tgz -C /home/bigdata/

三、修改解压后的文件名称

  cd /home/home/bigdata
  mv kafka_2.11-0.11.0.0/ kafka

四、在/home/bigdata/kafka目录下创建logs文件夹

  mkdir logs

五、修改配置文件

  cd config/

  vi server.properties

#broker的全局唯一编号,不能重复
broker.id=0
#删除topic功能使能
delete.topic.enable=true

#处理网络请求的线程数量
num.network.threads=3
#用来处理磁盘IO的现成数量
num.io.threads=8
#发送套接字的缓冲区大小
socket.send.buffer.bytes=102400
#接收套接字的缓冲区大小
socket.receive.buffer.bytes=102400
#请求套接字的缓冲区大小
socket.request.max.bytes=104857600
#kafka运行日志存放的路径
log.dirs=/home/bigdata/kafka/logs

#topic在当前broker上的分区个数
num.partitions=1
#用来恢复和清理data下数据的线程数量
num.recovery.threads.per.data.dir=1
#segment文件保留的最长时间,超时将被删除
log.retention.hours=168
#配置连接Zookeeper集群地址
zookeeper.connect=192.168.11.11:2181,192.168.11.12:2181,192.168.11.13:2181

六、配置环境变量

  export KAFKA_HOME=/home/bigdata/kafka
  export PATH=$PATH:$KAFKA_HOME/bin
  source /etc/profile

七、分发安装包

  scp -r ./kafka hadoop2:`pwd`
  scp -r ./kafka hadoop2:`pwd`
  scp -r /etc/profile hadoop2:/etc/
  scp -r /etc/profile hadoop3:/etc/

八、分别在hadoop2和hadoop3上修改配置文件

   /home/bigdata/kafka/config/server.properties中的broker.id=1、broker.id=2

  注:broker.id不得重复

九、启动kafka集群

  此处自己定义脚本,集群启动脚本(创建kafka和zookeper脚本)

  kafka脚本

  touch kafka-all.start.sh

#!/bin/bash

for i in {1..3}
do
echo "kafka$i 启动中..."
ssh root@hadoop$i "source /etc/profile;/home/bigdata/kafka0.10/bin/kafka-server-start.sh -daemon /home/bigdata/kafka0.10/config/server.properties"
echo "kafka$i 成功启动!!!"
done

  zookeeper脚本

  touch zkServer-all.sh

#!/bin/bash
for i in {1..3}
do
echo hadoop$i"启动中..."
ssh root@hadoop$i "source /etc/profile;/home/bigdata/zookeeper/bin/zkServer.sh start"
echo hadoop$i"成功启动!"
done

十、关闭kafka集群

  /home/bigdata/kafka0.10/bin/kafka-server-stop.sh stop

Kafka之安装的更多相关文章

  1. Kafka的安装和部署及测试

    1.简介 大数据分析处理平台包括数据的接入,数据的存储,数据的处理,以及后面的展示或者应用.今天我们连说一下数据的接入,数据的接入目前比较普遍的是采用kafka将前面的数据通过消息的方式,以数据流的形 ...

  2. Linux下Kafka单机安装配置方法(图文)

    Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了普通消息系统的功能,但具有自己独特的设计.这个独特的设计是什么样的呢 介绍 Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了 ...

  3. kafka的安装以及基本用法

    kafka的安装 kafka依赖于ZooKeeper,所以在运行kafka之前需要先部署ZooKeeper集群,ZooKeeper集群部署方式分为两种,一种是单独部署(推荐),另外一种是使用kafka ...

  4. kafka manager安装配置和使用

    kafka manager安装配置和使用 .安装yum源 curl https://bintray.com/sbt/rpm/rpm | sudo tee /etc/yum.repos.d/bintra ...

  5. kafka 的安装部署

    Kafka 的简介: Kafka 是一款分布式消息发布和订阅系统,具有高性能.高吞吐量的特点而被广泛应用与大数据传输场景.它是由 LinkedIn 公司开发,使用 Scala 语言编写,之后成为 Ap ...

  6. Kafka学习之路 (四)Kafka的安装

    一.下载 下载地址: http://kafka.apache.org/downloads.html http://mirrors.hust.edu.cn/apache/ 二.安装前提(zookeepe ...

  7. centos php Zookeeper kafka扩展安装

    如题,系统架构升级引入消息机制,php 安装还是挺麻烦的,网上各种文章有的东拼西凑这里记录下来做个备忘,有需要的同学可以自行参考安装亲测可行 1 zookeeper扩展安装 1.安装zookeeper ...

  8. Linux下Kafka单机安装配置方法

    Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了普通消息系统的功能,但具有自己独特的设计.这个独特的设计是什么样的呢? 首先让我们看几个基本的消息系统术语: •Kafka将消息以topi ...

  9. Kafka Manager安装部署及使用

     为了简化开发者和服务工程师维护Kafka集群的工作,yahoo构建了一个叫做Kafka管理器的基于Web工具,叫做 Kafka Manager.本文对其进行部署配置,并安装配置kafkatool对k ...

  10. 【kafka】安装部署kafka集群(kafka版本:kafka_2.12-2.3.0)

    3.2.1 下载kafka并安装kafka_2.12-2.3.0.tgz tar -zxvf kafka_2.12-2.3.0.tgz 3.2.2 配置kafka集群 在config/server.p ...

随机推荐

  1. Taurus.MVC WebAPI 入门开发教程2:添加控制器输出Hello World。

    系列目录 1.Taurus.MVC WebAPI  入门开发教程1:框架下载环境配置与运行. 2.Taurus.MVC WebAPI 入门开发教程2:添加控制器输出Hello World. 3.Tau ...

  2. 6.22 NOI 模拟

    \(T1\)递归 给出 \(Thue-Morse\) 序列的定义三 每次 \(0\rightarrow 01\),\(1\rightarrow 10\) \(0\rightarrow 01 \righ ...

  3. 【活动专辑】Gitee X DolphinScheduler 邀你一起参与 issue 解决赢好礼!

    在你参与 DolphinScheduler 项目开发时,是否曾因为这些问题困惑: 对项目感兴趣,但不清楚自己可以为项目做什么 在众多 issue 中,找不到合适自己参与的 issue 任务 认为参与开 ...

  4. Gulp介绍及安装使用教程

    一.简介 gulp是前端开发过程中对代码进行构建的工具,是自动化项目的构建利器,不仅能对网站资源进行优化,而且在开发过程中很多重复的任务能够使用正确的工具自动完成,使用她,我们不仅可以很愉快的编写代码 ...

  5. 论文解读(SEP)《Structural Entropy Guided Graph Hierarchical Pooling》

    论文信息 论文标题:Structural Entropy Guided Graph Hierarchical Pooling论文作者:Junran Wu, Xueyuan Chen, Ke Xu, S ...

  6. 认识Chrome扩展插件

    1.前言 现如今的时代,绝大多数人都要跟浏览器打交道的,说到浏览器那肯定是Chrome浏览器一家独大,具体数据请看 知名流量监测机构 Statcounter 公布了 7 月份全球桌面浏览器市场份额,主 ...

  7. XYX错误集

    (频数递减) # 数据范围:没开Long Long (*inf^2) # while 打成了 if ,if 打成了 while(*inf^2) # 换根DP:两个dfs调用错误 (*inf) # ZK ...

  8. PHP实现服务器文件预览

    PHP实现服务器里面的所有文件进行预览跟手机文件夹一样 服务器创建一个index.php文件 点我查看 <?php // errors ini_set('display_errors', 1); ...

  9. 区块相隔虽一线,俱在支付同冶熔,Vue3.0+Tornado6前后端分离集成Web3.0之Metamask区块链虚拟三方支付功能

    最近几年区块链技术的使用外延持续扩展,去中心化的节点认证机制可以大幅度改进传统的支付结算模式的经营效率,降低交易者的成本并提高收益.但不能否认的是,区块链技术也存在着极大的风险,所谓身怀利器,杀心自起 ...

  10. 一种比css_scoped和css_module更优雅的避免css命名冲突小妙招

    css_scoped 与 css_module 我们知道,简单的class名称容易造成css命名重复,比如你定义一个class: <style> .main { float: left; ...