环境:

  • centos8的服务器
  • 安装好docker和docker-compose

首先需要开放对外的ip端口,如阿里云的

docker-compose.yml

mkdir -p /usr/local/kafka
vim docker-compose.yml

写入下面的代码

version: '3.7'
services:
zookeeper:
image: wurstmeister/zookeeper
restart: always
volumes:
- ./data:/data
ports:
- 2181:2181 kafka:
image: wurstmeister/kafka
restart: always
ports:
- 9092:9092
environment:
KAFKA_BROKER_ID: 0
#kafka会在zookeeper中使用这个参数进行注册,如果不设置,zk就无法向外提供broker的信息,这里填写kafka的ip地址
KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://192.16.0.110:9092
# KAFKA_ADVERTISED_HOST_NAME: 182.92.234.23 # 注册到zk里的kafka HOST_NAME dkafka 0.9.x以后弃用
KAFKA_CREATE_TOPICS: "test:2:0" #kafka启动后初始化一个有2个partition(分区)0个副本名叫test的topic
KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181
# kafka的tcp侦听ip地址 例如“127.0.0.1”,那么只有与该ip正确连接的客户端能成功连接到kafka;
KAFKA_LISTENERS: PLAINTEXT://0.0.0.0:9092
KAFKA_HEAP_OPTS: "-Xmx256M -Xms128M"
volumes:
- ./kafka-logs:/kafka
depends_on:
- zookeeper

kafka listeners 和 advertised.listeners 的区别及应用

https://blog.csdn.net/weixin_38251332/article/details/105638535

启动服务

docker-compose up -d

A窗口 查看/发送消息到web_log里

# 进入kafka_kafka_1中
docker exec -it kafka_kafka_1 bash #查看已经建好的topic (docker-compose.yml)
$KAFKA_HOME/bin/kafka-topics.sh --list --zookeeper kafka_zookeeper_1:2181 #发送消息
$KAFKA_HOME/bin/kafka-console-producer.sh --topic=web_log --broker-list kafka_kafka_1:9092
>1
>2
>3
>

B窗口接收消息web_log里信息

# 另开一个窗口,进入kafka_kafka_1中
docker exec -it kafka_kafka_1 bash
#接收消息
$KAFKA_HOME/bin/kafka-console-consumer.sh --bootstrap-server kafka_kafka_1:9092 --from-beginning --topic web_log 1
2
3

停止服务

docker-compose down

kafka其它命令

二进制安装方式 zookeeper启动

/usr/local/kafka/bin/zookeeper-server-start.sh -daemon /usr/local/kafka/config/zookeeper.properties
netstat -tplnu | grep 2181

二进制安装方式 kafka启动

nohup /usr/local/kafka/bin/kafka-server-start.sh /usr/local/kafka/config/server.properties &
netstat -tplnu | grep 9092

查看kafka有哪些主题

/usr/local/kafka/bin/kafka-consumer-groups.sh --bootstrap-server localhost:9092 --list
./opt/kafka/bin/kafka-consumer-groups.sh --bootstrap-server localhost:9092 --list crawler
wjes7
data_analysis
checkurl
grab

查看kafka 指定主题有没有消费

/usr/local/kafka/bin/kafka-consumer-groups.sh --bootstrap-server localhost:9092 --group wjes7 --describe
./opt/kafka/bin/kafka-consumer-groups.sh --bootstrap-server localhost:9092 --group grab --describe TOPIC PARTITION CURRENT-OFFSET LOG-END-OFFSET LAG CONSUMER-ID HOST CLIENT-ID
es_insert 0 109 109 0 wjes7-e9e26bd0-4e4d-4d7a-9dd2-c2c45df38083 /172.34.1.162 wjes7

查看kafka 指定主题消费情况

/opt/bitnami/kafka/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic=es_insert_full --from-beginning

go操作kafka

producer 消费者

package main

import (
"fmt" "github.com/Shopify/sarama"
) var Topic = "web_log" //主题名称 // 基于sarama第三方库开发的kafka client
func main() {
config := sarama.NewConfig()
config.Producer.RequiredAcks = sarama.WaitForAll // 发送完数据需要leader和follow都确认
config.Producer.Partitioner = sarama.NewRandomPartitioner // 新选出一个partition
config.Producer.Return.Successes = true // 成功交付的消息将在success channel返回 // 连接kafka
client, err := sarama.NewSyncProducer([]string{"182.92.234.24:9092"}, config)
if err != nil {
fmt.Println("producer closed, err:", err)
return
}
defer client.Close()
//例子一发单个消息
// 构造一个消息
msg := &sarama.ProducerMessage{}
msg.Topic = Topic
content := "this is a test log"
send01(client,msg,content) //例子二发多个消息
for _, word := range []string{"Welcome11", "to", "the", "Confluent", "Kafka", "Golang", "client"} {
send01(client,msg,word)
}
} //发消息
func send01(client sarama.SyncProducer,msg *sarama.ProducerMessage,content string) {
msg.Value = sarama.StringEncoder(content) // 发送消息
pid, offset, err := client.SendMessage(msg)
if err != nil {
fmt.Println("send msg failed, err:", err)
return
}
fmt.Printf("pid:%v offset:%v\n", pid, offset) }

consumer 消费者

package main

import (
"fmt" "github.com/Shopify/sarama"
) // kafka consumer var Topic = "web_log" //主题名称 func main() {
consumer, err := sarama.NewConsumer([]string{"182.92.234.24:9092"}, nil)
if err != nil {
fmt.Printf("fail to start consumer, err:%v\n", err)
return
}
partitionList, err := consumer.Partitions(Topic) // 根据topic取到所有的分区
if err != nil {
fmt.Printf("fail to get list of partition:err%v\n", err)
return
}
fmt.Println(partitionList)
for partition := range partitionList { // 遍历所有的分区
// 针对每个分区创建一个对应的分区消费者
pc, err := consumer.ConsumePartition(Topic, int32(partition), sarama.OffsetNewest)
if err != nil {
fmt.Printf("failed to start consumer for partition %d,err:%v\n", partition, err)
return
}
defer pc.AsyncClose()
// 异步从每个分区消费信息
go func(sarama.PartitionConsumer) {
for msg := range pc.Messages() {
fmt.Printf("Partition:%d Offset:%d Key:%v Value:%v\n", msg.Partition, msg.Offset, msg.Key, string(msg.Value))
}
}(pc)
}
select{} //阻塞进程
}

结合gin框架操作kafka

package main

import (
"fmt"
"github.com/Shopify/sarama"
"github.com/gin-gonic/gin"
"sync"
"time"
) var Topic = "web_log" //主题名称
var kafkaIp = "182.92.234.24:9092" func Test(ctx *gin.Context) {
//读取
ctx.JSON(200, gin.H{
"data": "product",
})
} func main() { //启动消息者
go InitConsumer() r := gin.Default()
r.GET("/ping", func(c *gin.Context) {
c.JSON(200, gin.H{
"message": "pong",
})
})
r.GET("/send", SendMessage) //http://localhost:8082/send r.Run("0.0.0.0:8082") // 监听并在 0.0.0.0:8080 上启动服务 } //发消息到kakfa
func SendMessage(ctx *gin.Context) {
fmt.Println("SendMessage")
config := sarama.NewConfig()
config.Producer.RequiredAcks = sarama.WaitForAll // 发送完数据需要leader和follow都确认
config.Producer.Partitioner = sarama.NewRandomPartitioner // 新选出一个partition
config.Producer.Return.Successes = true // 成功交付的消息将在success channel返回 // 连接kafka
client, err := sarama.NewSyncProducer([]string{kafkaIp}, config)
if err != nil {
fmt.Println("producer closed, err:", err)
return
}
defer client.Close()
//例子一发单个消息
// 构造一个消息
msg := &sarama.ProducerMessage{}
msg.Topic = Topic
content := "this is a test log"
sendTokafka(client,msg,content) //例子二发多个消息
for _, word := range []string{"Welcome11", "to", "the", "Confluent", "Kafka", "Golang", "client"} {
sendTokafka(client,msg,word)
}
} //发消息函数
func sendTokafka(client sarama.SyncProducer,msg *sarama.ProducerMessage,content string) {
msg.Value = sarama.StringEncoder(content) // 发送消息
pid, offset, err := client.SendMessage(msg)
if err != nil {
fmt.Println("send msg failed, err:", err)
return
}
fmt.Printf("pid:%v offset:%v\n", pid, offset) } func InitConsumer() {
time.Sleep(time.Second * 3)
fmt.Println("init Counsumer success") var wg sync.WaitGroup
consumer, err := sarama.NewConsumer([]string{kafkaIp}, nil)
if err != nil {
fmt.Printf("fail to start consumer, err:%v\n", err)
return
}
partitionList, err := consumer.Partitions(Topic) // 根据topic取到所有的分区
if err != nil {
fmt.Printf("fail to get list of partition:err%v\n", err)
return
}
fmt.Println(partitionList) for partition := range partitionList { // 遍历所有的分区
wg.Add(1)
// 针对每个分区创建一个对应的分区消费者
pc, err := consumer.ConsumePartition(Topic, int32(partition), sarama.OffsetNewest)
if err != nil {
fmt.Printf("failed to start consumer for partition %d,err:%v\n", partition, err)
return
}
// 异步从每个分区消费信息
go func(sarama.PartitionConsumer) {
for msg := range pc.Messages() {
fmt.Printf("Partition:%d Offset:%d Key:%v Value:%v\n", msg.Partition, msg.Offset, msg.Key, string(msg.Value))
}
defer pc.AsyncClose()
wg.Done()
}(pc)
}
//select{} //阻塞进程
wg.Wait()
consumer.Close()
}

访问:

http://localhost:8082/send

结果:

SendMessage
pid:0 offset:250
Partition:0 Offset:250 Key:[] Value:this is a test log
Partition:0 Offset:251 Key:[] Value:Welcome11
pid:0 offset:251
Partition:0 Offset:252 Key:[] Value:to
pid:0 offset:252
pid:0 offset:253
Partition:0 Offset:253 Key:[] Value:the
Partition:0 Offset:254 Key:[] Value:Confluent
pid:0 offset:254
Partition:0 Offset:255 Key:[] Value:Kafka
pid:0 offset:255
pid:0 offset:256
Partition:0 Offset:256 Key:[] Value:Golang
Partition:0 Offset:257 Key:[] Value:client
pid:0 offset:257

go-queue操作kafka

参考地址:

github.com/zeromicro/go-queue/kq

参考文档:

https://www.jianshu.com/p/97fa257622ee

https://segmentfault.com/a/1190000021746086

docker 安装 kafka+zookeeper,golang操作kafka的更多相关文章

  1. golang实现kafka的消息推送

    Kafka的安装与启动 kafka中涉及的名词 消息记录:由一个key,一个value和一个时间戳构成,消息最终存储在主题下的分区中,记录在生产中称为生产者记录,在消费者中称为消费记录.Kafka集群 ...

  2. docker+kafka+zookeeper+zipkin的安装

    1. 启动zookeeper容器 docker search zookeeper docker pull wurstmeister/zookeeper docker run -d --name zoo ...

  3. Kafka:docker安装Kafka消息队列

    安装之前先看下图 Kafka基础架构及术语  Kafka基本组成 Kafka cluster: Kafka消息队列(存储消息的队列组件) Zookeeper: 注册中心(kafka集群依赖zookee ...

  4. docker 安装kafka

    1.下载镜像这里使用了wurstmeister/kafka和wurstmeister/zookeeper这两个版本的镜像 docker pull wurstmeister/zookeeperdocke ...

  5. centos7用docker安装kafka

    参考之前的文章安装zookeeper集群  https://www.cnblogs.com/xiaohanlin/p/10124674.html 如果是测试环境也可以简单安装单节点的zookeeper ...

  6. docker安装kafka

    文本摘自此文章 .kafka需要zookeeper管理,所以需要先安装zookeeper. 下载zookeeper镜像 $ docker pull wurstmeister/zookeeper .启动 ...

  7. docker安装kafka快速入门

    docker安装kafka快速入门 1.安装zookeeper docker search zookeeperdocker pull zookeeperdocker run -d -v /home/s ...

  8. Docker安装RabbitMQ与Kafka

    RabbitMq安装(dokcer) 下载镜像 docker pull rabbitmq 创建并启动容器 docker run -d --name rabbitmq -p 5672:5672 -p 1 ...

  9. Docker部署kafka|Go操作实践

    前言 写作本文的背景是由于字节的暑期青训营中,某个项目要求编写一个简易的流处理引擎(flink),开发语言不限,推荐Java,本着好奇心的驱使,我打算使用Go语言进行部分尝试. 既然是流处理引擎,那么 ...

  10. Ubuntu 16下单机安装配置zookeeper和kafka

    网上其他的没有一个能直接照做完成的,我这个也是看了些帖子,整出来的怕以后忘记 建议连接工具:Bitvise SSH Client 一.安装配置zookeeper 下载zookeeper 3.4.13: ...

随机推荐

  1. 测试开发之系统篇-Docker容器安装

    前面文章我们讲到,容器是运行在宿主机上的一个进程,多个容器之间使用同一个宿主机上的操作系统内核.此处以Ubuntu20.04系统为例,介绍Docker容器引擎的安装过程. 安装 安装依赖. sudo ...

  2. linux 简单的mysql备份和导入

    linux 简单的mysql备份和导入 一.数据库的备份与导入 1.导出整个数据库 mysqldump -u 用户名 -p 数据库名 > 导出的文件名 例:mysqldump -u dbadmi ...

  3. #dp#CodeChef Little Elephant and Mouses

    LEMOUSE 分析 由于被单只老鼠吓到只能算一次,所以前两次走的位置也可能会被老鼠吓到. 设 \(dp[n][m][o][p]\) 表示走到 \((n,m)\) 上一步走的是 \(o\) 这种方式, ...

  4. #FFT#P4173 残缺的字符串

    题目 有一个长度为 \(m\) 的字符串 \(A\) 和 一个长度为 \(n\) 的字符串 \(B\), 它们有若干位置为通配符,现在问 \(B\) 的每一个后缀是否存在前缀为 \(A\). 分析 考 ...

  5. #莫比乌斯反演#ZOJ 3435 Ideal Puzzle Bobble SP7001 VLATTICE

    ZOJ 3435 Ideal Puzzle Bobble SP7001 VLATTICE - Visible Lattice Points(洛谷题目传送门) SP7001 VLATTICE - Vis ...

  6. 稀疏镜像在OpenHarmony上的应用

    一.稀疏镜像升级背景 常用系统镜像格式为原始镜像,即RAW格式.镜像体积比较大,在烧录固件或者升级固件时比较耗时,而且在移动设备升级过程时比较耗费流量.为此,将原始镜像用稀疏描述,可以大大地缩减镜像体 ...

  7. 深入理解 C++ 语法:从基础知识到高级应用

    C++ 语法 让我们将以下代码分解以更好地理解它: 示例 #include <iostream> using namespace std; int main() { cout <&l ...

  8. 深入理解 C++ 右值引用和移动语义:全面解析

    C++11引入了右值引用,它也是C++11最重要的新特性之一.原因在于它解决了C++的一大历史遗留问题,即消除了很多场景下的不必要的额外开销.即使你的代码中并不直接使用右值引用,也可以通过标准库,间接 ...

  9. c# 托管和非托管资源-详解

    前言 引用:带你复习c# 托管和非托管资源_C#教程_脚本之家 (jb51.net) c# 托管和非托管比较重要,因为这涉及到资源的释放. 现在只要在计算机上运行的,无论玩出什么花来,整个什么概念,逃 ...

  10. pip提示升级pip版本

    今天在进行pip安装库的时候发现下面出现一段黄色的字体,如下图: 自由翻译: 大概意思就是说我现在安装的pip的版本是 20.0.2,最新版本是 20.1,希望我可以更新到最新的版本,并告诉了我怎么安 ...