kafka安装与简单使用

文件的详细属性为:
#broker的全局唯一编号,不能重复
broker.id= #用来监听链接的端口,producer或consumer将在此端口建立连接
port= #处理网络请求的线程数量
num.network.threads= #用来处理磁盘IO的线程数量
num.io.threads= #发送套接字的缓冲区大小
socket.send.buffer.bytes= #接受套接字的缓冲区大小
socket.receive.buffer.bytes= #请求套接字的缓冲区大小
socket.request.max.bytes= #kafka消息存放的路径
log.dirs=/export/servers/logs/kafka #topic在当前broker上的分片个数
num.partitions= #用来恢复和清理data下数据的线程数量
num.recovery.threads.per.data.dir= #segment文件保留的最长时间,超时将被删除
log.retention.hours= #滚动生成新的segment文件的最大时间
log.roll.hours= #日志文件中每个segment的大小,默认为1G
log.segment.bytes= #周期性检查文件大小的时间
log.retention.check.interval.ms= #日志清理是否打开
log.cleaner.enable=true #broker需要使用zookeeper保存meta数据
zookeeper.connect=192.168.52.106:,192.168.52.107:,192.168.52.108: #zookeeper链接超时时间
zookeeper.connection.timeout.ms= #partion buffer中,消息的条数达到阈值,将触发flush到磁盘
log.flush.interval.messages= #消息buffer的时间,达到阈值,将触发flush到磁盘
log.flush.interval.ms= #删除topic需要server.properties中设置delete.topic.enable=true否则只是标记删除
delete.topic.enable=true #此处的host.name为本机IP(重要),如果不改,则客户端会抛出:Producer connection to localhost: unsuccessful 错误!
host.name=spark101
ok,根据上面的配置修改自己的配置i文件,切记broker.id属性,全局唯一
然后分发文件,分发后修改broker.id和host.name属性
二、简单的使用
注意:kafka的使用,需要zookeeper的支持,请切记在启动kafka之前,zookeeper集群已启动完毕。
首先,启动kafka,启动成功后会jps查看会有一个kafka进程,若是启动失败,请仔细检查配置文件。
./bin/kafka-server-start.sh -daemon config/server.properties
创建topic
./bin/kafka-topics.sh --create --zookeeper spark101:,spark102:,spark103: --partition --replication-factor --topic test01
查看topic
./bin/kafka-topics.sh --list --zookeeper spark101:2181,spark102:2181,spark103:2181
查看详情
./bin/kafka-topics.sh --describe --zookeeper spark101:,spark102:,spark103: --topic test01
删除(若是配置文件中delete.topic.enable属性为true会直接删除,若是没有配置默认只是标记,并未真正删除)
./bin/kafka-topics.sh --delete --zookeeper spark101:,spark102:,spark103: --topic test01
说明:若是没有true,同时又想删除干净的话,逐步删除一下文件
1、删除配置真实数据目录下的数据文件
2、然后删除zookeeper下面的信息
rmr /admin/delete_topics/topicname
rmr /config/topics/topicname
rmr /brokers/topics/topicname
三、API的使用,消费者和生产者之间的简单通信
生产者:(spark101节点)
./bin/kafka-console-producer.sh --broker-list spark101:,spark102:,spark103: --topic test03
消费者:
.bin/kafka-console-consumer.sh --zookeeper spark101:,spark102:,spark103: --topic test03 --from-beginning
然后在生产者中输入数据,会在消费者那里接收到
kafka安装与简单使用的更多相关文章
- kafka安装和简单测试
kafka安装和简单测试 # 安装zookeeper(apache-zookeeper-3.5.6-bin)https://archive.apache.org/dist/zookeeper/zook ...
- 【Apache Kafka】二、Kafka安装及简单示例
(一)Apache Kafka安装 1.安装环境与前提条件 安装环境:Ubuntu16.04 前提条件: ubuntu系统下安装好jdk 1.8以上版本,正确配置环境变量 ubuntu系统下安 ...
- kafka集群安装及简单使用
关于kafka是什么及原理,请参考kafka官方文档的介绍:http://kafka.apache.org/documentation/#introduction ,英文不好的同学可以看这里http: ...
- kafka可视化工具安装及简单使用
一.安装 双击kafkatool_64bit.exe安装kafka可视化工具,并且C:\Windows\System32\drivers\etc配置HOSTS,打开HOSTS并添加: HOSTS添加: ...
- kafka安装与使用
一.下载 下载地址: http://kafka.apache.org/downloads.html kafka目录结构 目录 说明 bin 操作kafka的可执行脚本,还包含windows下脚本 co ...
- Spark简介安装和简单例子
Spark简介安装和简单例子 Spark简介 Spark是一种快速.通用.可扩展的大数据分析引擎,目前,Spark生态系统已经发展成为一个包含多个子项目的集合,其中包含SparkSQL.Spark S ...
- kafka安装和使用
kafka安装和启动 kafka的背景知识已经讲了很多了,让我们现在开始实践吧,假设你现在没有Kafka和ZooKeeper环境. Step 1: 下载代码 下载0.10.0.0版本并且解压它. &g ...
- Kafka安装教程(详细过程)
安装前期准备: 1,准备三个节点(根据自己需求决定) 2,三个节点上安装好zookeeper(也可以使用kafka自带的zookeeper) 3,关闭防火墙 chkconfig iptables o ...
- Zookeeper 安装与简单使用
一.安装Zookeeper 其实Zookeeper的安装特别简单,也不能算安装了,只需要将Zookeeper下载后解压,就完成了安装操作. 下载地址:http://zookeeper.apache.o ...
随机推荐
- 解决eclipse部署maven时,src/main/resources里面配置文件加载不到webapp下classes路径下的问题
解决eclipse部署maven时,src/main/resources里面配置文件加载不到webapp下classes路径下的问题. 有时候是src/main/resources下面的,有时候是sr ...
- 机器学习之KNN算法
1 KNN算法 1.1 KNN算法简介 KNN(K-Nearest Neighbor)工作原理:存在一个样本数据集合,也称为训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属 ...
- 微服务ServiceMesh及三种模式介绍
1. 前言 今年,ServiceMesh(服务网格)概念在社区里头非常火,有人提出2018年是ServiceMesh年,还有人提出ServiceMesh是下一代的微服务架构基础.作为架构师,如果你现在 ...
- 2月第3周业务风控关注|上海网信办复测23个被约谈APP 涉及1号店、小红书等
易盾业务风控周报每周呈报值得关注的安全技术和事件,包括但不限于内容安全.移动安全.业务安全和网络安全,帮助企业提高警惕,规避这些似小实大.影响业务健康发展的安全风险. 1.上海网信办复测23个被约谈A ...
- Java字符串池(String Pool)深度解析
版权声明:本文为博主原创文章,转载请注明出处,欢迎交流学习! 在工作中,String类是我们使用频率非常高的一种对象类型.JVM为了提升性能和减少内存开销,避免字符串的重复创建,其维护了一块特殊的内存 ...
- centos docker安装和使用
系统要求:centos7,内核3.10或更高一.配置yum源并安装 vim /etc/yum.repos.d/docker.repos [dockerrepo] name=Docker Resposi ...
- Servlet案例7:jsp技术及案例
jsp运行原理: 根据jsp文件创建java文件(servlet),并编译运行 第一次访问时会被翻译成servlet后执行 jsp三个指令: 1.page指令:页面翻译运行的属性的配置(通常使用默认) ...
- Python爬虫——selenium模块
selenium模块介绍 selenium最初是一个测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题 selenium本质是通过驱动浏览器,完全模拟浏览 ...
- [视频]K8飞刀 Discuz csrf Exp教程
[视频]K8飞刀 一键构造Discuz csrf Exp教程 链接:https://pan.baidu.com/s/1tVseP_ZBneKpXQueIncPcA 提取码:6qnh
- Can't sendRedirect() after data has committed to the client
resin下 response.sendRedirect("XXX"); 会报异常:java.lang.IllegalStateException: Can't sendRedir ...