• 问题引出

新产品的体系架构包含多个模块,模块集特点是数量多、模块间交互复杂。那么统一接口是一个很好的解决方案,为了实现统一接口打算采用微服务的核心思想,设计了采用restful service的数据交互方式技术架构。这里记录一下kafka资源访问的服务化搭建,后续记录api和实战。

  • 解决方案

restful api的出现在很大程度上降低了模块/系统数据交互的难度(开发和使用),特别是对前后端数据访问上。于是基于此,找到了confluent。confluent是kafka的创始团队离开Linkin后研发出来的产品,所以是一个很强大的产品级工具平台。confluent开源版本中包含了kafka rest proxy,具体如下:

  1. 下载confluent:

    https://www.confluent.io/download/
    

    备注:下载包过程中需要填写email信息,尽管填就行。

  2. zk集群、kafka集群启动,这里就不介绍,具体请参考kafka集群搭建
  3. 由于confluent中包含了zk和kafka,这里就不用去处理。直接配置kafka rest proxy, 配置文件位置:
    /Users/xnchall/Software/confluent/confluent-4.1./etc/kafka-rest/kafka-rest.properties

    配置如下:

  4. id=kafka-rest-test-server

    schema.registry.url=http://192.168.X.100:8081

    zookeeper.connect=192.168.X.100:2181,192.168.X.100:2182

    bootstrap.servers=PLAINTEXT://192.168.X.100:9092

    schema.registry.url这个参数是为数据序列化avor服务的,建议配置上,说不定将来就用上了呢。其余两个分别是zookeeper和kafka集群配置。

  5. 配置schema-registry:
    路径:/Users/xnchall/Software/confluent/confluent-4.1./etc/schema-registry
    配置如下:
    # The address the socket server listens on.
    # FORMAT:
    # listeners = listener_name://host_name:port
    # EXAMPLE:
    # listeners = PLAINTEXT://your.host.name:9092
    listeners=http://0.0.0.0:8088 # Zookeeper connection string for the Zookeeper cluster used by your Kafka cluster
    # (see zookeeper docs for details).
    # This is a comma separated host:port pairs, each corresponding to a zk
    # server. e.g. "127.0.0.1:3000,127.0.0.1:3001,127.0.0.1:3002".
    kafkastore.connection.url=192.168.x.100:,192.168.x.100: # Alternatively, Schema Registry can now operate without Zookeeper, handling all coordination via
    # Kafka brokers. Use this setting to specify the bootstrap servers for your Kafka cluster and it
    # will be used both for selecting the master schema registry instance and for storing the data for
    # registered schemas.
    # (Note that you cannot mix the two modes; use this mode only on new deployments or by shutting down
    # all instances, switching to the new configuration, and then starting the schema registry
    # instances again.)
    #kafkastore.bootstrap.servers=PLAINTEXT://localhost:9092 # The name of the topic to store schemas in
    kafkastore.topic=_schemas # If true, API requests that fail will include extra debugging information, including stack traces
    debug=True
  6. 启动kafka rest服务
    路径:/Users/xnchall/Software/confluent/confluent-4.1./bin
    启动命令:
    ./kafka-rest-start ../etc/kafka-rest/kafka-rest.properties 注意:前提是kafka和zk已经全部正常启动
  7. 启动schema-registry(可以不启动)
    路径:同kafka-rest
    启动命令:
    ./schema-registry-start ../etc/schema-registry/schema-registry.properties
  8. 检查kafka-rest否正常启动
    方式一:jps
    方式二:http://192.168.X.100:8082/topics
    建议使用方式二直观明了
  • 后续

至此,kafka-restful service算是搭建和启动完成,接下来就是具体通过kafka rest proxy访问kafka资源了,核心包括生产消息、各类消费消息、资源释放与本身负载均衡、以及存在问题等,请见待更新 kafka rest api介绍与实战

参考:https://www.confluent.io

基于kafka rest实现资源访问服务化(实战)的更多相关文章

  1. aliCloud基于RAMService实现跨账户资源访问

    1,aliCloud基于RAM service实现跨账户ECS资源访问Example 主要的资源为Instance,Image,Snapshot,disk,SecurityGroup Action太多 ...

  2. Knative 实战:基于 Kafka 实现消息推送

    作者 | 元毅 阿里云智能事业群高级开发工程师 导读:当前在 Knative 中已经提供了对 Kafka 事件源的支持,那么如何基于 Kafka 实现消息推送呢?本文作者将以阿里云 Kafka 产品为 ...

  3. 基于Kafka Connect框架DataPipeline在实时数据集成上做了哪些提升?

    在不断满足当前企业客户数据集成需求的同时,DataPipeline也基于Kafka Connect 框架做了很多非常重要的提升. 1. 系统架构层面. DataPipeline引入DataPipeli ...

  4. 打造实时数据集成平台——DataPipeline基于Kafka Connect的应用实践

    导读:传统ETL方案让企业难以承受数据集成之重,基于Kafka Connect构建的新型实时数据集成平台被寄予厚望. 在4月21日的Kafka Beijing Meetup第四场活动上,DataPip ...

  5. Spring源码分析——资源访问利器Resource之实现类分析

    今天来分析Spring的资源接口Resource的各个实现类.关于它的接口和抽象类,参见上一篇博文——Spring源码分析——资源访问利器Resource之接口和抽象类分析 一.文件系统资源 File ...

  6. ABP从入门到精通(5):使用基于JWT标准的Token访问WebApi

    项目:asp.net zero 4.2.0 .net core(1.1) 版本 我们做项目的时候可能会遇到需要提供api给app调用,ABP动态生成的WebApi提供了方便的基于JWT标准的Token ...

  7. restful架构风格设计准则(四)资源表示和资源访问

    读书笔记,原文链接:http://www.cnblogs.com/loveis715/p/4669091.html,感谢作者! 一.资源表示 1.资源表示:使用 单数 vs. 复数 如果一个URL所对 ...

  8. 基于Kafka Connect框架DataPipeline可以更好地解决哪些企业数据集成难题?

    DataPipeline已经完成了很多优化和提升工作,可以很好地解决当前企业数据集成面临的很多核心难题. 1. 任务的独立性与全局性. 从Kafka设计之初,就遵从从源端到目的的解耦性.下游可以有很多 ...

  9. DataPipeline丨瓜子二手车基于Kafka的结构化数据流

    文 |彭超 瓜子大数据架构师 交流微信 | datapipeline2018 一.为什么选择Kafka   为什么选Kafka?鉴于庞大的数据量,需要将其做成分布式,这时需要将Q里面的数据分到许多机器 ...

随机推荐

  1. ccf-201709-2 公共钥匙盒

    问题描述 有一个学校的老师共用N个教室,按照规定,所有的钥匙都必须放在公共钥匙盒里,老师不能带钥匙回家.每次老师上课前,都从公共钥匙盒里找到自己上课的教室的钥匙去开门,上完课后,再将钥匙放回到钥匙盒中 ...

  2. 初识 ElasticSearch

    场景:最近有同事分享了ElasticSearch Inverted Index,所以自己也了解一下基于Lucene的ES. 转载自:http://www.jianshu.com/p/05cff7175 ...

  3. 关于 ie9 不执行 js 的问题

    当写js用 console.log()调试,但没有注释,在ie 9 浏览器上运行时,console.log()  后面的脚本不能再执行了. 为了ie,记得把console.log() 注释

  4. CentOS 7运维管理笔记(4)----安装ftp服务器

    在CentOS 7下安装ftp服务器,可以使局域网内的主机拥有共享文件的一个站点. 在Linux系统下,vsftp是一款应用比较广泛的FTP软件,其特点是小巧轻快,安全易用.目前在开源操作系统中常用的 ...

  5. 【NLP_Stanford课堂】情感分析

    一.简介 实例: 电影评论.产品评论是positive还是negative 公众.消费者的信心是否在增加 公众对于候选人.社会事件等的倾向 预测股票市场的涨跌 Affective States又分为: ...

  6. lvm 相关

    求教:/home分区和/root分区的关系 lvm扩容试验 [复制链接] lvm快速使用http://imysql.cn/2008_05_05_quick_startup_lvm Linux LVM学 ...

  7. linux系统参数

    vm.swappiness = 清理掉cache给新的程序用当然可以, 但也带来了新的问题, 也就是如果这些(原来cache里的)数据还要使用, 又得重新cache. 产生了新的IO, 新的wait. ...

  8. 配置docker容器上ssh无密登录

    配置docker容器上ssh无密登录 1.修改所有容器中root账户密码 ssh到远程主机时,首次需要密码访问,因此需要修改root账号密码. 密码必须要8位以上字母数字混合. $>passwd ...

  9. 美国加拿大著名公共知识分子简·雅各布斯 (Jane Jacobs)的5本书

    作者是美国.加拿大著名公共知识分子.最近看了她的三本书<城市经济><城市与国家财富><经济的本质>.出版社把这三本书归入“城市-经济”三部曲,三本书英文原版的出版日 ...

  10. checkbox的readonly属性设置

    方式一: checkbox没有readOnly属性,如果使用disabled=“disabled”属性的话,会让checkbox变成灰色的,用户很反感这种样式可以这样让它保持只读: 设置它的oncli ...