【云计算】K8S DaemonSet 每个node上都运行一个pod
Kubernetes容器集群中的日志系统集成实践
Kubernetes是原生的容器编排管理系统,对于负载均衡、服务发现、高可用、滚动升级、自动伸缩等容器云平台的功能要求有原生支持。今天我分享一下我们在Kubernetes集群中日志管理的实践方案。在这个方案中,除了Docker和Kubernetes,主要还涉及的技术包括:Fluentd、Elasticsearch、Kibana和Swift。
Fig00-Kubernetes日志系统中涉及的技术
评估容器云平台日志系统的标准:
易扩展:能够支撑集群规模的增长
开销低:尽量占用较少的系统资源
入侵小:尽量不需要改动应用容器和云平台系统
大集中:将所有分布在各个主机节点上的日志集中在一起分析和查询
易部署:方便自动化部署到分布式集群中
易定制:方便处理不同日志格式,方便对接不同的存储方式
实效性:日志在产生之后需要能在短时间内即可以进行查看分析
社区活跃:方便未来的维护和更新,方便功能扩展
Fluentd的介绍
Fluentd是一个实时日志收集系统,它把JSON作为日志的中间处理格式,通过灵活的插件机制,可以支持丰富多样的日志输入应用、输出应用、以及多种日志解析、缓存、过滤和格式化输出机制。
Fluentd的架构
Fluentd将JSON作为数据处理的中间格式,通过插件式的架构可扩展地支持不同种应用或系统作为日志源和日志输出端。假设有M种输入源Wordpress、MySQL、Tomcat……;N种输出端MySQL、MongoDB、ElasticSearch……那么处理日志的代码模块由MxN减少为M+N。我们在Kubernetes集群中收集日志主要用到https://hub.docker.com/r/fabric8/fluentd-kubernetes/这个镜像和https://github.com/fabric8io/docker-fluentd-kubernetes这个Plugins。
Fig01-Fluend架构
Fig02-Fluentd功能
Fluentd的特点:
将JSON作为统一的中间层日志格式做日志处理
基于Ruby的日志收集工具:较基于JRuby的Logstash的Footprint小
兼容的输入源输出端基本和Logstash相当
性能相关的部分为C代码:速度较快
支持插件扩展:Input、Parser、Filter、Output、Formatter and Buffer
Fluentd在Kubernetes集群中的部署架构
每个Node节点上都要有Fluentd-Elasticsearch这个Pod,有两种方式支持:1. 放在/etc/kubernetes/manifest下,用脚本自动启动;2. 用DaemonSet启动。这两种模式都是为了保证在每一个Kubernetes集群节点上都有一个Fluentd的驻留Pod运行来收集日志。Kubernetes中DaemonSet这个API对象就是为了驻留Pod而设计的。
Fig03-Fluentd在Kubernetes集群中的部署架构
在Kubenetes中的部署案例YAML
在Kubernetes集群中部署Fluentd时,可以采用类似下面的YAML文件,将使用Docker镜像Fluentd-Elasticsearch的Pod部署到每一个Kubernetes节点上。
Fig04-Fluentd在Kubernetes集群中的部署YAML
Fluentd pod的运行时状态:
Fig05-Fluentd在Kubernetes集群中的运行状态
选用Fluentd的理由:
开销低:核心代码为C,插件代码为Ruby,不需要打包JDK
入侵小:用Pod部署,不干扰应用容器和主机服务
易部署:使用容器镜像作为单容器Pod部署
易定制:很方便增加和更改适合自己应用的插件
ElasticSearch
Elasticsearch是一个实时的分布式搜索和分析引擎。它可以用于文档存储,全文搜索,结构化搜索以及实时分析,与常见的互联网应用最典型的应用场景是日志分析查询和全文搜索。
ElasticSearch的架构
在ElasticSearch中有三类节点:第一类是Data Node,用来存储数据,ElasticSearch中对于一份数据可以有多个副本,以提供数据高可用能力;第二类是Client Node,或者叫查询节点,提供对查询的负载均衡;第三类是Master Eligible node,或者叫索引节点,这些节点可以被选举为Master Node,而Master Node会控制整个ElasticSearch集群的状态。
Fig06-Elasticsearch的架构
ElasticSearch在Kubernetes中的部署架构
我们在Kubernetes中,三类节点都是一个包含同一个镜像Pod
elasticsearch-cloud-kubernetes,区别只是启动时的环境role不一样。查询和索引节点需要提供对外的Web服务,需要发布为一个Kubernetes Service。数据节点需要绑定一个持久化存储,我们用Kubernetes PV创建出存储卷,数据节点上面通过Kubernetes PVC绑定到相应的数据卷。PV的实际存储可以是NFS、GlusterFS等共享存储。
Fig07-ElasticSearch在Kubernetes中的部署架构
ElasticSearch的特点
搜索引擎:基于Apache Lucene的全文搜索引擎,作为开源搜索引擎应用案例开始比solr更流行
文档数据库:可以作为文档数据库使用,存储文档大数据,日志大数据
实时数据分析查询系统:支持大数据量的实时分析查询
完全分布式:可随着节点数水平扩展存储量和查询速度
高可用:可以自动检测破坏的分片,自动重新平衡各个节点上存储的分片数据,可备份冷数据到对象存储
支持插件扩展:可自定义插件支持不同的备份目标
ElasticSearch与传统关系数据库的类比
ElasticSearch与传统数据的概念有许多类似之处,下面是ElasticSearch与传统关系型数据库的对比。
Fig08-ElasticSearch与传统数据库的对比
ElasticSearch在Kubernetes集群中的部署
在Kubernetes集群中部署ElasticSearch,我们会部署类似图中的3种节点:es-data类是用来存放索引数据的;es-master类是用来提供索引写服务的;es-client是用来提供索引查询服务的。
Fig09-ElasticSearch在Kubernetes集群中的部署
ElasticSearch数据在Kubernetes集群中的持久化存储
在部署es-data节点的时候,他们的数据卷我们是以共享存储卷挂载的,这里采用PVC/PV的模式挂载一个NFS的PV提供数据卷,如下图所示。
Fig10-ElasticSearch数据在Kubernetes集群中的持久化存储
日志的备份和恢复
ElasticSearch允许对于单个索引或整个集群做备份和恢复。备份恢复所支持的目标存储仓库类型包括:
S3仓库:将AWS S3作为备份仓库
安装命令:
sudo bin/elasticsearch-plugin install repository-s3
创建仓库示例:
PUT _snapshot/my-s3-repository-1
{
"type": "s3",
"settings": {
"bucket": "s3_repository_1",
"region": "us-west"
}
}
Azure仓库:将Azure作为备份仓库
安装命令:
sudo bin/elasticsearch-plugin install repository-azure
创建仓库示例:
PUT _snapshot/my-azure-repository-1
{
"type": "azure",
"settings": {
"container": "backup-container",
"base_path": "backups",
"chunk_size": "32m",
"compress": true
}
}
HDFS仓库:将HDFS作为备份仓库
安装命令:
sudo bin/elasticsearch-plugin install repository-hdfs
创建仓库示例:
PUT _snapshot/my-hdfs-repository-1
{
"type": "hdfs",
"settings": {
"uri": "hdfs://namenode:8020/",
"path": "elasticsearch/respositories/my_hdfs_repository",
"conf.dfs.client.read.shortcircuit": "true"
}
}
GCS仓库:将Google Cloud Storage作为备份仓库
安装命令:
sudo bin/elasticsearch-plugin install repository-gcs
创建仓库示例:
PUT _snapshot/my-gcs-repository-1
{
"type": "gcs",
"settings": {
"bucket": "my_bucket",
"service_account": "_default_"
}
}
作为私有云部署的环境,多数基于OpenStack的IaaS层,可以采用OpenStack的对象存储Swift作为备份。
Swift仓库:将OpenStack Swift作为备份仓库
安装命令:
sudo bin/elasticsearch-plugin install org.wikimedia.elasticsearch.swift/swift-repository-plugin/2.1.1
创建仓库示例:
PUT _snapshot/my-gcs-repository-1
{
"type": "swift",
"settings": {
"swift_url": "http://localhost:8080/auth/v1.0/",
"swift_container": "my-container",
"swift_username": "myuser",
"swift_password": "mypass!"
}
}
选用ElasticSearch的理由:
易扩展:可以随着增加节点水平扩展存储容量和索引能力
大集中:将所有Pod和容器的数据集中在一起方便查询和分析
易部署:使用容器镜像作为单容器Pod部署
易定制:很方便增加和更改适合自己应用的插件
实效性:日志在产生之后需要能在短时间内即可以进行查看分析
社区活跃:ElasticSearch社区越来越活跃,大有赶超Solr之势
Kibana
Kibana在Kubernetes中的部署
Kibana跟ElasticSearch的集成相对来说比较直观,利用https://hub.docker.com/r/fabric8/kibana4/镜像,设置好ELASTICSEARCH_URL参数就可以,Kibana是一个部署在Kubernetes集群中的Web前端服务,而它引用ELASTICSEARCH_URL这个环境变量作为资源使用。
Fig11-在Kubernetes集群中部署Kibana
整体日志管理系统的架构
在Kubernetes集群中的每个节点上运行一个Fluentd的容器,收集容器的日志发送给到ElasticSearch集群中。ElasticSearch集群会保存一周的日志作为热数据以供实时分析和查询,用户可以通过Kibana查看任意Node、Namespace、Service、Pod和容器的数据。对于超过一周的日志数据,ElasticSearch会自动备份到Swift对象存储的相应Bucket中。
Fig12-整体Kubernetes日志管理系统的架构
Q&A
Q:请问Kubernetes宿主机的日志是如何收集的?
A:跟收集容器的日志是类似的,事实上容器的日志也是从主机的日志目录收集过来的。
Q:如果把移动设备的整机日志输入系统,尤其是移动设备需要注意哪些问题?产生日志目前想到有两种方案:(1)使用APP转发给Fluentd(2)使用Syslog,个人感觉第二个更合适,或者还有其他更好的方案么?
A:抱歉,我们比较关注的是云平台服务器端的日志,移动设备的日志没有研究过。如果是移动设备日志通过服务器的API上传到服务器了,那么就是一样的处理。一般我们的理解,移动设备的日志是通过应用自己的一些日志程序,定期压缩发送到服务器或者第三方的日志手机平台,然后在服务器端,当作普通的服务器应用日志来处理,只不过要打上移动设备和用户的相关Tag。
Q:ElasticSearch是可以设置备份周期的时间吧?如果我想保留一个月的日志来进行查询?
A:可以设置。但是要通过自己的脚本或者crontab任务来实现。ES目前主要提供的是通过REST API创建、删除备份和通过保留的备份恢复某个集群。
Q:Fluentd可否设置收集容器应用指定目录日志(非标准输出目录),怎么设置?
A:容器应用目录在容器内,Fluentd是收集不到的,除非你的输出目录也是外部挂载的的共享目录。如果是一个单纯Docker Engine管理的节点,可以通过–volumn-from访问另一个容器存储的数据,当然这也是在那个容器-v声明的volumn而不是任意目录;这种方式对Kubernetes集群没什么帮助。
Q:ElasticSearch日志的保留策略, 怎么设置呢,是调API删除还是ElasticSearch自带呢?
A:我们现在用的方式是用时间做索引,然后脚本定时删除。
Q:数据节点PVC/PV 挂载的文件系统是那种呢?实际使用上遇到什么问题没有?
A:我们用过的主要是NFS和GlusterFS。最初实现的PV比较弱,PVC不能通过Label与PV匹配,只能通过size和访问类型匹配,无法准确选择PV存储。现在最新Kubernetes支持PVC的selector支持选择带有特定Label的PV了。
Q:请问Kubernetes宿主机的日志是如何收集的?
A:用相应的不同的Fluentd插件,类似的mount到相应的主机日志目录即可。现在容器的日志也是通过主机收集的。
Q:日志包括容器的捕获的标准输出日志和应用打到日志文件中的日志。对于这两类场景,如何用Fluentd实现新启动容器的日志自动发现和收集?
A:对于打到日志文件中的日志,原则上建议日志目录是主机绑定上的或是共享目录。日志的自动发现和收集需要通过fluentd的插件,将指定的目录的文件过滤出来,例如标准输出日志肯定在主机的/var/lib/docker/containers/container-id/下。我们集成的Fluentd镜像,已经打包配置好了相应的的插件https://github.com/fabric8io/fluent-plugin-kubernetes_metadata_filter,可以参考。
Q:我们目前也使用了Fluentd收集容器日志,收集容器写到log文件中的日志比收集从标准输出的日志要慢,请问你们有什么调优的方法吗?
A:文件日志比标准输出慢是正常的,调优Fluentd的性能可能要根据Fluentd的说明逐渐积累经验先定位哪里慢,再试验加快方法,跟各种系统的性能调优是同样的思路。下面这个链接有些调优建议。http://docs.fluentd.org/articles/performance-tuning
Q:请问如何处理集群自我恢复机制,比如elasticsearch-master、elasticsearch-client 挂了?
A:我们在Kubernetes集群中,elasticsearch-master和elasticsearch-client都是以Relication Controller或Replication Set方式启动的,系统会自动保证服务的高可用。其他集群也是类似的机制,和一般Web应用的高可用是一样,要有机制保证重启服务,要有机制做服务发现和负载均衡,在K8s集群是靠Relication Controller和Kube-proxy。
Q:请问,在Kubernetes集群中的每个节点上运行一个Fluentd的容器,这个节点是容器还是部署Docker的节点?
A:这个是主机节点(可能是物理机或虚拟机),就是Kubernetes的Node,部署Docker的节点。推荐的官方方法,是通过Kubernetes的DaemonSet做部署。当然也可以自己在每个节点上维持自动的启动脚本,运行一些每个节点都要启动的Pod服务。
Q:请问,Kubernetes的master是单点的,你们是否有优化过,现在1.3了,你们平台升级是否是热部署?
A:我们是用podmaster做至少3节点master高可用部署,api-server是多活的,controllermanager 和schedule是1活2备。平台升级现在是手动的,不会影响运行中的服务。但是现在平台升级需要工程师小心翼翼的手动操作,还不是自动化的。
Q:请问Fluentd和Flume除了开发语言不一样,有什么本质上的区别?以及ES日索引的分片数量建议是?
A:Fluentd和Flume的设计理念是类似的,一个用CRuby,一个用JRuby,与Fluentd和Logstash的情况类似,Fluentd的镜像会小一些,运行时内存消耗会小一些,而Flume的镜像因为要打包JDK差不多要几百兆。在围绕容器的Linux环境中,Java的跨平台性本身带来不了特别大优势,反而Fluentd镜像小的优势更加明显。另外一个对我们的系统实践意义比较大,就是fluentd跟Kubernetes集群的方案做的简单明了。ES默认的shards数是5,一般的集群情况要根据使用情况测一下,对于不同的index,这个shards数可以是不一样的。Shards的个数尽量不设1吧,设1的话,将来想要增加分片时,移动的数据量太大了。在没有很充分的生产测试经验之前,设置2到5比较好。
参考资料:
Kubernetes容器集群中的日志系统集成实践:http://oicwx.com/detail/1124477
轻松了解Kubernetes部署功能:http://www.tuicool.com/articles/qyaIBz
【云计算】K8S DaemonSet 每个node上都运行一个pod的更多相关文章
- DaemonSet:每个节点都运行一个Pod
依旧从这里开始: kubectl explain daemonset.spec 一个基础daemonset yaml, apiVersion: apps/v1 kind: DaemonSet meta ...
- kubernetes 每个node上只能运行一个副本DaemonSet
每个node上只能运行一个副本: apiVersion: extensions/v1beta1 kind: DaemonSet #使用DaemonSet的方式运行 metadata: name: ku ...
- k8s daemonset controller源码分析
daemonset controller分析 daemonset controller简介 daemonset controller是kube-controller-manager组件中众多控制器中的 ...
- k8s集群Job负载 支持多个 Pod 可靠的并发执行,如何权衡利弊选择适合的并行计算模式?
k8s的Job负载 支持多个 Pod 可靠的并发执行,如何权衡利弊选择适合的并行计算模式? 简单聊聊你对工作负载Job的理解? Job 支持多个 Pod 可靠的并发执行,如何权衡利弊选择适合的并行计算 ...
- kubernetes:用label让pod在指定的node上运行(kubernetes1.18.3)
一,为什么要为node指定label? 通常scheduler会把pod调度到所有可用的Node,有的情况下我们希望能把 Pod 部署到指定的 Node, 例如: 有的Node上配备了速度更快的SSD ...
- node.js服务端程序在Linux上持久运行
如果要想在服务端部署node.js程序,让其持久化运行,就不能单单使用npm start命令运行,当然了,这样运行是毫无问题的,但是当关闭xshell窗口或者是关闭进程的时候(其实关闭xshell窗口 ...
- Linux上后台运行node和springboot服务
环境:Ubuntu18.04 阿里云云服务器 尝试全局安装forever和pm2均失败,最后以linux自带的nohub启动,以前同样用nohub启动springboot 命令: nohup npm ...
- [转帖]k8s 基本使用(上)
k8s 基本使用(上) https://www.jianshu.com/p/8d60ce1587e1 本文将介绍 k8s 中的一些最基本的命令,并辅以解释一些基本概念来方便理解,也就是说,本文是一篇偏 ...
- k8s集群启动了上万个容器(一个pod里放上百个容器,起百个pod就模拟出上万个容器)服务器超时,无法操作的解决办法
问题说明: 一个POD里放了百个容器,然后让K8S集群部署上百个POD,得到可运行上万个容器的实验目的. 实验环境:3台DELL裸机服务器,16核+64G,硬盘容量忽略吧,上T了,肯定够. 1.一开始 ...
随机推荐
- Java-如何挖取某个网站中的ajax请求信息
通常情况,通过网络爬虫挖取到的基本为网页静态内容,而动态ajax取数的内容是我个人暂时不知如何一次性把网站中的ajax获取 这里介绍的是某个网站中的某一个ajax多某个table刷新,期数据,并提供其 ...
- 【poj2226】 Muddy Fields
http://poj.org/problem?id=2226 (题目链接) 题意 给出一个只包含‘.’和‘*’的矩阵,用任意长度的宽为1的木板覆盖所有的‘*’而不覆盖‘.’,木板必须跟矩形的长或宽平行 ...
- POJ1089 Intervals
Description There is given the series of n closed intervals [ai; bi], where i=1,2,...,n. The sum of ...
- phpstudy2016最新版本mysql无法使用innodb的问题解决
这里顺便记录一下今天遇见的神奇问题,在使用官方最新版本的phpstudy中,其它组件一切正常,但是奇怪的发现mysql是无法开启innodb的,以下为最新的下载地址: http://www.phpst ...
- 学习使用Robot Framework自动化测试框架-web元素定位
转:http://blog.csdn.net/u012145166/article/details/50342569 1.name和id 其中使用到了name和id定位.但有时候由于开发人员的疏忽或者 ...
- linux性能监测与优化
top命令命令功能top命令可以实时动态地查看系统的整体运行情况,是一个综合了多方信息的监测系统性能和运行信息的实用工具.命令语法top(选项)选项说明-b:以批处理模式操作;-d:屏幕刷新间隔时间. ...
- CSS3系列二(媒体支持、文字与字体相关样式、盒相关样式)
CSS3媒体支持 在css3中允许我们在不改变内容的情况下,在样式中选择一种页面的布局以精确的适应不同的设备,从而改善用户体验 可以利用meta标签在页面中指定浏览器在处理本页面时按照多少像素的窗口宽 ...
- 为什么mvc里面的ModelState.IsValid一只都是true
http://zhidao.baidu.com/link?url=H69JQBpF8vbJEOUUc1RCjRZZ05gSGn6PiPL740aGgR3qIfFTT__pt4KgEg7O47lReYR ...
- js中初学函数的使用
<script> function SetColor(name,value) { var oDiv=document.getElementById('div3'); oDiv.style[ ...
- WGS84、Web墨卡托、火星坐标、百度坐标互转
转自:1.http://blog.csdn.net/wildboy2001/article/details/12031351 2.http://kongxz.com/2013/10/wgs-cgj/ ...