ElasticSearch6.0

ElasticSearch6.0安装

#依赖jdk8
rpm -ivh elasticsearch-6.0..rpm
vim /etc/elasticsearch/elasticsearch.yml #配置如下
node.name: es1
node.master: true
node.data: true
path.data: /home/es/data
path.logs: /home/es/logs
network.host: 192.168.55.215
http.port:
bootstrap.memory_lock: false #centos6需要
bootstrap.system_call_filter: false #centos6需要
##以下两项是head插件访问es需要配置
http.cors.enabled: true
http.cors.allow-origin: "*"
# 设置索引的分片数,默认为5
#index.number_of_shards:
# 设置索引的副本数,默认为1:
#index.number_of_replicas:
mkdir -p /home/es/{data,logs}
chown -R elasticsearch.elasticsearch /home/es
vim /etc/security/limits.conf #添加或修改以下内容
* hard nproc
* soft nproc
* hard nofile
* soft nofile
/etc/elasticsearch/jvm.options #更改启动内存,测试环境512M就可以了
-Xms1g
-Xmx1g
/etc/sysconfig/elasticsearch #启动脚本的一些环境变量例如 JAVA_HOME=/opt/java /etc/init.d/elasticsearch start #启动es

ElasticSearch配置文件详解

https://blog.csdn.net/zxf_668899/article/details/54582849

ElasticSearch6.0-head插件安装(界面查看es索引)

#网址:http://www.cnblogs.com/Onlywjy/p/Elasticsearch.html
#包D:\share\src\elk\elk6.\elasticsearch-head插件
.安装node
tar -C /opt/ -zxvf node-v4.4.7-linux-x64.tar.gz vim /etc/profile.d/node.sh #配置node环境变量
export NODE_HOME=/opt/node-v4.4.7-linux-x64
export PATH=$PATH:$NODE_HOME/bin
export NODE_PATH=$NODE_HOME/lib/node_modules
source /etc/profile.d/node.sh .安装grunt
unzip elasticsearch-head-master.zip
cd elasticsearch-head-master
npm install -g grunt-cli //执行后会生成node_modules文件夹 grunt -version #检查是否安装成功 修改head插件源码
修改服务器监听地址:Gruntfile.js #93行,默认端口号库9100
修改连接地址:_site/app.js #4354行,修改es连接地址,注意这个地址只能是外网地址,相对于访问head的机子 .运行head
在elasticsearch-head-master目录下
npm install #(安装下载下来的包,如果出错再执行一遍)
grunt server & #后台启动、netstat -lnp | grep
.访问http://xxx:9100 5.head使用(添加索引,往索引里写数据,修改索引数据,删除索引)
https://www.cnblogs.com/yanan7890/p/6640289.html

ElasticSearch6.0索引清理

curl -XGET 'http://192.168.55.219:9200/_cat/indices/?v'  #查询索引
curl -XDELETE 'http://127.0.0.1:9200/logstash-2016-07-*' #api删除索引 脚本加api删除(推荐)
vim /opt/sh/es-index-clear.sh #/bin/bash #指定日期(7天前)
DATA=`date -d "1 week ago" +%Y.%m.%d` #当前日期
time=`date` #删除7天前的日志
curl -XDELETE http://127.0.0.1:9200/*-${DATA} if [ $? -eq ];then
echo $time"-->del $DATA log success.." >> /tmp/es-index-clear.log
else
echo $time"-->del $DATA log fail.." >> /tmp/es-index-clear.log
fi
添加到任务计划
crontab -e
* * * sh /tmp/es-index-clear.sh > /dev/null >&

elasticSearch常用命令

原网址:https://zhaoyanblog.com/archives/732.html
curl 'localhost:9200/_cluster/health?pretty' 健康检查
curl 'localhost:9200/_cluster/state?pretty'    集群详细信息

curl -XPUT http://localhost:9200/user #添加索引
curl -H "Content-Type:application/json" -XPUT http://192.168.56.10:9200/user/ceshi/1/ -d '{"id":2,"name":"ceshi2","age":222}' #索引里写文档,user是索引,ceshi是索引类型,1是索引id
curl -XGET http://localhost:9200/user #查看索引内容

curl -XDELETE  http://localhost:9200/user #删除索引,支持通配符

elasticsearch集群

集群配置文件
#node-master
cluster.name: my_es
node.name: es1
node.master: true
node.data: false
path.data: /home/es/data
path.logs: /home/es/logs
network.host: 0.0.0.0
http.port:
http.cors.enabled: true #head连接需要(head连接到主)
http.cors.allow-origin: "*" #head连接需要(head连接到主)
discovery.zen.ping.unicast.hosts: ["192.168.56.10","192.168.56.11:9200","192.168.56.12:9200"] #node-data1
cluster.name: my_es
node.name: es2
node.master: false
node.data: true
path.data: /home/es/data
path.logs: /home/es/logs
network.host: 0.0.0.0
http.port:
discovery.zen.ping.unicast.hosts: ["192.168.56.10","192.168.56.11:9200","192.168.56.12:9200"] #node-data2
cluster.name: my_es
node.name: es3
node.master: false
node.data: true
path.data: /home/es/data
path.logs: /home/es/logs
network.host: 0.0.0.0
http.port:
discovery.zen.ping.unicast.hosts: ["192.168.56.10","192.168.56.11:9200","192.168.56.12:9200"] ##说明
页面登入head 带星的节点为master

安装kibana和使用

kibana安装

rpm -ivh kibana-6.0.-x86_64.rpm
vim /etc/kibana/kibana.yml
server.port:
server.host: 0.0.0.0
elasticsearch.url: "http://192.168.56.10:9200" #连接到主
logging.dest: /var/log/kibana/kibana.log
/etc/init.d/kibana start #默认端口5601 kibana6.0官方文档
https://www.elastic.co/guide/en/kibana/6.0/index.html

kibana添加索引

http://192.168.56.10:5601

1.

2.

kibana对索引内容搜索

1.

2.

logstash安装和使用例子

logstash安装

ln -sv /opt/apps/java/bin/java /usr/bin/
rpm -ivh logstash-6.0..rpm
目录结构:
/usr/share/logstash/bin
/var/lib/logstash
/var/log/logstash
注意这几个目录的用户和组必须是logstash
如果用root用户启动logstash后 需要把上面几个目录的用户和组修改下(chown -R logstash.logstash xxxx)
#生成启动脚本
、要跟startup.options文件的绝对路径,如果是rpm安装的在/etc/logstash/startup.options,如果是二进制包解压安装的则在解压目录下的config目录下面。 、必须要跟启动类型,比如CentOS6是sysv,CentOS7是systemd。(备注:sysv在centos7里也能用) 、执行脚本生成启动文件
/usr/share/logstash/bin/system-install /etc/logstash/startup.options sysv
、修改/etc/init.d/logstash
75行 >> /var/log/logstash/logstash-plain.log >> /var/log/logstash/logstash-plain.log
#更改日志目录权限
chown -R logstash.logstash /var/log/logstash #配置Logstash to elasticsearch文件
vim /etc/logstash/conf.d/log_to_es.conf
=========================================
input{
file{
path => "/var/log/messages"
start_position => "beginning"
type => "message"
}
}
output{
if [type] == "message" {
elasticsearch{
hosts => "192.168.56.10:9200"
#hosts => ["10.10.1.90:9200","10.10.1.60:9200"] #多node data 就里配置的是node data,不要配置node master
                  index => "message-%{+YYYY-MM}"
#index => "message-%{+YYYY-MM-dd}"
}
}
}
========================================

#更改/var/log/messages权限
chmod 644 /var/log/messages

#检查配置文件有没有错误
/usr/share/logstash/bin/logstash --path.settings /etc/logstash/ -f /etc/logstash/conf.d/log_to_es.conf --config.test_and_exit
#启动
/etc/init.d/logstash start
#检查启动是否成功
netstat -lnp | grep 或查看日志 tail -f /var/log/logstash/logstash-plain.log

elk+kafka+zookeeper+filebeat安装的更多相关文章

  1. Kafka+Zookeeper+Filebeat+ELK 搭建日志收集系统

    ELK ELK目前主流的一种日志系统,过多的就不多介绍了 Filebeat收集日志,将收集的日志输出到kafka,避免网络问题丢失信息 kafka接收到日志消息后直接消费到Logstash Logst ...

  2. ELK5.2+kafka+zookeeper+filebeat集群部署

    架构图 考虑到日志系统的可扩展性以及目前的资源(部分功能复用),整个ELK架构如下: 架构解读 : (整个架构从左到右,总共分为5层) 第一层.数据采集层 最左边的是业务服务器集群,上面安装了file ...

  3. ELK+Filebeat+Kafka+ZooKeeper 构建海量日志分析平台(elk5.2+filebeat2.11)

    ELK+Filebeat+Kafka+ZooKeeper 构建海量日志分析平台 参考:http://www.tuicool.com/articles/R77fieA 我在做ELK日志平台开始之初选择为 ...

  4. ELK+Filebeat+Kafka+ZooKeeper 构建海量日志分析平台

    日志分析平台,架构图如下: 架构解读 : (整个架构从左到右,总共分为5层) 第一层.数据采集层 最左边的是业务服务器集群,上面安装了filebeat做日志采集,同时把采集的日志分别发送给两个logs ...

  5. ELK + Kafka + Filebeat

    ELK + Kafka + Filebeat学习 https://blog.csdn.net/qq_21383435/article/details/79463832 https://blog.csd ...

  6. ELK+KAFKA安装部署指南

    一.ELK 背景 通常,日志被分散的储存不同的设备上.如果你管理数十上百台服务器,你还在使用依次登录每台机器的传统方法查阅日志.这样是不是感觉很繁琐和效率低下.当务之急我们使用集中化的日志管理,例如: ...

  7. zookeeper+kafka集群安装之二

    zookeeper+kafka集群安装之二 此为上一篇文章的续篇, kafka安装需要依赖zookeeper, 本文与上一篇文章都是真正分布式安装配置, 可以直接用于生产环境. zookeeper安装 ...

  8. zookeeper+kafka集群安装之一

    zookeeper+kafka集群安装之一 准备3台虚拟机, 系统是RHEL64服务版. 1) 每台机器配置如下: $ cat /etc/hosts ... # zookeeper hostnames ...

  9. ELK 架构之 Logstash 和 Filebeat 安装配置

    上一篇:ELK 架构之 Elasticsearch 和 Kibana 安装配置 阅读目录: 1. 环境准备 2. 安装 Logstash 3. 配置 Logstash 4. Logstash 采集的日 ...

随机推荐

  1. prometheus linux系统告警规则 实例

    #prometheus linux系统告警规则 实例 #根据实际情况修改参数 #rules.linux.yml groups: - name: linux rules: - alert: Node-D ...

  2. IDEA开发环境设置

    IDEA开发环境设置 1.关闭自动更新 IntelliJ IDEA默认会自动进行版本的更新,在网络异常时经常会导致各种各样的问题,因此强烈建议关闭自动更新. File->Settings 2.隐 ...

  3. Js基本类型中常用的方法总结

    1.数组 push() -----> 向数组末尾添加新的数组项,参数为要添加的项,返回值是新数组的长度,原数组改变: pop() -----> 删除数组末尾的最后一项,参数无,返回值是删除 ...

  4. SSM框架—Spring+SpringMVC+MyBatis

    1.环境搭建 1.1概念 Spring是一个Java应用的开源框架,Bean/Context/Core/IOC/AOP/MVC等是其重要组件,IOC控制反转,AOP面向切面编程,各种注入方式,实现方式 ...

  5. OSI模型——传输层

    OSI模型——传输层 运输层 运输层概述 运输层提供应用层端到端通信服务,通俗的讲,两个主机通讯,也就是应用层上的进程之间的通信,也就是转换为进程和进程之间的通信了,我们之前学到网络层,IP协议能将分 ...

  6. pip源地址

    pip国内的一些镜像   阿里云 http://mirrors.aliyun.com/pypi/simple/   中国科技大学 https://pypi.mirrors.ustc.edu.cn/si ...

  7. springboot多数据源&动态数据源(主从)

    多数据源 使用Spring Boot时,默认情况下,配置DataSource非常容易.Spring Boot会自动为我们配置好一个DataSource. 如果在application.yml中指定了s ...

  8. mysql中explain输出列之id的用法详解

    参考mysql5.7 en manual,对列id的解释: The SELECT identifier. This is the sequential number of the SELECT wit ...

  9. vue-fiters过滤器的使用

    1.定义过滤器 2.使用过滤器 ...... <el-table-column prop="user_gender" align="center" lab ...

  10. 命令行运行python -m http.server报错

    最近在学习网站搭建,借助python搭建服务器时,在网站目录启动python服务时报错,如下: UnicodeDecodeError: 'utf-8' codec can't decode byte ...