Logstash安装

一、上传解压重命名

将Logstash压缩包上传到/home/下解压压缩包并重命名

[root@localhost home] tar -zxf logstash-7.15.0-linux-x86_64.tar.gz
[root@localhost home] mv logstash-7.15.0 logstash

二、生成SSL证书文件

进入ES安装根目录下

[root@localhost] cd /home/elasticsearch

生成logstash 客户端证书

[root@localhost elasticsearch] ./bin/elasticsearch-certutil cert --ca elastic-stack-ca.p12 --name logstash --pem --out logstash.zip

解压logstash.zip当没有这个命令时,执行yum install unzip -y 安装zip工具

[root@localhost elasticsearch] unzip logstash.zip

进入logstash中执行一下命令logstash 需要生成一个p8文件

[root@localhost elasticsearch] cd logstash
[root@localhost logstash] openssl pkcs8 -in logstash.key -topk8 -nocrypt -out logstash.p8
[root@localhost logstash] ls
logstash.crt logstash.key logstash.p8

拷贝CA公钥文件到当前目录

[root@localhost logstash]# cp ../ca.pem ./

返回上一级目录,并拷贝logstash目录到logstash目录下

[root@localhost logstash] cd ..
[root@localhost elasticsearch] cp -r logstash /home/logstash/

三、修改配置文件

进入logstash/config根目录修改配置文件 logstash.yml

[root@localhost config] vi logstash.yml
# 修改host
http.host: 0.0.0.0
# 开启监控
xpack.monitoring.enabled: true
# 配置ES地址 请注意协议是https
xpack.monitoring.elasticsearch.hosts: ["https://127.0.0.1:9200"]
xpack.monitoring.elasticsearch.ssl.verification_mode: none
# 证书路径
xpack.monitoring.elasticsearch.ssl.certificate_authority: "/opt/logstash/logstash/ca.pem"
xpack.monitoring.elasticsearch.sniffing: false
# es账号
xpack.monitoring.elasticsearch.username: elastic
# es密码
xpack.monitoring.elasticsearch.password: P8nhGN121I4VT0LMVwIT

修改解析配置文件名称

[root@localhost config] mv logstash-sample.conf logstash.conf

使用root用户启动服务

[root@localhost logstash] cd ../bin
[root@localhost bin] ./logstash -f ../config/logstash.conf --config.reload.automatic
#或 后台运行
[root@localhost bin] nohup ./logstash -f ../config/logstash.conf --config.reload.automatic &

四、测试验证

测试是否启动成功

[root@localhost ~] curl http://127.0.0.1:9600
{"host":"localhost.localdomain","version":"7.15.0","http_address":"0.0.0.0:9600","id":"0ce2b441-6a31-4b38-8868-018b06178f54","name":"localhost.localdomain","ephemeral_id":"4801a1e2-832d-4b95-8a63-0964623dafec","status":"green","snapshot":false,"pipeline":{"workers":1,"batch_size":125,"batch_delay":50},"monitoring":{"hosts":["http://127.0.0.1:9200"],"username":"logstash_system"},"build_date":"2021-09-16T01:56:12Z","build_sha":"fd0927b95e580d5178256fb6adb6b79a1af3345b","build_snapshot":false}

注意事项

  1. http协议端口 9600
  2. beat默认端口 5044 (采集使用)
  3. syslog tcp udp 默认端口 514 (采集Linux系统日志)

完整配置文件

# 工作管道(性能优化配置)=CPU核数
pipeline.workers: 4
# 批处理(性能优化配置)
pipeline.batch.size: 1000
# 响应时间(性能优化配置)
pipeline.batch.delay: 10 # 绑定IP地址
http.host: "0.0.0.0"
# 开启监控
xpack.monitoring.enabled: true
xpack.monitoring.elasticsearch.username: elastic
xpack.monitoring.elasticsearch.password: 53Am18Spax2dkjIW4GeC
xpack.monitoring.elasticsearch.hosts: ["https://127.0.0.1:9200"]
xpack.monitoring.elasticsearch.ssl.verification_mode: none
xpack.monitoring.elasticsearch.ssl.certificate_authority: "/home/logstash/config/certs/ca.pem"
xpack.monitoring.elasticsearch.sniffing: false

logstash秘钥库

ES_PWD 密码 key ,ES_ACCESS 账号key

创建密码库

bin/logstash-keystore create

添加密钥key,过程中需要输入对应的密码

bin/logstash-keystore add ES_PWD

查看key 列表

bin/logstash-keystore list

删除 key

bin/logstash-keystore remove ES_PWD

设置密码

set +o history
export LOGSTASH_KEYSTORE_PASS=123456
set -o history

替换明文密码

xpack.monitoring.elasticsearch.username: ${ES_ACCESS}
xpack.monitoring.elasticsearch.password: ${ES_PWD}

Linux安装Logstash的更多相关文章

  1. 安装Logstash到linux(源码)

    运行环境 系统版本:CentOS Linux release 7.3.1611 (Core) 软件版本:logstash-7.1.0 硬件要求:最低2核4GB 安装过程 1.源码安装JDK 1.1.从 ...

  2. 【事件中心 Azure Event Hub】在Linux环境中(Ubuntu)安装Logstash的简易步骤及配置连接到Event Hub

    在文章([事件中心 Azure Event Hub]使用Logstash消费EventHub中的event时遇见的几种异常(TimeoutException, ReceiverDisconnected ...

  3. Linux安装redis logstash

    一.安装redis tar -zxvf redis-3.2.8.tar.gz cd redis-3.2.8 make  && make install PREFIX=/usr/loca ...

  4. ELK——安装 logstash 2.2.0、elasticsearch 2.2.0 和 Kibana 3.0

    本文内容 Elasticsearch logstash Kibana 参考资料 本文介绍安装 logstash 2.2.0 和 elasticsearch 2.2.0,操作系统环境版本是 CentOS ...

  5. 安装Logstash

    安装Logstash: Logstash 需要 Java 7或者以后版本,使用官方的Oracle发布或者一个开源发布版本比如OpenJDK 检查Java 版本,运行下面的命令: zjtest7-fro ...

  6. 搜狗输入法linux安装 以及 12个依赖包下载链接分享

    搜狗输入法linux安装版,先安装各种依赖包,大概12个依赖,可能中途还需要其他依赖,可以效仿解决依赖问题.如图这12个文件要是手动点击下载,那也太笨点了,我们要用shell命令批量下载.命令如下:w ...

  7. linux安装php

    接上篇:linux安装apache 一.安装php 先安装libxml2库 [root@ctxsdhy package]# yum -y install libxml2-devel 最新地址在:htt ...

  8. linux安装oracle11g

    准备oracle安装文件 Oracle11gR2包含两个文件linux_11gR2_database_1of2.zip和linux_11gR2_database_2of2.zip,将这两个文件通过SS ...

  9. TODO:Linux安装PHP MongoDB驱动

    TODO:Linux安装PHP MongoDB驱动 PHP利于学习,使用广泛,主要适用于Web开发领域. MongoDB的主要目标是在键/值存储方式(提供了高性能和高度伸缩性)以及传统的RDBMS系统 ...

  10. Symantec Backup Exec 2010 Agent For Linux安装

    以前写过一篇文章介绍过Symantec Backup Exec 2012 Agent For Linux安装安装,今天介绍一下Symantec Backup Exec 2010 Agent For L ...

随机推荐

  1. C++调用Python-2:调用Python函数,返回数字

    # mytest.py def hello(): print("this is test python print hello world") return 123 #includ ...

  2. 使用yum安装unixODBC时报错怎么办

    使用 yum 安装 unixODBC 时报错怎么办 背景介绍 在使用 yum 安装 unixODBC 时,上报如下错误: [root@mc0-0002 odbc_connection]# yum in ...

  3. Luogu P3007 奶牛议会

    观前须知 本题解使用 CC BY-NC-SA 4.0 许可. 同步发布于 Luogu 题解区. 更好的观看体验 请点这里. 笔者的博客主页 正文 Luogu P3007 [USACO11JAN] Th ...

  4. JDK 19新特性 & JDK 多版本安装切换配置

    新的JDK 19包含如下7个新的特性: 转自:JDK19中比较重要的新特性-电子发烧友网 JEP 405: Record Patterns(Record模式) JEP 422: Linux/RISC- ...

  5. CentOS 编译安装golang

    一.下载go wget https://studygolang.com/dl/golang/go1.16.4.linux-amd64.tar.gz 二.解压到指定目录 tar -xvf go1.16. ...

  6. CentOS 防火墙配置实战精要

    防火墙是服务器最重要的安全屏障,正确的操作对应用也是非常非常关键,本文参考了一些实战经验并经过实验验证,集众家之长做了简单的归纳整理,希望能帮助你更好地操作防火墙. 设置CentOS防火墙开放端口 在 ...

  7. leetcode第 181 场周赛

    5364. 按既定顺序创建目标数组 给你两个整数数组 nums 和 index.你需要按照以下规则创建目标数组: 目标数组 target 最初为空. 按从左到右的顺序依次读取 nums[i] 和 in ...

  8. 力扣901(java&python)-股票价额跨度(中等)

    题目: 编写一个 StockSpanner 类,它收集某些股票的每日报价,并返回该股票当日价格的跨度. 今天股票价格的跨度被定义为股票价格小于或等于今天价格的最大连续日数(从今天开始往回数,包括今天) ...

  9. 最佳实践|从Producer 到 Consumer,如何有效监控 Kafka

    简介: 对于运维人而言,如何安装维护一套监控系统,或如何进行技术选型,从来不是工作重点.如何借助工具对所需的应用.组件进行监控,发现并解决问题才是重中之重.随着 Prometheus 逐渐成为云原生时 ...

  10. 基于Confluent+Flink的实时数据分析最佳实践

    简介:在实际业务使用中,需要经常实时做一些数据分析,包括实时PV和UV展示,实时销售数据,实时店铺UV以及实时推荐系统等,基于此类需求,Confluent+实时计算Flink版是一个高效的方案. 业务 ...