前言

    为满足研发可视化查看测试环境日志的目的,准备采用EK+filebeat实现日志可视化(ElasticSearch+Kibana+Filebeat)。题目为“十分钟搭建和使用ELK日志分析系统”听起来有点唬人,其实如果单纯满足可视化要求,并且各软件都已经下载到本地,十分钟是可以搭建一个ELK系统的。本文介绍如何快速安装、配置、使用EK+FILEBEAT去实现日志搜集。本文中没有使用LOGSTASH做日志搜集过滤,但为了后期需要先进行了安装。

工作原理

ElasticSearch:是一个开源的分布式搜索引擎,其特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,Rest风格接口,多数据源,自动搜索负载等。
Logstash:是一个开源的日志收集和分析工具,能够将日志进行分析后,提供给ElasticSearch进行使用。
Kibana:可以为ElasticSearch和Logstash提供一个进行日志分析的友好Web界面,帮助汇总、分析、搜索重要日志。
Filebeat:是一个开源的文件收集器,最初是基于Logstash-forward源码的日志数据shipper,适合用于日志文件的收集。把Filebeat安装在服务器上,作为代理来监视日志目录或特定的日志文件,然后把日志数据转发到Logstash中进行分析,或者是直接转发到ElasticSearch中进行搜索。

 

 

环境信息

IP 功能 软件 安装路径 操作系统
192.168.9.11 ELK openjdk1.8.0_171,elk6.3.2 rpm安装缺省路径 centos7.5
192.168.9.12 Filebeat sonarqube-scanner3.2.0 rpm安装缺省路径 centos6.8

 

 

 

 ELK下载地址:https://www.elastic.co/downloads/

搭建步骤

 1.系统基础环境的准备

  1. #修改vm限制
  2. vi /etc/sysctl.conf
  3. vm.max_map_count=655360
  4. !wq 保存退出
  5. sysctl -p
  6. #修改文件和线程限制
  7. vi /etc/security/limits.conf
  8. * hard nofile 65536
  9. * soft nofile 65536
  10. * soft nproc 2048
  11. * hard nproc 4096
  12. #修改非root用户线程限制
  13. vi /etc/security/limits.d/20-nproc.conf #(修改soft行,新增hard行)
  14. * soft nproc 65535

2.JDK及ELK的安装

  1. #安装jdk
  2. yum install java-1.8.0-openjdk -y
  3. #进入rpm包所在路径,进行安装
  4. cd /usr/local/src
  5. rpm -ivh elasticsearch-6.3.2.rpm
  6. rpm -ivh logstash-6.3.2.rpm
  7. rpm -ivh kibana-6.3.2-x86_64.rpm

3.配置文件配置(注意以上ELK安装完后现不要重启,先进行基本配置)

  1. #elasticsearch配置
  2. vim /etc/elasticsearch/elasticsearch.yml
  3. network.host: 0.0.0.0 #修改为0.0.0.0 允许外部所有主机访问
  4. #kib
  5. vim /etc/kibana/kibana.yml
  6. server.host: "192.168.9.11" #修改为本机IP,否则外部用户将无法访问

4.服务启动及验证

  1. #启动 elasticsearch
  2. service elasticsearch start
  3. #启动kibana
  4. service kibana start

在浏览器中打开http://192.168.9.11:9200 验证elasticsearch是否启动,当看到如下信息,说明已正常启动。

打开http://192.168.9.26:5601验证已kibana启动情况,当看到如下界面说明已启动(启动后要等待10秒左右至完全启动完成)

 

5.filebeat的安装及配置及启动(在日志被搜集服务器上进行)

  1. #安装filebeat
  2. cd /usr/local/src
  3. rpm -ivh filebeat-6.3.2-x86_64.rpm
  4. #配置filebeat,这里搜集tomcat及Node日志,通过tags进行区分
  5. filebeat.inputs:
  6. - type: log
  7. enabled: true
  8. paths:
  9. - /usr/local/tomcat/logs/catalina.out
  10. tags: ["saas_server"]
  11. - type: log
  12. enabled: true
  13. paths:
  14. - /usr/local/nodejs/workspace/saas_web/logs/saas-web*
  15. tags: ["saas_web"]
  16. output.elasticsearch:
  17. # Array of hosts to connect to.
  18. hosts: ["192.168.9.11:9200"]

    #filebeat启动
    service filebeat start

 

以上ELK+Filebeat安装完成后,就可以在Kinaba上进行配置使用了,首次使用先在“discover”处进行采集器添加,添加关键字为filebeat-*,(若是logstash则默认为logstash*),添加完成后就可以看到搜集到的日志。如下图:

 

如上日志已经被搜集到elasticsearch中,并通过kibana呈现,另外还可以通过点击tags,分类查看Tomcat或node的日志,如上filebeat中已经通过tags进行了分类,至此在十分钟内日志系统已经搭建完毕。这仅仅是一个满足可视化的简单应用,若日志量大、需要权限认证、需要过滤等插件的复杂功能,就需要建立集群、增加缓冲、采用X-PACK,安装对应插件等。

可参考博客:https://www.cnblogs.com/frankdeng/p/9139035.html#4028638 和官方文档。

 

版权声明:本文为fishbook原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/fishbook/p/9370089.html