阅读 118

详解利用ELK搭建Docker容器化应用日志中心

这篇文章主要介绍了详解利用ELK搭建Docker容器化应用日志中心,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧

概述

应用一旦容器化以后,需要考虑的就是如何采集位于Docker容器中的应用程序的打印日志供运维分析。典型的比如SpringBoot应用的日志 收集。本文即将阐述如何利用ELK日志中心来收集容器化应用程序所产生的日志,并且可以用可视化的方式对日志进行查询与分析,其架构如下图所示:

架构图

镜像准备

镜像准备

  1. ElasticSearch镜像

  2. Logstash镜像

  3. Kibana镜像

  4. Nginx镜像(作为容器化应用来生产日志)

开启Linux系统Rsyslog服务

修改Rsyslog服务配置文件:

1
vim /etc/rsyslog.conf

开启下面三个参数:

1
2
3
4
$ModLoad imtcp
$InputTCPServerRun 514
 
*.* @@localhost:4560

开启3个参数

意图很简单:让Rsyslog加载imtcp模块并监听514端口,然后将Rsyslog中收集的数据转发到本地4560端口!

然后重启Rsyslog服务:

1
systemctl restart rsyslog

查看rsyslog启动状态:

1
netstat -tnl

部署ElasticSearch服务

1
2
3
docker run -d -p 9200:9200 \
 -v ~/elasticsearch/data:/usr/share/elasticsearch/data \
 --name elasticsearch elasticsearch

ES启动成功效果

部署Logstash服务

添加 ~/logstash/logstash.conf 配置文件如下:

1
2
3
4
5
6
7
8
9
10
11
12
input {
 syslog {
 type => "rsyslog"
 port => 4560
 }
}
 
output {
 elasticsearch {
 hosts => [ "elasticsearch:9200" ]
 }
}

配置中我们让Logstash从本地的Rsyslog服务中取出应用日志数据,然后转发到ElasticSearch数据库中!

配置完成以后,可以通过如下命令来启动Logstash容器:

1
2
3
4
5
docker run -d -p 4560:4560 \
-v ~/logstash/logstash.conf:/etc/logstash.conf \
--link elasticsearch:elasticsearch \
--name logstash logstash \
logstash -f /etc/logstash.conf

部署Kibana服务

1
2
3
4
docker run -d -p 5601:5601 \
--link elasticsearch:elasticsearch \
-e ELASTICSEARCH_URL=http://elasticsearch:9200 \
--name kibana kibana

启动nginx容器来生产日志

1
2
3
docker run -d -p 90:80 --log-driver syslog --log-opt \
syslog-address=tcp://localhost:514 \
--log-opt tag="nginx" --name nginx nginx

很明显Docker容器中的Nginx应用日志转发到本地syslog服务中,然后由syslog服务将数据转给Logstash进行收集。

至此,日志中心搭建完毕,目前一共四个容器在工作:

实验验证

浏览器打开 localhost:90 来打开Nginx界面,并刷新几次,让后台产生GET请求的日志

打开Kibana可视化界面: localhost:5601

localhost:5601

收集Nginx应用日志

收集Nginx应用日志

查询应用日志

在查询框中输入 program=nginx 可查询出特定日志

查询应用日志

以上就是本文的全部内容,希望对大家的学习有所帮助



文章分类
后端
版权声明:本站是系统测试站点,无实际运营。本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 XXXXXXo@163.com 举报,一经查实,本站将立刻删除。
相关推荐