ELK简介
ELK 是三个开源软件的缩写,分别为:Elasticsearch、Logstash 以及 Kibana,它们都是开源软件。不过现在还新增了一个 Beats,它是一个轻量级的日志收集处理工具(Agent),Beats 占用资源少,适合于在各个服务器上搜集日志后传输给 Logstash,官方也推荐此工具,目前由于原本的 ELK Stack 成员中加入了 Beats 工具所以已改名为 Elastic Stack。
根据 Google Trend 的信息显示,Elastic Stack 已经成为目前最流行的集中式日志解决方案。
Elastic Stack 包含:
- Elasticsearch 是个开源分布式搜索引擎,提供搜集、分析、存储数据三大功能。它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful 风格接口,多数据源,自动搜索负载等。
- Logstash 主要是用来日志的搜集、分析、过滤日志的工具,支持大量的数据获取方式。一般工作方式为 c/s 架构,client 端安装在需要收集日志的主机上,server 端负责将收到的各节点日志进行过滤、修改等操作在一并发往 Elasticsearch 上去。
- Kibana 也是一个开源和免费的工具,Kibana 可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助汇总、分析和搜索重要数据日志。
- Beats 在这里是一个轻量级日志采集器,其实 Beats 家族有 6 个成员,早期的 ELK 架构中使用 Logstash 收集、解析日志,但是 Logstash 对内存、cpu、io 等资源消耗比较高。相比 Logstash,Beats 所占系统的 CPU 和内存几乎可以忽略不计。
ELK Stack (5.0版本之后)--> Elastic Stack == (ELK Stack + Beats)。
目前 Beats 包含六种工具:
- Packetbeat: 网络数据(收集网络流量数据)
- Metricbeat: 指标(收集系统、进程和文件系统级别的 CPU 和内存使用情况等数据)
- Filebeat: 日志文件(收集文件数据)
- Winlogbeat: windows 事件日志(收集 Windows 事件日志数据)
- Auditbeat:审计数据(收集审计日志)
- Heartbeat:运行时间监控(收集系统运行时的数据)
ELK 简单架构图:
ElasticSearch:(存储数据信息,搜索组件)
由于elasticsearch是用Java语言编写的需要跑在Java虚拟机上,所以在安装elasticsearch之前需要安装Java的JDK包。版本至少要在1.80版本上的包。
#yum install java-1.8.0-openjdk-devel
官方软件下载:https://www.elastic.co/products
如果需要下载以前的版本点击下面。
ElasticSearch 5的程序环境
配置文件:
/etc/elasticsearch/elasticsearch.yml/etc/elasticsearch/jvm.options/etc/elasticsearch/log4j2.propertiesUnit File:elasticsearch.service
程序文件:
/usr/share/elasticsearch/bin/elasticsearch/usr/share/elasticsearch/bin/elasticsearch-keystore:/usr/share/elasticsearch/bin/elasticsearch-plugin:管理插件程序
下载安装elasticsearch
#wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.6.10.rpm #下载rpm的包#yum install java-1.8.0-openjdk-devel #安装JDK的包#rpm -ivh elasticsearch-5.6.10.rpm #将下载下来的包安装,由于此包没有依赖所以使用rpm安装就可以#systemctl start elasticsearch #启动服务#/etc/elasticsearch/elasticsearch.ym #修改配置文件测试使用,主要设置网络:network.host: 192.168.130.7 #本机Iphttp.port: 9200 #监听端口 #vim /etc/elasticsearch/jvm.options -Xms1g #虚拟机内存 -Xmx1g# curl http://192.168.130.7:9200/ 测试
安装插件
使用git安装elasticsearch-head # yum install -y npm # git clone git://github.com/mobz/elasticsearch-head.git # cd elasticsearch-head # npm install # npm run start 检查端口是否起来 netstat -antp |grep 9100 浏览器访问测试是否正常 http://IP:9100/
实验:实现两个elasticsearch节点
nod01:(192.168.130.7)
#vim /etc/hostname #修改主机名node1#vim /etc/hosts #解析DNS192.168.130.7 node1#yum install java-1.8.0-openjdk-devel #安装JDK的包#rpm -ivh elasticsearch-5.6.10.rpm #将下载下来的包安装,由于此包没有依赖所以使用rpm安装就可以systemctl daemon-reload #包装好后执行此命令vim /etc/elasticsearch/jvm.options #修改配置文件;jdk的配置文件-Xms1g-Xmx1g #占用内存设置选项,两个的值必须设为相同vim /etc/elasticsearch/elasticsearch.yml #修改主配置文件cluster.name: myelssss #设定是否在同一个集群的标识;可自定义名称node.name:node1 #当前节点的IP地址,此处做了dns解析可以用做节点的名称#node.attr.rack: r1 (节点处于哪个机架上的设置,系统会识别机架,不将数据的主切片和从切片放到同一个机架上,本实验中不需要设置)path.data: /data/myels #数据存放的路径;可以自定义,或者将目录挂载到存储设备上path.logs: /data/logs #日志存放的路径network.host: 192.168.130.7 #当前主机的IP地址http.port: 9200 #启用端口号discovery.zen.ping.unicast.hosts: [“192.168.130.7″,http.port: 9200″192.168.130.8”] #定义集群的成员discovery.zen.minimum_master_nodes: 2#mkdir /data/myels#mkdir /data/logs #创建存放数据和日志的文件夹#chown elasticsearch: /data/* #将刚创建的文件夹的属主和数组都改为elasticsearch所有#systemctl start elasticsearch #启动服务
nod02:(192.168.130.8)
#vim /etc/hostname #修改主机名node2#vim /etc/hosts #解析DNS192.168.130.8 node2#yum install java-1.8.0-openjdk-devel #安装JDK的包#rpm -ivh elasticsearch-5.6.10.rpm #将下载下来的包安装,由于此包没有依赖所以使用rpm安装就可以systemctl daemon-reload #包装好后执行此命令vim /etc/elasticsearch/jvm.options #修改配置文件;jdk的配置文件-Xms1g-Xmx1g #占用内存设置选项,两个的值必须设为相同vim /etc/elasticsearch/elasticsearch.yml #修改主配置文件cluster.name: myelssss #设定是否在同一个集群的标识;可自定义名称node.name:node1 #当前节点的IP地址,此处做了dns解析可以用做节点的名称#node.attr.rack: r1 (节点处于哪个机架上的设置,系统会识别机架,不将数据的主切片和从切片放到同一个机架上,本实验中不需要设置)path.data: /data/myels #数据存放的路径;可以自定义,或者将目录挂载到存储设备上path.logs: /data/logs #日志存放的路径network.host: 192.168.130.8 #当前主机的IP地址http.port: 9200 #启用端口号discovery.zen.ping.unicast.hosts: [“192.168.130.8″,http.port: 9200″192.168.130.7”] #定义集群的成员discovery.zen.minimum_master_nodes: 2#mkdir /data/myels#mkdir /data/logs #创建存放数据和日志的文件夹#chown elasticsearch: /data/* #将刚创建的文件夹的属主和数组都改为elasticsearch所有#systemctl start elasticsearch #启动服务
下载并安装Logstach(高度插件化服务程序)
官网:https://www.elastic.co/products/logstash
集中,转换,存储
高度插件化程序
三类核心插件:输入插件(指定数据源抽取数据),过滤器插件,输出插件(处理后的结果保留到不同位置)
多个logstash从本地日志文件中收集日志-->可在此添加消息队列-->发送到logstash server(过滤器插件过滤)-->elasticsearch
三类插件
- (获取数据)
- (保存数据位置)
- (不同数据加工功能)
- Grok filter plugin(非文档转换为文档格式,日志就不是K/V键值对格式)
# yum install java-1.8.0-openjdk-devel #下载JDK# wget https://artifacts.elastic.co/downloads/logstash/logstash-5.6.8.rpm #下载相关包# rpm -ivh logstash-5.6.8.rpm #安装logstash/usr/share/logstash默认路径#vim /etc/profile.d/logstash.sh #路径加载到系统环境搜索变量中export PATH=/usr/share/logstash/bin :$PATH#exec bash #重行启动bash#logstash --help #启动很慢#cd /etc/logstash#vim /conf.d/test1.conf #编辑测试配置文件,输入什么输出什么input { stdin{}}output { stdout{ }}#logstash -f test.conf -t #指定配置文件并检查#logstash -f test.conf #启动
kibana下载安装
自我独立的web服务器
默认监听端口:5600
工作与http协议
搜索,数据聚合
图形界面展示
# wget ftp://172.20.0.1/pub/Sources/7.x86_64/elasticstack/kibana-5.6.8-x86_64.rpm #下载相关包# rpm -ivh kibana-5.6.8-x86_64.rpm #安装kibana# cd /etc/kibana//etc/kibana]# lskibana.yml/etc/kibana]# vim kibana.yml #修改配置文件server.port: 5601 #监听于5601server.host: "0.0.0.0" #监听本机所有地址elasticsearch.url: "http://172.20.81.7:9200" #elasticsearch所在主机 http://172.20.81.81:5601进入图形界面配置 页面使用:Discover 可视化:Visualize 面板:Dashboard
filebeat
rides在中间做消息队列