启动
#bin/logstash -f logstash.conf
ElasticSearch安装配置
安装
#wget https://download.elasticsearch.org/elasticsearch/release/org/elasticsearch/distribution/tar/elasticsearch/2.2.0/elasticsearch-2.2.0.tar.gz
#tar zxvf elasticsearch-2.2.0.tar.gz
配置
在配置文件中添加如下配置: ( elasticsearch-2.2.0/config/elasticsearch.yml)
#cluster.name: elk
#node.name: node-2
#network.host: 192.168.24.122
#discovery.zen.ping.unicast.hosts: ["192.168.24.122", "192.168.6.142"]
启动
#bin/elasticsearch -d
kibana安装配置
安装
下载并解压完成安装:
#wget https://download.elastic.co/kibana/kibana/kibana-4.4.1-linux-x64.tar.gz
#tar zxvf kibana-4.4.1-linux-64.tar.gz
配置
配置文件制定elasticsearch的url即可(kibana-4.4.1/config/kibana.yml)如下图:
启动
#bin/kibana
启动后即可访问http://xxx.xxx.xxx.xxx:5601
Collectl
collectl不同于collectd,它可以直接给出系统总体运行状态。
我在使用collectd时,感觉这东西是挺强大的,支持的插件类型非常多。并且有logstash插件类型支持输入。但同时也有一个问题:为了兼容性他将数据拆分了:
上报的会按照cpu个数生成数据,且每个字段会分别当做一条数据插入。简单说就是它会将一条数据拆分开。同一时刻一台服务器产生的cpu相关数据是64条(8核cpu)。
如果直接使用kibana来统计展现,统计cpu使用率就要就会非常头疼了。
如果使用collectl做采集就比较简单了,这里做一下简单介绍: