PS:以下两种方式涉及kibana的web展示,所以在配置web输出后,需要进行的操作是creat动作,具体看kibana部署中的示例
2.shell端输入 web端展示然后我们创建Logstash配置文件,并再次测试Logstash服务是否正常,预期可以将输入内容以结构化的日志形式打印在界面上(这里我们配置了Logstash作为索引器,将日志数据传送到elasticsearch中)
mkdir config
vim config/hello_search.conf
填写如下内容:
input { stdin { } } output { elasticsearch { hosts => "localhost" } stdout { codec => rubydebug } }bin/logstash -f config/hello_search.conf
再次测试执行的效果:
thinkgamer@thinkgamer-pc:/opt/elk/logstash-2.4.0$ bin/logstash agent -f config/hello_search.conf Picked up _JAVA_OPTIONS: -Dawt.useSystemAAFontSettings=gasp Settings: Default pipeline workers: 4 Pipeline main started sdf [2016-09-25 13:28:21,997][INFO ][cluster.metadata ] [Arcademan] [logstash-2016.09.25] creating index, cause [auto(bulk api)], templates [logstash], shards [5]/[1], mappings [_default_] [2016-09-25 13:28:22,758][INFO ][cluster.routing.allocation] [Arcademan] Cluster health status changed from [RED] to [YELLOW] (reason: [shards started [[logstash-2016.09.25][4]] ...]). [2016-09-25 13:28:22,993][INFO ][cluster.metadata ] [Arcademan] [logstash-2016.09.25] create_mapping [logs] { "message" => "sdf", "@version" => "1", "@timestamp" => "2016-09-25T05:28:21.161Z", "host" => "thinkgamer-pc" } 受到方式 { "message" => "受到方", "@version" => "1", "@timestamp" => "2016-09-25T05:28:30.998Z", "host" => "thinkgamer-pc" } 我爱你 { "message" => "我爱你", "@version" => "1", "@timestamp" => "2016-09-25T05:28:58.399Z", "host" => "thinkgamer-pc" }我们可以在Elastic的web界面上看到
在/opt/elk/testlog 下有两个文件,分别是access.log 和error.log,我们通过echo往这两个文件追加内容,来测试整个日志收集系统是否可行
vim /opt/elk/logstash-2.4.0/config/hello_search.conf input { file { type =>"syslog" path => ["/opt/elk/auth.log" ] } syslog { type =>"syslog" port =>"5544" } } output { stdout { codec=> rubydebug } elasticsearch {hosts => "localhost"} }启动
bin/logstash -f config/hello_search.conf
这里需要再次打开:5601/ 进行create
测试效果
echo 9 >> auth.log Kibana部署解压到指定目录/opt/
tar -zxvf /home/thinkgamer/下载/ELK/kibana-4.6.1-linux-x86_64.tar.gz -C .
启动kibana
bin/kibana
web访问::5601/
这里需要配置一个索引:
默认,Kibana的数据被指向Elasticsearch,使用默认的logstash-*的索引名称,并且是基于时间的,点击“Create”即可。
看到如下界面说明OK了
点击Discover可以看到,我们刚才在终端测试的输入
至此,一个小的 ELK stack日志分析系统已经完成了,但是我们可以看出仍然有许多不是很难理解的地方,接下来我们看一个实例
END