接下来我们思考下这样架构的好处,协调节点不参与选主环节,减少了选主时间,通过协调节点专门处理监控或者我们需要的一些数据的请求,使其他节点专注于线上请求,提升了效率,要说有什么不好,那就是需要多一台机器;接下来我们来通过Kibana做一些图表;
三、Kibana入门实战
Elasticsearch集群搭建和Logstash相关下载和安装就不讲解了,我们主要借助Kibana来分析120年奥运会运动员或者国家一些情况,数据我是在这个网址下载的,准确性方面我没去核对,我们主要借助这些数据来学习Kibana就好了。整体流程是通过Logstash讲CSV文件导入到Elasticsearch,然后借助Kibana分析,我把Logstash配置粘贴到下面,通过使用logstash.bat -f ../config/logstash.conf启动起来就可以将文件导入到Elasticsearch中,在启动起来之前我们还需要在Elasticsearch建立模板,当然也可以通过Logstash指定模板这个有兴趣自己百度下,我也将Mapping模板放到下面;
input { file{ path => ["C:/Users/wangt/Desktop/athlete_events.csv"] # 设置多长时间检测文件是否修改(单位:秒) stat_interval => 1 # 监听文件的起始位置,默认是end start_position => beginning # 设置多长时间会写入读取的位置信息(单位:秒) sincedb_write_interval => 5 } } filter { #去除每行记录中需要过滤的NA,替换为空字符串 mutate{ gsub => [ "message", "NA", "" ] } csv { # 每行记录的字段之间以,分隔 separator => "," columns => ["name","sex","age","height","weight","team","noc","games","year","season","city","sport","event","medal"] # 过滤掉默认加上的字段 remove_field => ["host", "path","message"] } } output { elasticsearch { hosts => ["127.0.0.1:9200","127.0.0.1:9201","127.0.0.1:9202"] index => "olympicawards" } }