然后我们再来看filebeat,可以看到这个就是个采集数据的工具,
因为如果我们只有一台两台服务器,我们可以通过,tail -f ....这样来进行数据的查看,查看日志也很方便,但是如果我们有成千上万台的服务器的话,就不行了,看不过来啊..
这个时候,我们可以用elk
我们用filebeat去收集日志
可以看到,可以用input输入,输入.log文件等,可以同时输入多个文件,然后文件经过
harvester 这个是收割机的意思,进行数据的收割,然后把数据,输入到spooler 这个传输到,
可以是logstash,elasticsearch中,也可以是redis中,也可以是kafka中对吧.