很多人刚刚接触ELK都不知道如何使用它们来做分析,经常会碰到下面的问题:
安装完ELK不知从哪下手
拿到数据样本不知道怎么分解数据
导入到elasticsearch中奇怪为什么搜不出来
搜到结果后,不知道它还能干什么
本篇就以一个完整的流程介绍下,数据从 读取-->分析-->检索-->应用
的全流程处理。在阅读本篇之前,需要先安装ELK,可以参考之前整理安装文档:ELK5.0部署教程
在利用ELK做数据分析时,大致为下面的流程:
1 基于logstash分解字段
2 基于字段创建Mapping
3 查看分词结果
4 检索
5 聚合
6 高亮
可能会根据第4步重复第2步的工作,调整分词等规则。