Nginx 日志分析
2019-07-25 10:26:50 0 举报
Nginx日志请求分析
作者其他创作
大纲/内容
数据加工
ElasticSearch
Kafka
数据中转
Grafana
全量数据
HDFS
Flink/Storm
数据采集
数据展示
实时数据分析
Filebeat
Logrotate 日志切割/历史日志清除
Logstash
Nginx Access/Error Log
1. 日志收集时,应提供日志来源地、日志产生者以及日志类型,前两者可以以标签形式指定,目的精确定位问题产生者。日志类型对应日志转换策略,以从日志中得到关键字段的信息;2. FileBeta 支持断点续传,避免重新开始;不会使pipeline超过负载:使用backpressure-sensitive 协议感知后端(比如logstash、elasticsesarch等)压力,如果后端忙于处理数据,则降低读日志的速度;一旦阻塞被解决,则恢复。3. Kakfa将实时日志流转发给Storm或Flink进行日志转换处理,以支持实时查询;4. HDFS用于储存收集到的所有日志,使用Hive定期进行日志分析、转换等处理;5. 在日志转换层,按照日志类型对应的转换策略,提取出关键字段数据,再讲这些结构化的数据交给分布式搜索引擎ElasticSearch存储并索引;6. 使用Kibana进行日志检索、报表统计;使用Grafana进行大屏展示
历史数据保存
OpenTSDB/MySQL
数据分析
Hive
1. 实时接口耗时统计分析;2. 接口请求量走势图;3. 耗时对比图、区间耗时对比图;4. QPS、PV、UV、HOST
Kibana
LogStash
数据存储
backpressure-sensitive 感知后端压力
数据源
收藏
收藏
0 条评论
下一页