

新闻资讯
技术学院分布式日志收集采用Filebeat边缘采集、Redis缓冲、Logstash解析写入ES;Python日志需结构化并注入trace_id等字段;ES/Kibana实现按服务分索引、错误率看板与链路追踪;告警结合统计波动与suppress机制防轰炸。
在微服务或容器化部署中,日志分散在成百上千个节点上,直接读取本地文件已不可行。核心思路是:**边缘采集 → 中间缓冲 → 集中消费**。
Filebeat轻量、低资源占用,适合部署在每台应用服务器上,负责监听日志文件变化并发送;Redis作为消息队列,提供削峰填谷和临时容错能力;Logstash运行在中心节点,从Redis拉取数据,做字段解析(如提取trace_id、level、service_name)、格式标准化(统一转为JSON),再写入Elasticsearch。
默认的logging模块输出是纯文本,不利于下游解析。必须让每条日志自带结构字段,尤其是trace_id、span_id、service.name——这是实现链路追踪分析的前提。
推荐方式是使用structlog或自定义logging.Formatter,将LogRecord中的extra字段自动转为JSON字段。若已接入OpenTelemetry,更建议直接用opentelemetry-instrumentation-logging,它会自动注入当前trace上下文。
日志进ES后,不是堆在那里看,而是要能快速定位问题。关键在于索引设计与查询逻辑。
按service_name + date建索引(如logs-payment-2025.06.15),配合ILM策略自动滚动与删除;mapping中对trace_id设为keyword类型,对message保留text分词能力,同时开启fielddata供聚合用。
规则告警容易误报。更有效的方式是结合统计规律识别异常波动,比如某服务ERROR日志量突增300%,或5xx响应比例10分钟内翻倍。
可在Logstash filter中用aggregate插件做窗口计数(如每5分钟统计各service的error数),再通过http_output调用自研告警服务;或用Elasticsearch Alerting API配置metric aggregation + threshold条件,触发Webhook通知企业微信/钉钉。