关注

Logstash本地日志文件读取写入Doris案例

Logstash-Doris日志输出本地环境搭建与操作演示

1. 整体流程

在这里插入图片描述

2. 步骤说明

  1. 本地环境搭建与操作演示从业务日志 → Logstash → Kafka → Doris,Flink → Doris 不在本文研究范围,由后续 Flink 集成进来再进一步研究部署。
  2. 本地环境搭建:从 192.168.1.168 服务器部署一套 Logstash,上传了几个日志文件在同一台服务器,由 Logstash 解析本地日志文件,并推送到 Kafka(也部署在 192.168.1.168),通过 Kafka 消费者组消费并存储到 Doris 数据库。

3. 部署模拟场景说明

3.1 日志文件说明

  • 服务器每天产生一个 .log 日志文件,Logstash 实时解析这些 .log 文件,并按时间顺序往 Kafka 推送。
  • 日志文件格式:log_20260225.loglog_20260226.loglog_20260227.log
  • Kafka 消费者消费消息并存储到 Doris 数据库,用 consumer.log 记录消费接收信息日志。

3.2 库表信息

  • 数据库名:demo
  • 表名:kafka_to_doris

字段表结构:

字段名 字段类型 是否为 null 字段备注
id varchar(64) not null 主键ID
log_info text 日志明细(json串直接存储)
sys_source varchar(32) 系统来源
create_time datetime not null 创建时间

3.3 其他说明

  • 每天产生一个 receive_log_带日期.log 的文件,Doris 日志信息按日志文件顺序保存(在哪个日志文件追加日志就保存哪一天的日志)。
  • 实际生产环境上的日志也是按这种形式存储的。
  • 目前的研究和配置支持服务运行期间日志的实时追加与记录,暂不支持 Logstash 在宕机恢复后自动读取宕机期间追加的日志。

3.4 主要配置文件汇总

# Logstash同步策略配置
vim /data/cross-border/logstash/pipeline/logstash.conf

# Logstash网络配置
vim /data/cross-border/logstash/config/logstash.yml

# Kafka消费者组启动脚本
touch /data/kafka-consumer/consumer_doris.sh

4. 部署步骤演示

4.1 上传并加载 Logstash 镜像

# 上传logstash.tar包至192.168.1.168服务器
# 将tar归档文件加载并导入Docker镜像
docker load < logstash.tar

4.2 创建目录并设置权限

# 创建两个文件夹,存放服务

转载自CSDN-专业IT技术社区

原文链接:https://blog.csdn.net/qq_37713191/article/details/158891812

评论

赞0

评论列表

微信小程序
QQ小程序

关于作者

点赞数:0
关注数:0
粉丝:0
文章:0
关注标签:0
加入于:--