通过使用zabbix 日志监控 我发现一个问题 例如oracle的日志有报错的情况 ,通常不会去手动清理 这样的话当第二次有日志写进来的时候 zabbix的机制是回去检查全部日志,这样的话之前已经告警过的错误日志,又会被检查到,这样就会出现重复告警,而且zabbix的日志监控只能读到匹配当前行关键字的数据,感觉不太灵活, 比如我想要匹配到的关键字之后再当前关键字的下N行再去匹配另一个关键字这个时候就比较麻烦,在这里给大家推荐一个有效,便捷解决的方式。
通过Python脚本实现日志监控 要求 1 记录脚本检查日志位置,避免下次触发脚本的时候出现重复告警 2 关键字匹配支持正则 3 支持多个关键字查询,例如第一个关键字匹配到当之后在这个关键字的下N行再去匹配第二个关键字 具体传参格式
python3 npar.py /u03/z.txt '(ORA-|REEOR),(04030|02011)' 2
第一个参数是日志路径 第二个参数是关键字 第三个参数为 匹配到第一个表达式这种的关键字后再去地 N(2)行去匹配第二个关键词(04030|02011)具体脚本实现如下
import os import sys logtxt = "logtxt.txt" def read_txt(files, start_line): data = [] data.append("") with open(str(files) + "", "r", encoding = 'UTF-8') as f: for line in f.readlines(): line = line.strip('\n')# 去掉列表中每一个元素的换行符 data.append(line) # 记录本次的行数 wirte_log(len(data) - 1) if len(data) > start_line: return data[start_line - 1: ] else : print("开始行数大于文本文件总行数!") def wirte_log(lines): global logtxt with open(logtxt, "w") as file: #”w "代表着每次运行都覆盖内容 file.write(str(lines)) def read_log(): global logtxt if not os.path.exists(logtxt): with open(logtxt, "w") as file: #”w "代表着每次运行都覆盖内容 file.write(str(1)) with open(logtxt + "", "r", encoding = 'UTF-8') as f: s_lines = f.readlines() print("从第" + str(s_lines[0]) + "行开始") return s_lines[0] def deal_read_log(files, keyword, interval_line): keywords = keyword.replace("(", "").replace( ")", "").replace("'", "").replace('"', '"').split(',') start_keywords = keywords[0].split("|") end_keywords = keywords[1].split("|") start_line = read_log() lines_data = read_txt(files, int( start_line)) for_line = 1 while (for_line < len(lines_data)): #print(for_line) # print(lines_data[for_line]) # if end_keywords in lines_data[for_line]: #print(lines_data[for_line]) # print("-------------------") # for_line = for_line + 1 # else : isexist = 0 for sk in start_keywords: if sk in lines_data[for_line]: isexist = 1 break; if isexist == 1: #if start_keywords[0] in lines_data[ for_line] or start_keywords[1] in lines_data[for_line]: #当前行有end_keywords isexist2 = 0 for sk in end_keywords: if sk in lines_data[for_line]: isexist2 = 1 break; if isexist2 == 1: #print("行数=" + str(start_line - 1 + for_line) + "-" + str(start_line - 1 + for_line)) print(lines_data[for_line]) else : #当前行没有end_keywords。 往下interval_line行去寻找 # 标记当前行数 flag_line = for_line count = 1 for_line = for_line + 1 while (for_line < len(lines_data)): isexist3 = 0 for sk in end_keywords: if sk in lines_data[for_line]: isexist3 = 1 break; if isexist3 == 1: #print("行数=" + str(start_line - 1 + flag_line) + "-" + str(start_line - 1 + for_line)) for prin in range(flag_line, for_line + 1): print(lines_data[prin]) break; for_line = for_line + 1 if count == int(interval_line): break; count = count + 1 for_line = for_line - 1 for_line = for_line + 1 if name == 'main': files = sys.argv[1] if '.log' in files: logtxt = files.replace(".log", "_log.txt") else : logtxt = files.replace(".txt", "_log.txt") # files = "ora.txt" keywords = sys.argv[2] # keywords = "'((04030|04000),ORA-)'" #上下关联行数 interval_line = int(sys.argv[3]) # interval_line = 10 deal_read_log(files, keywords, interval_line)
接下来就是添加监控了
在agent的conf 文件里面添加UserParameter
到这里监控就完成了
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
RTX 5090要首发 性能要翻倍!三星展示GDDR7显存
三星在GTC上展示了专为下一代游戏GPU设计的GDDR7内存。
首次推出的GDDR7内存模块密度为16GB,每个模块容量为2GB。其速度预设为32 Gbps(PAM3),但也可以降至28 Gbps,以提高产量和初始阶段的整体性能和成本效益。
据三星表示,GDDR7内存的能效将提高20%,同时工作电压仅为1.1V,低于标准的1.2V。通过采用更新的封装材料和优化的电路设计,使得在高速运行时的发热量降低,GDDR7的热阻比GDDR6降低了70%。
更新日志
- 群星《前途海量 电影原声专辑》[FLAC/分轨][227.78MB]
- 张信哲.1992-知道新曲与精丫巨石】【WAV+CUE】
- 王翠玲.1995-ANGEL【新艺宝】【WAV+CUE】
- 景冈山.1996-我的眼里只有你【大地唱片】【WAV+CUE】
- 群星《八戒 电影原声带》[320K/MP3][188.97MB]
- 群星《我的阿勒泰 影视原声带》[320K/MP3][139.47MB]
- 纪钧瀚《胎教古典音乐 钢琴与大提琴的沉浸时光》[320K/MP3][148.91MB]
- 刘雅丽.2001-丽花皇后·EMI精选王【EMI百代】【FLAC分轨】
- 齐秦.1994-黄金十年1981-1990CHINA.TOUR.LIVE精丫上华】【WAV+CUE】
- 群星.2008-本色·百代音乐人创作专辑【EMI百代】【WAV+CUE】
- 群星.2001-同步过冬AVCD【环球】【WAV+CUE】
- 群星.2020-同步过冬2020冀待晴空【环球】【WAV+CUE】
- 沈雁.1986-四季(2012梦田复刻版)【白云唱片】【WAV+CUE】
- 纪钧瀚《胎教古典音乐 钢琴与大提琴的沉浸时光》[FLAC/分轨][257.88MB]
- 《国语老歌 怀旧篇 3CD》[WAV/分轨][1.6GB]