本篇文章为大家展示了Linux下日志文件过大的解决方案是什么,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。
不知道大家有没有遇到过,系统突然出现了问题,系统疯狂打日志,导致磁盘出现问题,或者日志过多根本没办法阅读。
往往会想到,对日志文件切分,这样可以留下重要的日志,而删掉不必要的日志。下面就来详细介绍这种方法。
我们可以每天都进行切分日志的操作,那要这样的话,为了避免混淆,我们切分出来的日志都应该带上日期。当然日期我们可以通过以下语句获取:
>current_date=`date -d "-1 day" "+%Y%m%d"`
date -d "-1 day"表示获取前一天的日期,就是说我们今天操作的话是切割昨天的日志。+%Y%m%d是具体的日期格式,也就是年月日格式,比如:20181005。
接下来,我们再切割日志。
>split -b 65535000 -d -a 4 myout.txt ./log/log_${current_date}_
其中,65535000是60M,也就是日志文件按60M大小进行切割,可自定义大小。-d -a 4表示文件后缀是4位。我们将文件切割后要按次序进行编号,比如0000,0001,0002……这个4就代表编号的位数。
再之后的./log/log${current_date}就是切割后日志文件的前缀,里面就带入了当前日期。所以,最终的输出格式类似于:log_20181005_0001。
日志文件切割完之后,就可以将日志文件删除了,否则就失去切割文件的意义了。删除的方法可以用以下方式:
>cat /dev/null > nohup.out
将以上这些命令写在一个脚本里,每天运行它,就可以将日志文件切割成若干份,便于我们排查。完整的代码如下:
>#!/bin/bash current_date=`date -d "-1 day" "+%Y%m%d"` split -b 65535000 -d -a 4 /home/alvin/myout.txt /home/alvin/log/log_${current_date}_ cat /dev/null > nohup.out
上述内容就是Linux下日志文件过大的解决方案是什么,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注亿速云行业资讯频道。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。