linux系统 web在线日志分析

线上环境出现问题时,不能像本地环境一样,断点查找问题,只有根据日志分析来定位问题,当然有资深的经验也是可以的,哈哈。

最基本的就是cat命令,可以通过cat filename,来查看文件全部内容,

>cat filename

如果文件太大请不要直接这样做,就像数据库查询一样,我们只需要获取我们关心的数据即可,

这时候,我们可以使用grep进行查找,可以匹配正则表达式,可以统计出现次数

>cat filename | grep -i -c '\"id\":\"a5d4ccf6c6744ae48c40712b3987f451\".*'

通常我们记录日志是顺序写入,最新的日志在文件的末尾追加,我们经常需要动态查看最新日志

>tail -f -n 1000 filename

有时需要对日志文件所需内容排序,去重,可以使用sort命令,可以-t指定分隔符,-k指定分割符下的index

>sort -k 1 -t ' ' -r filename

可以找出日志内容中重复的行,使用uniq过滤重复的行,-c统计重复的行

>sort filename | uniq -c

 喜欢请关注微信公众号:码农小麦

posted @ 2016-12-10 10:19  码农小麦  阅读(1657)  评论(0编辑  收藏  举报