随笔分类 - ELK
摘要:使用logstash的时候,为了更细致的切割日志,会写一些正则表达式。 使用方法 input { file { type => "billin" path => "/data/logs/product/result.log" } } filte...
阅读全文
摘要:在工作中,遇到一个问题就是日志的处理,首选的方案就是ELFK(filebeat+logstash+es+kibana) 因为之前使用过logstash采集日志的时候,非常的消耗系统的资源,所以这里我选择了更加轻量级的日志采集器fiebeat, 我这里是使用filebeat采集日志,然后把日志传给lo
阅读全文
摘要:文章摘自:http://www.cnblogs.com/zhaijunming5/p/6478940.html
阅读全文
摘要:我这里的日志采集用的是filebeat 来采集日志的
阅读全文
摘要:vim /etc/profile export HISTORY_FILE=/var/log/usermonitor/usermonitor.logexport PROMPT_COMMAND='{ date "+%y-%m-%d %T ##### $(who am i |awk "{print \$1
阅读全文
摘要:原文摘自:http://blog.csdn.net/orichisonic/article/details/49335527 现在有一个需求就是设置用户的输入密码不能为中文和空格 实例: /^[^\u4E00-\u9FA5\uF900-\uFA2D\u0020]{8,16}$/ "password"
阅读全文
摘要:日志的切割有以下几种方法: 1.写个定时任务,每天某个时间点把旧的日志重命名,并对服务重启使其重新打开日志并写入。 2.通过管道的方式把新产生的日志写到另外一个日志文件里。 3.通过logrotate来切割日志,logrotate是系统自带的服务,可以切割任何日志,不仅仅是nginx。 因为我这里的
阅读全文
摘要:http://www.wklken.me/posts/2016/05/24/elk-mysql-slolog.html 处理mysql慢查询日志http://www.wklken.me/posts/2016/05/07/elk-about-2.html ELK维护的一些点(二)http://www.
阅读全文
摘要:这个配置文件记不起来是从那个地方下载的来的了,感谢那位无私的朋友 input { beats { #shipper 端用的是 filebeat,所以用这个插件 port => 510 #开510端口,shipper 端发到 这里 } beats { port => 511 codec => json
阅读全文
摘要:(1)json filter数据格式是JSON,那么可以通过它吧数据解析成你想要的数据结构 json 设置参数filter{ json { add_filed =>..... #hash(可选项),默认,#意思就是添加字段 add_tag =>..... #array(可选项) remove_fie
阅读全文
摘要:文章转载: http://www.open-open.com/doc/view/df156a76a824402482d1d72cd3b61e38 http://www.open-open.com/lib/view/open1441088477784.html http://www.07net02.c
阅读全文

浙公网安备 33010602011771号