说明:如果您有任何疑问或想咨询其他业务请拨打电话 400 685 0732
全网监测海量数据按需发布监测预警
实时把握舆情动态精准追溯信息源头
鉴于KPI100貌似密码又忘了,但bruce也弄不进去了,所以这次的博客更新在这里。
之前用的工具一直是光年。光年这个工具怎么说呢,感觉是百度统计,整体能看看,但一旦出现问题想要看到细分的领域,用光年还是感到力不从心。推荐一款splunk的日志分析软件,并且说说里面有哪些让我感到兴奋的点:
(的话请百度搜索splunk,然后翻墙下吧,用light版本,这个版本仅提供日志分析,已经够用了,安装完后你会发现他是本地的localhost:)
1、简单的数据导入,即使不和服务器打通,在自己的硬盘里放一个日志的文件夹,以后把新的内容再添加进去能自动分析了,这个蛮方便的。如下图,几个项目的日志被我分开来放,导入导出很快。
2、可以随时调整日志的搜索时间,并且根据文档提供的语句调整自己需要的内容(这点不太傻瓜了,但语句真的具有挺强大的功能)。想要什么只要在搜索框你输入行了。比如下图中我要搜404状态码,在搜索框打入status = 404,OK了,等着它自己跑数据库提取。
另外一个很好的地方是有一个时间线的提示,这里能很直观的找到你所搜索的这个事件在这个时间段内出现了多少次,便捷的帮助我们找到网站的问题并监视终的结果。
3、另外个是不错的统计功能,比如我稍微变化一下搜索的语句,如下图中的status = 404| top limit=100 uri,能转化成统计的视图表,
这样的视图能帮助你找到这个URL出现的次数和所占的百分比。
4、当然还能导出你的筛选结果,这个棒极了。
想想如果再把这些语句发扬一下:
我们还能用这个工具来,
1、监测某个蜘蛛的每天,每时的爬取情况,哪个时间段被蜘蛛喜欢(马上能分析出)
2、统计某个时间段被抓取的页面,如果一直想要的页面没有被抓取,那么马上需要作出调整;如果被抓取了却没被收录,那么可能是页面质量的问题了
3、找出浪费爬虫抓取量的垃圾页面,获得数据之后,迅速的做调整(而光年只能看到整体,不能具体到哪个页面)。
4、xenu工具跑的只是爬虫的角度,平常用来处理404页面。我们还可以从用户和蜘蛛的角度去看返回的一些状态码,如果你够专业,不仅要处理xenu工具跑出来的页面很直观的架构问题,还要从具体的服务器请求看结果,帮助网站真正的做个体检。
推荐阅读
另一个维度比较靠谱的免费日志分析工具 – Splunk@steven | 文军...1、简单的数据导入,即使不和服务器打通,在自己的硬盘里放一个日志的文件夹,以后把新的内容再添加进去能自动分析了,这个蛮方便的。如下图,几个项目的日志被我分开来放,导入导出很快。 2、可以随时调整日志的搜索时间,并且根据文档提供的语句调整自己需要的内容(这点不太傻瓜了,但语句真的具有挺强大的功能)。想要...
说明:如果您有任何疑问或想咨询其他业务请拨打电话 400 685 0732