时间:2012-12-14 05:12:00
现今,众多SEO公司都提供SERP跟踪服务,何为SERP,百度百科的定义如下:
“SERP是Search Engine Results Page的首字母缩写,即搜索引擎结果页面。是搜索引擎对搜索请求反馈的结果,通常SERP包含搜索结果的左右两侧,而不是单指哪一侧。
SERP指搜索引擎(如Google或百度)对关键词查询的结果页面。除了不同的搜索引擎,每个搜索引擎对于相同的关键词查询,可按结果的性质,返回不同的结果页面,如图片SERP、视频SERP、新闻资讯SERP、博客SERP等。SERP上的站点排列顺序,根据各个搜索引擎的不同算法计算并赋值。
搜索引擎优(SEO)的主要目的之一是把企业(或组织)站点在SERP上的排名加以提升。”
而对于SERP的跟踪,无非是通过搜索引擎提供的API或者程序的抓取来实现,一般来说,如果通过API来实现的话,查询量过多的话,是需要一定费用的,而且有一些前提,一般是购买了搜索引擎提供商的竞价服务,并且有一定的门槛。
这样来说的话,如何免费的获取SERP跟踪信息成了大多数
seo外包服务商的研究课题,于是,普遍的方法出来了:使用蜘蛛程序去解析网页获取页面排名结果。
对于频繁抓取搜索引擎的排名数据,这个毋庸置疑会受到其间歇性的屏蔽,导致抓取的排名数据不准?如何解决?
个人提出以下几个思路:
1,缓存处理。对于用户已经查询过的关键词及网址,存储到临时表中,不进行实时查询。
2,多台服务器抓取。如果某台服务器临时抓取出错,则换一台服务器去尝试抓取结果。
3,跨域的js进行客户端抓取。即cross-domain-scripting,这个应该有一定的难度,至少还没有发现有好的现成的解决方案。
4,做成c/s的的客户端工具,从用户网络环境中获取排名数据,然后由用户触发保存到数据库中。
至于技术上的实现问题,需要不断的去尝试及优化获取结果的性,终的目的是让客户平滑的看到SERP的排名信息。关于技术上的深入探讨,欢迎继续关注本人的后续文章。
”