学过SEO的同学们都知道蜘蛛有两种爬行方式:深度和广度,又叫横向抓取和纵向抓取,那么这个蜘蛛到底是怎么运作的呢?是爬完一个页面再去爬二个页面吗?那二个页面又是从哪里找到的呢?
如果真的想要了解这方面的东西,就须要了解程序,做为一个合格的SEO,程序设计是你必修的一门课程。即然涉及到程序,必然少不了数据库,编程语言。以PHP为例,其中有一个函数叫作file_get_contents,这个函数的作用就是获取URL里面的内容,并以文本的方式返回结果,当然也可以用CURL。
然后,就可以利用程序里面的正则表达式,对A链接的数据进行提取、合并、去重等复杂操作,并将数据存入数据库。数据库有很多,比如:索引库、收录库等等。为什么索引和收录数量不一致?当然是因为不在同一个库里嘛。
当抓取数据完成上面操作后,自然也就得到了数据库里面不存在的链接,接着,程序会发出另一个指令,抓取这些库里面没存的URL。直致页面全部完成抓取。当然更有可能的是抓取完成后,不再抓取。
在百度站长平台会有抓取频次及抓取时间的数据,你应该可以见到,每个蜘蛛抓取是毫无规律可言,但你通过日常观察可以发现,页面深度越深,被抓取到的概率越低。原因很简单,蜘蛛并不会一直围绕着你的站点爬到所有网站,而是有间隔性的、随机性的来抓取。
也就是说,搜索引擎的蜘蛛抓取是有随机性和时效性的,而我们SEO的目的是尽快的完成页面及内容的呈现,尤其是我们认为最有价值的内容。所以就会演变成,如何在有限数量的蜘蛛抓取中展现更多的内容呢?当然就是尽可能的降低页面深度,增加页面宽度,在《SEO实战密码》中有关于页面深度方面的优化方法,所以在此不再做过多的描述。有需要的可以搜索一下电子书,当然更建议人手一本。
蜘蛛虽然有随机性和时效性,但也还是有许多规律可寻,比如流量对于蜘蛛有非常直接的正向作用,所以日常的操作当中你也会发现,一旦有流量进入到站点,蜘蛛也会随着增多,这种蜘蛛表现尤其是在一些违规操作里面表现的更为明显,比如百度刷排名!
除了时效性和随机性以外,蜘蛛还有一个特性就是喜新厌旧,一个时刻变化的站点,是非常受蜘蛛喜爱的,哪怕他没有任何的意义!当然,这也算是搜索引擎的一个BUG,只是这种BUG没办法处理,或者说很难处理。所以就有许多人利用BUG开发一系列的软件,比如蜘蛛池,蜘蛛池页面每次打开都内容不一样,利用文字段落随机组合进行内容构造,对蜘蛛进行欺骗。然后再辅以大量的域名(一般几百个)形成一个新内容库,圈住蜘蛛。当然圈住蜘蛛肯定不是目的,圈蜘蛛的目的是为了放蜘蛛,那怎么来放呢?成几百万、几千万的页面,每个页面嵌入一个外连,蜘蛛自然随着外链就可以引导到你想让他去的站点。这样就达到了页面的高频蜘蛛访问。
当一个页面蜘蛛去的多了,收录自然不再会是问题。那蜘蛛对收录有正向帮助,对于排名有帮助吗?通过我们的研究发展,百度蜘蛛、百度排名、自然流量这三者的关系非常的微秒,每一项的变动都会涉及到其它两项的变动。只不过有的变化大,有的变化小。