搜索引擎蜘蛛抓取有两个维度的标准,一是我们常常说的抓取频次,二是抓取时间。在谷歌搜索引擎中也有着同样的概念,称为搜索引擎蜘蛛抓取配额。
无论是百度还是谷歌,蜘蛛抓取某一特定网站时,不会无限制的爬行所有页面,也就是说搜索引擎对特定的网站抓取资源分配是相对固定的。
思维浅析
————
网站的蜘蛛抓取配额越高,则搜索引擎对网站的认可度越高。这种认可对小型站点而言,新产出的内容往往很快得到收录。而大中型站点由于内容体积庞大,抓取配额越高重要的页面才会得到抓取或者及时被更新,甚至突破自然流量的阶段性瓶颈。
01
—
蜘蛛为什么抓取?抓谁的?
首先抓取份额的分配是从搜索引擎的需求出发,为了更好地提升用户搜索体验,搜索引擎需要索引新的内容同时更新原有内容索引,但说到底还是与权重密不可分,搜索引擎蜘蛛抓取资源分配,更倾向于认可度高的网站。
02
—
蜘蛛能抓多少?
其次抓取份额的分配还需考虑目标站点服务器的承载能力,无限制的抓取很容易影响到正常的用户访问,甚至是直接将网站服务器拖垮。因此对不同网站的服务器都会设定一个抓取上限,也就是服务器可承受范围的上限。如果超过了服务器的承受范围,则蜘蛛抓取的的频次、时间、速度均会下调甚至是停止抓取。目的在于尽可能保证用户的正常访问需求以及服务器的正常运行。
03
—
大中型网站更需要抓取资源配额
对于内容产出较小的小型站点而言,并不需要过分担忧蜘蛛抓取份额的多少,因为即使只有每天几百次的抓取频次,一千个页面十来天时间,就能全站抓取更新一遍了。而对于大中型站点,每天较高的内容产出量,以及百万千万级的内容体积,抓取份额不够势必导致重要页面的难以抓取和及时更新。如果说在蜘蛛抓取时间一定的情况下,服务器速度够快,页面体积够小,内链结构合理的情况下,还是可以保证页面能被及时充分的抓取更新。
写在最后
————
搜索引擎蜘蛛抓取配额,并不是由站长所能决定的,而是需要搜索引擎对网站进行评判,以及根据搜索引擎的需要进行抓取资源分配。考虑抓取需求和服务器承载限制两者之后的结果,一般来说网站权重越高,页面内容质量越高,网站内容体积够大,服务器速度够快,搜索引擎蜘蛛抓取的份额也就越大。
SEO对不同的参数指标的衡量是适度即可,并非一味追求某一因素在数量上的提升,因此对于蜘蛛抓取配额并不必执着于当前抓取频次的高低。稳定的网站更新频次以及高质量的内容建设,势必会让搜索引擎蜘蛛抓取配额得到提升。
同样是做SEO,对于SEO思维和实操,不同的SEOer都有自己的见解与心得,欢迎每一位喜欢SEO的朋友留言交流!!!