教你如何巧用robots避免蜘蛛黑洞

网站推广评论78

教你如何巧用robots避免蜘蛛黑洞-图片1

对于百度搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容雷同但具体参数不同的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了大量资源抓取的却是无效网页。 比如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分检索价值不高,如“500-1000之间价格的租房”,首先网站(包括现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额。那么该如何避免这种情况呢? 我们以北京某团购网站为例,看看该网站是如何利用robots巧妙避免这种蜘蛛黑洞的:

对于普通的筛选结果页,该网站选择使用静态链接,如:http://bj.XXXXX.com/category/zizhucan/weigongcun 同样是条件筛选结果页,当用户选择不同排序条件后,会生成带有不同参数的动态链接,而且即使是同一种排序条件(如:都是按销量降序排列),生成的参数也都是不同的。如:http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhekhttp://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

对于该团购网来说,只让搜索引擎抓取筛选结果页就可以了,而各种带参数的结果排序页面则通过robots规则拒绝提供给搜索引擎。 robots.txt的文件用法中有这样一条规则:Disallow: /*?* ,即禁止搜索引擎访问网站中所有的动态页面。该网站恰是通过这种方式,对Baiduspider优先展示高质量页面、屏蔽了低质量页面,为Baiduspider提供了更友好的网站结构,避免了黑洞的形成。

教你如何巧用robots避免蜘蛛黑洞-图片2

 
哪些招式能探知用户的心? 网站推广

哪些招式能探知用户的心?

一、为什么要探知用户的心?换句话说,我们为什么要了解用户的想法?这个问题是不言而喻的。不论是产品亦或服务,说一千道一万,最根本的就是要满足目标用户的需求,如果需求不能满足,那该产品和服务就没有存在的价...
网站推广

百度又刮妖风,飓风算法3.0即将上线

  从2018年开始,百度可谓频繁上线新算法,打击各种seo作弊行为,规范seo行业规范。可谓让站长伤透了脑筋,动荡了一年,本以为2019年,百度能消停点,实际上,百度一直没闲着,这不,马上飓风算法3...
网站推广

百度新闻源收录全知道

一、新闻源的定义新闻源是指符合搜索引擎种子新闻站的标准,站内信息第一时间被搜索引擎优先收录,且被网络媒体转载成为网络海量新闻的源头媒体。新闻源在网络领域内地位举足轻重,具有公信力与权威性,也是辐射传播...
匿名

发表评论

匿名网友
:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: