网站搜索引擎协议robots如何编写?

网络营销评论89

网站搜索引擎协议robots如何编写?-图片1

Robots协议用来告知搜索引擎哪些页面能被抓取,哪些页面不能被抓取;可以屏蔽一些网站中比较大的文件,如:图片,音乐,视频等,节省服务器带宽;可以屏蔽站点的一些死链接。方便搜索引擎抓取网站内容;设置网站地图连接,方便引导蜘蛛爬取页面。

网站搜索引擎协议robots如何编写?-图片2

robots.txt文件是一个文本文件的格式存放在网站根目录下,robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。那么robots协议怎么编写呢?

接下来四叶草小编给大家讲讲robots协议如何编写以及注意事项。

robots协议语法:

User-agent: *

Disallow: /

Allow: /

User-agent

定义搜索引擎。如:百度蜘蛛 BaiduSpider;谷歌蜘蛛 GoogleBot;360蜘蛛 360Spider; SoSo蜘蛛Sosospider; 有道蜘蛛 YoudaoBot; 搜狗蜘蛛sogouspider;等等

Disallow 定义禁止抓取收录地址(注意:冒号后面的为关键词,路径里面出现该关键词的全部会被直接屏蔽)

Allow 定义允许抓取收录地址

"*"和"$"的含义:Baiduspider 支持统配符"*"和"$"来模糊匹配url。

“*”匹配0或多个任意字符;“$”匹配行结束符:

通过上边的内容,我们已经知道该如何编写robots协议了,那大家了解什么情况需要屏蔽吗?

小编来和大家一起探讨:

1、统一路径;

2、路径是搜索链接;

3、标签链接;

4、中文链接;

5、js文件;

注意事项: 符合使用的细节:/ : 空格 大小写,生效时间,几天或者两个月以后,切记不要随便屏蔽整站。

以上内容是四叶草小编总结的网站搜索引擎协议robots编写,希望可以帮助到大家,小编每天都会送上一些SEO技术,希望各位小主喜欢!

本文出自四叶草博客,原文地址:http://www.sjzseo010.com/?p=131,转载请保留原作者,谢谢!

关注微信公众平台

1、微信“添加好友”点击“搜号码”输入“sjjsiyecao”或者“四叶草SEO”点击关注

2、扫描以下二维码

网站搜索引擎协议robots如何编写?-图片3

如对您有帮助或是想让更多的朋友知道,请点击右上角,在弹出的菜单中选择“发送朋友”或“分享至朋友圈”

QQ热线:983561356

点击“阅读原文”

 
抢抢抢,最后名额拼手速! 网络营销

抢抢抢,最后名额拼手速!

问:老师:当前无线流量达到80%,无线的搜索,无线的运营,无线的推广,无线的数据等等到底如何做?答:驭宝网络通过6个多月的闭关研究,终于研究出了一套系统的无线玩法课程,通过众多店铺,产品的实战测试,有...
精刷三部曲 (三) ——怎么降低稽查风险 网络营销

精刷三部曲 (三) ——怎么降低稽查风险

之前和大家分享了2个对“精刷”方面的知识点,这次我和大家分享一下“怎么降低稽查风险”的小知识点。1系统抓SD是有时间节点,3天一个维度,7天一个维度和15天一个维度以及30天一个维度。正常情况下是不会...
匿名

发表评论

匿名网友
:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: