什么是robots协议?
robots协议,指的是一个robots.txt的文档,如下图。Robots.txt是存放在网站根目录的一个文件。而且是搜索引擎爬虫抓取网站的时候,第一个抓取的文件。
robots协议,又叫做搜索引擎协议,主要用于规范爬虫抓取网页。robots协议里面记录着规则,爬虫爬取后会按照规则爬取网站。
简单的理解,robots协议里面会告诉搜索引擎爬虫,那些链接是允许爬取的,那些链接是不允许抓取的。
robots协议作用
robots协议可以指定搜索引擎能收录那些链接,也能指定不能收录那些链接。后面我们讲写法。
robots协议语法
robots协议的语法分为三个。分别是User-agent、Disallow、Allow。下面我们来一起了解下。
User-agent:指的是那些搜索引擎执行以下协议。如百度:User-agent: baiduspider。*号可以代表全部,代码为:User-agent:*。
Disallow:指禁止抓取的意思。如语法:Disallow: /a ,就是禁止搜索引擎抓取带有 /a 这个关键词的链接。
Allow:指允许抓取的意思。通常默认就是允许抓取,故很少会用到该命令。
如何去写robots协议
给大家一个非常方便的工具,可以在该工具上直接生产。
Robots协议生成工具:http://tool.chinaz.com/robots/
Robots协议怎么用
1、当网站中存在隐私页面不想被搜索引擎抓取的时候,可以使用robots。
2、当网站页面存在多个链接的时候,可以用robots禁用一条,允许搜索引擎只收录一条。(通常使用静态url后,应该屏蔽动态url)
3、建议屏蔽搜索路径。
扫一扫开通学习权限,领取精美教程,加入学习交流群哦