【站长学堂】给你的网站添加robots.txt了吗?

屏聚源码 屏聚学院评论128,007阅读模式

  robots.txt协议,对于一个网站来说至关重要哦。如果robots协议利用好了,会给你的网站带来很多帮助的。而且robots可以帮你解决一些不必要的麻烦。

  robots协议是什么

  robots协议,就是搜索蜘蛛必须要遵循的网站爬行规则,是用来告诉搜索蜘蛛哪些页面可以抓取,哪些页面不可以抓取的一个搜索引擎协议。同时也可以用来屏蔽一些不必要的搜索蜘蛛和设置网站地图的链接。使得搜索蜘蛛抓取我们网站内容上更加的方便。

  robots协议基础知识讲解

  robots协议的写法其实很简单,就是User-agent、Allow及Disallow的用法。下面简单举例说明robots.txt写法。有兴趣的可以看看我网站的robots.txt是怎么写的。

  User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符

  Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录

  Disallow: /require/ 这里定义是禁止爬寻require目录下面的目录

  Disallow: /ABC/ 这里定义是禁止爬寻ABC目录下面的目录

  Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。

  Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址

  Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片

  Disallow:/ab/adc.html 禁止爬取ab文件夹下面的adc.html文件。

  Allow: /cgi-bin/ 这里定义是允许爬寻cgi-bin目录下面的目录

  Allow: /tmp 这里定义是允许爬寻tmp的整个目录

  Allow: .htm$ 仅允许访问以".htm"为后缀的URL。

  Allow: .gif$ 允许抓取网页和gif格式图片

  Sitemap: 网站地图 告诉爬虫这个页面是网站地图。

继续阅读
屏聚源码
辅助编程工具通义灵码 你的智能编码助手 屏聚学院

辅助编程工具通义灵码 你的智能编码助手

通义灵码是阿里推出的基于通义大模型,提供代码智能生成、研发智能问答能力的人工智能编码助手,经过海量优秀开源代码数据训练,可根据当前代码文件及跨文件的上下文,为你生成行级/函数级代码、单元测试、代码注释...
评论  0  访客  0
匿名

发表评论

匿名网友 填写信息

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

确定