当前位置:首页 > SEO名词

长春SEO学习_Robots协议写法详解



  网站的robots.txt文件设置是不是合理,哪些文件或目录需要屏蔽、哪些设置办法对网站运营是有利的?为什么有人复制出相同的内容以应付不同搜索引擎的排名规则。然而,一旦搜索引擎发现站内有大量“克隆”的页面,就会给以惩罚,不收录这些重复的页面。

  另一方面,我们网站的内容属于个人私密文件,不想暴露在搜索引擎中。这时,robot.txt就是为了解决这两个问题,以上内容比较杂乱,说的简单一点就是robots可以影响蜘蛛抓取的目录和文件,长春SEO自学网站长告诉大家,如果ROBOTS设置的不好,你的网站可能永远都不会被百度收录,今天就带大家详细的了解一下什么是网站robots协议,如何设置才是正确的:

什么是robots.txt

一、什么是robots.txt

  查找引擎运用spider程序主动访问互联网上的页面并获取页面信息。spider在访问一个网站时,会首先会查看该网站的根域下是不是有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取规划。

  您能够在您的网站中创立一个robots.txt,在文件中声明该网站中不想被查找引擎收录的一些或指定搜索引擎只录入特定的内容。

二、robots.txt文件对网站的影响

  1、快速增加网站权重和访问量;

  2、禁止某些文件被搜索引擎索引,能够节约服务器带宽和网站访问速度;

  3、为搜索引擎提供一个简洁明了的索引环境

三、哪些网站的目录需要运用robots.txt文件禁止抓取

  1)、图像目录

  图像是构成网站的首要组成元素。跟着现在建站越来越便利,许多cms的呈现,真实做到了会打字就会建网站,而正是由于如此便利,网上呈现了许多的同质化模板网站,被重复运用,这样的网站查找引擎是必定不喜爱的,就算是你的网站被录入了,那你的作用也是很差的。若是你非要用这种网站的话,长春SEO自学网站长建议打击在robots.txt文件中进行屏蔽,一般的网站图像目录是:imags 或许 img;

  2)、网站模板目录

  如上面图像目录中所说,cms的强大和便捷,也导致了许多同质化的网站模板的呈现和乱用,高度的重复性模板在搜索引擎中形成了一种冗余,且模板文件常常与生成页面高度类似,导致大量相同内容的出现。对搜索引擎很不友好,严重的直接被搜索引擎打入冷宫,不得翻身,许多cms都具有独立的模板存放目录,因此要对模板目录进行适当的屏蔽,一般模板目录的文件目录是:templets

  3)、css、js目录的屏蔽

  css目录文件在搜索引擎的抓取中没有用途,也无法供给有价值的信息。所以强烈建议在robots.txt文件中将其进行屏蔽,以加快搜索引擎的索引质量。为搜索引擎供给一个简洁明了的索引环境更易晋升网站友好性。css样式的目录一般情况下是:css 或许 style

  js文件在查找引擎中无法进行辨认,这里仅仅建议最好对其进行屏蔽,这样做也有一个优点:为搜索引擎供给一个简洁明了的索引环境;

  4)、屏蔽双页面的内容

  这里拿dedecms来举例吧。我们都知道dedecms能够运用静态和动态url进行同一篇内容的访问,假设你生成全站静态了,那你有必要屏蔽动态地址的url链接。这里有两个好处:1、搜索引擎对静态的url比动态的url更喜欢、更简单录入;2、避免静态、动态url能访问同一篇文章而被查找引擎判为重复内容。这样做对搜索引擎友善性来说是有益无害的。

  5)、模板缓存目录

  许多cms程序都有缓存目录,这种缓存目录的优点我想不用说我们也明白了吧,能够十分有用的提升网站的访问速度,降低网站带宽,对用户体会也是极好的。不过,这样的缓存目录也有必定的缺陷,那就是会让搜索引擎进行重复的抓取,一个网站中内容重复也是大忌,对网站百害而无一利。许多运用cms建站的兄弟都没有注意到,有必要注意一下这个问题。

  6)被删去的目录

  死链过多,对搜索引擎优化来说,是致命的。在网站的优化过程中,目录的删除和调整是不可避免的,若是你的网站临时目录不存在了,那有必要对此目录进行robots屏蔽,并返回正确的404过错页面

  这里有一个争议性的疑问,关于网站后台管理目录是不是需要进行屏蔽,其实这个可有可无。在能确保网站安全的情况下,若是你的网站运营规模较小,就算网站目录出现在robots.txt文件中,也没有多大问题,这个我也见过许多网站这样设置的;但若是你的网站运营规划较大,对手过多,强烈建议千万别显示网站后台管理目录的信息,以防被心怀叵测的人利用,危害你的利益;搜索引擎越来越智能,关于网站的管理目录仍是能极好的辨认,并抛弃索引的。别的,我们在做网站后台的时分,也能够在页面元标签中增加:进行查找引擎的屏蔽抓取。

四、robots.txt的基本语法

  内容项的基本格式:键: 值对。

  1) User-Agent键

  后面的内容对应的是各个具体的搜索引擎爬行器的名称。如百度是Baiduspider,谷歌是Googlebot。

  一般我们这样写:

  User-Agent: *

  表示允许所有搜索引擎蜘蛛来爬行抓取。如果只想让某一个搜索引擎蜘蛛来爬行,在后面列出名字即可。如果是多个,则重复写。

  注意:User-Agent:后面要有一个空格。

  在robots.txt中,键后面加:号,后面必有一个空格,和值相区分开。

  2)Disallow键

  该键用来说明不允许搜索引擎蜘蛛抓取的URL路径。

  例如:Disallow: /index.php 禁止网站index.php文件

  Allow键

  该键说明允许搜索引擎蜘蛛爬行的URL路径

  例如:Allow: /index.php 允许网站的index.php

  通配符*

  代表任意多个字符

  例如:Disallow: /*.jpg 网站所有的jpg文件被禁止了。

  结束符$

  表示以前面字符结束的url。

  例如:Disallow: /?$ 网站所有以?结尾的文件被禁止。

五、robots.txt实例分析

  例1. 禁止所有搜索引擎访问网站的任何部分

  User-agent: *

  Disallow: /

  例2. 允许所有的搜索引擎访问网站的任何部分

  User-agent: *

  Disallow:

  例3. 仅禁止Baiduspider访问您的网站

  User-agent: Baiduspider

  Disallow: /

  例4. 仅允许Baiduspider访问您的网站

  User-agent: Baiduspider

  Disallow:

  例5. 禁止spider访问特定目录

  User-agent: *

  Disallow: /cgi-bin/

  Disallow: /tmp/

  Disallow: /data/

  注意事项:1)三个目录要分别写。2)请注意最后要带斜杠。3)带斜杠与不带斜杠的区别。

  例6. 允许访问特定目录中的部分url

  我希望a目录下只有b.htm允许访问,怎么写?

  User-agent: *

  Allow: /a/b.htm

  Disallow: /a/

  注:允许收录优先级要高于禁止收录。

  从例7开始说明通配符的使用。通配符包括("$" 结束符;

  "*"任意符)

  例7. 禁止访问网站中所有的动态页面

  User-agent: *

  Disallow: /*?*

  例8. 禁止搜索引擎抓取网站上所有图片

  User-agent: *

  Disallow: /*.jpg$

  Disallow: /*.jpeg$

  Disallow: /*.gif$

  Disallow: /*.png$

  Disallow: /*.bmp$

  其他很多情况呢,需要具体情况具体分析。只要你了解了这些语法规则以及通配符的使用,相信很多情况是可以解决的。

  最后,长春SEO自学网站长需要阐明一点,许多站长朋友喜爱把站点地图地址放在robots.txt文件中,当然这里并不是去屏蔽查找引擎,而是让查找引擎在首次索引网站的时分便能经过站点地图快速的抓取网站内容。这里需求注意一下:

  1、站点地图的制作必定要标准;

  2、网站必须要有高质量的内容;

 

再来说一下robots协议的高级写法,估计很多站长都不太知道。

搜索引擎robots.txt协议通配符*

搜索引擎robots.txt协议通配符*

  通配符*可代表任意长度,代表任意字符,例如:User-agent: *,*后面的字符我们是看不到的。

  例如你在robots.txt协议中写了disallow: /cat/,则表示网站所有URL链接中只有包含/cat/,搜索引擎就不会收录。

  比如:

  http://www.121seo.cn/cat/abc.htm

  http://www.121seo.cn/cat/abc.html

  http://www.121seo.cn/cat/abc/

  这几个URL链接搜索引擎就不会收录,因为链接中触发了robots.txt协议中禁止收录带有/cat/字符的命令。

  但这些也是有特殊的情况,那就是在allow和disallow后没有进行任何的赋值。

  例如:

  User-agent: *

  Disallow: /cyberworld/map/ # This is an infinite virtual URL space

  # Cybermapper 表示搜索引擎可访问网站任何页面。

  User-agent: cybermapper

  Disallow:

合并多个User-Agent

  如果你不想让多个搜索引擎的蜘蛛去爬取收录你的网站,耗费你网站服务器的资源,则你可以使用disallow屏蔽所有搜索引擎,或者也可以使用user-agent一次性屏蔽。

  User-agent: bad-bot-a

  User-agent: bad-bot-b

  Disallow: /

  这样的写法当你有多个user-agent的情况,虽然这个较复杂,但是使用的情况都是一样的。

  User-agent: bad-bot-a

  User-agent: bad-bot-b

  Disallow: /XXX

  #以下省略200行,这样的操作方法可让robots.txt协议变得简洁明了。

  如果我们想让搜索引擎访问访问我们已制定的好的sitemap,该如处理呢?

  可以在搜索引擎站长平台提交sitemap地图,也可以在robots.txt协议文件中写入网站sitemap地图URL路径,如果不想让搜索引擎访问sitemap地图,也可在网站robots.txt协议文件中进行屏蔽,具体的操作方法如下:

  User-agent: *

  Disallow: /sitemap.xml

  User-agent: baiduspider

  Disallow: /sitemap.xml

  Sitemap: http://www.121seo.cn/sitemap.xml

  Sitemap: http://www.121seo.cn/sitemap-all-lang.xml

  这样百度就能识别网站XML地图了。

Sitemap文件太大要如何办?

  搜索引擎对网站sitemap地图文件的大小和条数也是有所限制的,大小限制在10MB,条数限制在五万条,如果超过这两个数值,可把sitemap地图文件分割成多个sitemap文件,除开使用这种分拆的方法外,还可以使用sitemap索引文件。

  sitemap地图文件太大,传输就会无效率,或者效率低下,为了解决这个传输效率的问题,可采用GZIP压缩,但要注意的是也必须遵守sitemap地图文件小于10MB,数量也不能大于五万条。

  以上就是长春SEO自学网站长给大家介绍的robots.txt协议文件的高级应用,你学会了robots.txt协议的高级应用的写法了吗?如果你还有其他robots.txt协议设置小技巧欢迎留言告诉站长哟~


长春SEO学习_Robots协议写法详解 http://www.121seo.cn/mingci/345.html
以上文章出自长春SEO自学网未经作者许可,不得转载。2017-12-16 14:57:52"

分享到:
相关推荐: