当前位置:首页 > 长沙网站建设 > robots.txt文件用法举例

robots.txt文件用法举例

本站原创 2380

robots.txt文件用法举例

例1. 禁止所有搜索引擎访问网站的任何部分

User-agent: *

  Disallow: /

例2. 允许所有的robot访问

  (或者也可以建一个空文件 "/robots.txt")

User-agent: *

  Allow: /

例3. 仅禁止Baiduspider访问您的网站

User-agent: Baiduspider

  Disallow: /

例4. 仅允许Baiduspider访问您的网站

User-agent: Baiduspider

  Allow: /

例5. 禁止spider访问特定目录

  在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即robot不会访问这三个目录。需要注意的是对每一个目录必须分开声明,而不能写成 "Disallow: /cgi-bin/ /tmp/"。

User-agent: *

  Disallow: /cgi-bin/

  Disallow: /tmp/

  Disallow: /~joe/

例6. 允许访问特定目录中的部分url

User-agent: *

  Allow: /cgi-bin/see

  Allow: /tmp/hi

  Allow: /~joe/look

例7. 使用"*"限制访问url

  禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。

User-agent: *

  Disallow: /cgi-bin/*.htm

  

例8. 使用"$"限制访问url

  仅允许访问以".htm"为后缀的URL。

User-agent: *

  Allow: .htm$

例9. 禁止访问网站中所有的动态页面

User-agent: *

  Disallow: /*?*

例10. 禁止Baiduspider抓取网站上所有图片

  仅允许抓取网页,禁止抓取任何图片。

User-agent: Baiduspider

  Disallow: .jpg$

  Disallow: .jpeg$

  Disallow: .gif$

  Disallow: .png$

  Disallow: .bmp$

例11. 仅允许Baiduspider抓取网页和.gif格式图片

  允许抓取网页和gif格式图片,不允许抓取其他格式图片

User-agent: Baiduspider

  Allow: .gif$

  Disallow: .jpg$

  Disallow: .jpeg$

  Disallow: .png$

  Disallow: .bmp$

例12. 仅禁止Baiduspider抓取.jpg格式图片

User-agent: Baiduspider

  Disallow: .jpg$

发表评论
◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

  22:11:24
学海无涯  21:13:57
路过,学习了!

相关文章

ocpc二阶如何拓量?

ocpc二阶如何拓量?

点击率这块可以重点结合高级创意、视频创意去撰写;高的转化率,要在基木鱼多做页面进行测试。二阶之后,均价已经不是首要关注要素,要重点关注转化率、转化量和转化成本这些;排名可以不用重点关注;如果线索质量差...

ocpc第二阶段调整:究竟需要怎么调整?

ocpc第二阶段调整:究竟需要怎么调整?

我们知道ocpc第二阶段消费猛如虎,那么ocpc第二阶段调整,应该怎样进行呢?...

百度ocpc跳过第一阶段:这么做好不好呢?

百度ocpc跳过第一阶段:这么做好不好呢?

现在的百度推广ocpc是可以直接跳过第一阶段的数据积累的,这样能够直接进入二阶,采用的是零门槛或者低门槛,虽然这样达到进入二阶的目的,但是这样会导致后面ocpc的效果不可控,因此,优度站长是不建议直接...

百度ocpc怎么优化?

百度ocpc怎么优化?

由于现在百度ocpc的又是,越来越多的竞价选择加入百度ocpc了,但是真正能够玩转ocpc的竞价人员又有多少呢?...

百度竞价ocpc是什么?

百度竞价ocpc是什么?

ocpc是目前大部分百度竞价人员必学的一个知识,那么百度竞价ocpc怎么跑?...