神州彩票测速网址: 网站优化robots.txt的原理与设置

神州彩票app下载安装 / 网站优化 / 时间:2018-11-06 19:09
做过网站优化的朋友都知道,搜索引擎蜘蛛爬行抓取网站时首先会去访问根目录下的robots.txt文件,如果robots文件存在,则会根据robots文件内设置的规则进行爬行抓取,如果文件不存在则会顺着首页进行抓取,那么robots文件的工作原理是什么呢?如何对robots.txt文件进行设置

网站优化robots.txt的原理与设置
一、robots.txt的工作原理
 
robots.txt是一个纯文本的文件,文件的名字必须全部小写,并且放置在网站的根目录下面,通过文件中的规则声明网站哪些内容不想被搜索引擎蜘蛛抓取收录,或者指定某个搜索引擎不能收录robots.txt也叫做爬虫协议,遵循爬虫协议的搜索引擎蜘蛛,都会根据协议的内容对网站进行爬虫抓取的。
 
二、robots.txt的设置
 
1.User-agent的设置
 
在"robots.txt"文件中,如果有多条 User-agent 记录说明有多个 robot 会受到"robots.txt"的限制,对该文件来说,至少要有一条 User-agent 记录。如果该项的值设为*,则对任何 robot均有效,在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。
 
2.Disallow的设置
 
这个值可以是一条完整的路径,也可以是路径的非空前缀,以 Disallow 项的值开头的URL不会被 robot 访问。
 
3.Allow的设置
 
与 Disallow 项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以 Allow项的值开头的 URL是允许robot访问的。
 
合理的运用robots.txt文件对网站优化能起到很大的作用,比如当网站出现死链的时候,可以通过robots.txt文件进行屏蔽,这样就不会影响到网站的排名,另外还可以在robots.txt添加网站地图URL,能有效的帮助搜索引擎蜘蛛对网站内容的爬行抓取。

神州彩票app下载安装 www.38uoo.com.cn 神州彩票app下载安装半杯酒博客文章,转载请注明原文网址摘自 //www.38uoo.com.cn/wangzhanyouhua/838.html,谢谢配合!

微信扫一扫,关注我们
1
神州彩票app下载安装
  • 老人公园弹琴  人民日报记者带你看空袭一日后的大马士革 2018-12-17
  • 构建命运共同体  开启上合新时代 2018-12-17
  • 也门国防部说打死250名胡塞武装人员 2018-12-16
  • 九江濂溪区从源头上解决环境污染问题 2018-12-16
  • 男子抢劫杀人为“找钱”创业 司机装死逃命 2018-12-15
  • 余世存:阅读经典不仅是消费,也是责任 2018-12-14
  • 我省首例侵犯公民个人信息案终审宣判 2018-12-13
  • 国际难题面前要秉持“公义”(钟声) 2018-12-13
  • 热刺班底领衔 抽上签的“欧洲中国队”能否破尴尬纪录 2018-12-12
  • 渭滨区结合村委会换届选举等农村基层工作开展反邪教宣传 2018-12-12
  • 2016年,有1145家上市公司大小非减持了3600亿元,还有210名上市公司高管减持了1400亿元。IPO已成了造就成千上万个十亿、百亿富豪的捷径, 2018-12-11
  • 2018 Yorkville Exotic Car Show kicks off in Toronto - Culture News - CQNEWS 2018-12-11
  • 国税地税合并!国家税务总局河北省税务局正式挂牌 2018-12-10
  • 换个口味过端午 “粽”能让你心动 2018-12-09
  • 这些事实都在打四两如梦的脸[微笑] 2018-12-09
  • 483| 563| 499| 260| 255| 933| 650| 593| 721| 648|