网站建设,网站优化,竞价托管,网站托管,全网营销,品牌推广,就找千佰特
当前位置:SEO网站优化>SEO技术博客 > SEO技术 > 正文

规范的robots.txt协议文件写法

09-18 SEO技术

 

 
深圳SEO发现很多建站系统,在建成网站后,都网站根目录,默认有robots.txt协议文件。处在深圳网站优化竞争极其激烈的现状,网站的任何一个细节点,都可能成为竞争取得胜利的关键,比如旧版本设立之初无优化因素的robots.txt文件也被最大化使用,熟练掌握它写法,让你的SEO优化工作有备无患。
 
 规范的robots.txt协议文件写法
 
一:robots.txt协议文件有什么用?
搜索引擎访问一个网站的时候,最先访问的文件就是robots.txt。她告诉搜索引擎蜘蛛,哪些网站页面可以被抓取,哪些禁止抓取。表面来看,这个功能作用有限。从搜索引擎优化的角度来看,可以通过屏蔽页面,达到集中权重的作用,这,也是优化人员最为看重的地方。
以某seo站点为例,其robots.txt文件如图所示:
 
 规范的robots.txt协议文件写法
 
二:网站设置robots.txt的几个原因。
1:设置访问权限保护网站安全。
2:禁止搜索引擎爬取无效页面,集中权值到主要页面。
 
三:怎么用标准写法书写协议?
有几个概念需掌握。
User-agent表示定义哪个搜索引擎,如User-agent:Baiduspider,定义百度蜘蛛。
Disallow表示禁止访问。
Allow表示运行访问。
通过以上三个命令,可以组合多种写法,允许哪个搜索引擎访问或禁止哪个页面。
 
四:robots.txt文件放在那里?
此文件需放置在网站的根目录,且对字母大小有限制,文件名必须为小写字母。所有的命令第一个字母需大写,其余的小写。且命令之后要有一个英文字符空格。

五:哪些时候需要使用该协议。
1:无用页面,很多网站都有联系我们,用户协议等页面,这些页面相对于搜索引擎优化来讲,作用不大,此时需要使用Disallow命令禁止这些页面被搜索引擎抓取。
2:动态页面,企业类型站点屏蔽动态页面,有利于网站安全。且多个网址访问同一页面,会造成权重分散。因此,一般情况下,屏蔽动态页面,保留静态或伪静态页面。
3:网站后台页面,网站后台也可以归类于无用页面,禁止收录有百益而无一害。
 
深圳SEO优化http://seo.qbt8.com/
 

版权保护: 本文由 深圳SEO公司 原创,转载请保留链接: http://seo.qbt8.com/blog/seo/220.html

博主千佰特SEO专员
深圳SEO博客-由深圳SEO网站优化外包公司(千佰特)团队所创立的SEO技术博客,主要由企业在职关键词优化排名的人员更新SEO技术文章,深圳SEO优化服务就找千佰特,热线:0755-83174789
  • 文章总数
  • 39637访问次数
  • 建站天数
  • 标签