外链代发包收录,纯手工外链代发就找老客外链吧

站长新闻

您的位置:老客外链吧 > 站长新闻 > 外链 >

robots的写法,及作用

文章来源:老客外链 作者:老客外链 人气:13 时间2020-05-12 23:56:56

  robots.txt文件应该放在网站根目录下,用好robots是很容易为你网站提权的。主要作用是让搜索引擎抓取什么,不让搜索引擎抓取什么
 
  一、robots.txt 的写法:
 
  1. User-agent: *
 
  意思是允许所有搜索引擎收录,星号代表所有。
 
  2. Disallow:/
 
  意思是禁止搜索引擎收录页面。
 
  3. 禁止所有搜索引擎访问网站的所有部分
 
  User-agent: *
 
  Disallow: /
 
  4. 禁止百度索引你的网站
 
  User-agent: Baiduspider
 
  Disallow: /
 
  5. 禁止Google索引你的网站
 
  User-agent: Googlebot
 
  Disallow: /
 
  6. 禁止除Google外的一切搜索引擎索引你的网站
 
  User-agent: Googlebot
 
  Disallow:
 
  User-agent: *
 
  Disallow: /
 
  7. 禁止除百度外的一切搜索引擎索引你的网站
 
  User-agent: Baiduspider
 
  Disallow:
 
  User-agent: *
 
  Disallow: /
 
  8. 禁止蜘蛛访问某个目录
 
  (例如禁止admincssimages被索引)
 
  User-agent: *
 
  Disallow: /css/
 
  Disallow: /admin/
 
  Disallow: /images/
 
  9. 允许访问某个目录中的某些特定网址
 
  User-agent: *
 
  Allow: /css/my
 
  Allow: /admin/html
 
  Allow: /images/index
 
  Disallow: /css/
 
  Disallow: /admin/
 
  Disallow: /images/
 
  在SEO优化过程中,对于蜘蛛的了解和控制至关重要,关于robot.txt的写法还有很多,希望以上这些对大家有帮助。
 
  二、robots.txt 注意事项:
 
  1. 如果你希望搜索引擎收录网站上所有的内容,那么就不要建立robots.txt文件。
 
  2. 如果同时存在动态和静态链接,那么建议屏蔽动态链接。
 
  3. robots.txt只能是屏蔽站内文件的,对站外文件没有屏蔽功能。
 
  4. User-agent,Allow,Disallow,Sitemap的首字母都是大写的。
 
  5. User-agent,Allow,Disallow,Sitemap的冒号后面都是有空格的,没有写空格直接写接下来的内容会出错。
 
  6. 网站通常会屏蔽搜索结果页面。因为搜索结果页和正常展示的内容页相比,标题和内容上相同的,而这两个页面链接是不同的。那搜索引擎该将这篇文章归属于哪个内链呢,这样就会造成内链之间相互竞争,造成内部资源损耗。
 
  7. 建议屏蔽js文件。Disallow: /*.js$,以 .js 结尾的路径统统被屏蔽,这样就屏蔽了js文件。
 
  8. 路径是区分大小写的。Disallow: /ab/ 和 Disallow: /Ab/ 是不一样的。
 
  9. robots.txt会暴露网站相关目录,写robots.txt时要考虑到这一点。
 
  10. 有些seo会将文件直接备份在服务器中,文件是 .zip 格式,然后在robots.txt中屏蔽。个人不建议这样,这就是明显告诉人家你的备份文件位置。建议文件和数据都备份到本地。
 
  11. 必须命名为:robots.txt 都是小写,robot后面加"s"。

联系我们

在线服务 外链咨询 二维码

扫码添加微信:juxia_com