robots.txt用法和seo作用-Googlebot/Baiduspider
2019-03-13 23:55:13来源: farlee.info 阅读 ()
通过给网站设置适当的robots.txt对Google和百度seo优化的作用是很明显的。WordPress博客网站也一样。
我们先看看robots.txt是什么,有什么作用?
robots.txt是什么?
我们都知道txt后缀的文件是纯文本文档,robots是机器人的意思,所以顾名思义,robots.txt文件也就是给搜索引擎蜘蛛这个机器人看 的纯文本文件。robots.txt是搜索引擎公认遵循的一个规范文 档,它告诉Google、百度等搜索引擎哪些网页允许抓取、索引并在搜索结果中显示,哪些网页是被禁止收录的。 搜索引擎蜘蛛 spider(Googlebot/Baiduspider)来访问你的网站页面的时候,首先会查看你的网站根目录下是否有robots.txt文件,如 果有则按照里面设置的规则权限对你网站页面进行抓取和索引。如淘宝网就通过设置robots.txt屏蔽百度搜索引擎:
User-agent: Baiduspider Disallow: / User-agent: baiduspider Disallow: / |
robots.txt的作用
我们了解了什么是robots.txt,那它有什么作用,总体来说,robots.txt文件至少有下面两方面的作用:
1、通过设置屏蔽搜索引擎访问不必要被收录的网站页面,可以大大减少因spider抓取页面所占用的网站带宽,小网站不明显,大型网站就很明显了。
2、设置robots.txt可以指定google或百度不去索引哪些网址,比如我们通过url重写将动态网址静态化为永久固定链接之后,就可以通过robots.txt设置权限,阻止Google或百度等搜索引擎索引那些动态网址,从而大大减少了网站重复页面,对SEO优化起到了很明显的作用。
robots.txt的写法
关于如何写robots.txt文件,在下面我们会以WordPress博客来作更具体举例说明。这里先提示几点robots.txt写法中应该注意的地方。如robots.txt文件里写入以下代码:
User-agent: * Disallow: Allow: / |
robots.txt必须上传到你的网站根名录下,在子目录下无效;
robots.txt,Disallow等必须注意大小写,不能变化;
User-agent,Disallow等后面的冒号必须是英文状态下的,冒号后面可以空一格,也可以不空格。网上有人说冒号后面必须有空格,其实没有也是可以的,请看谷歌中文网站管理员博客的设置就是这样:http://www.googlechinawebmaster.com/robots.txt ;
User-agent表示搜索引擎spider:星号“*”代表所有spider,Google的spider是“Googlebot”,百度是“Baiduspider”;
Disallow:表示不允许搜索引擎访问和索引的目录;
Allow:指明允许spider访问和索引的目录,Allow: /
表示允许所有,和Disallow:
等效。
robots.txt文件写法举例说明
禁止Google/百度等所有搜索引擎访问整个网站 |
User-agent: * |
允许所有的搜索引擎spider访问整个网站(Disallow:可以用Allow: /替代) |
User-agent: * |
禁止Baiduspider访问您的网站,Google等其他搜索引擎不阻止 |
User-agent: Baiduspider |
只允许Google spider: Googlebot访问您的网站,禁止百度等其他搜索引擎 |
User-agent: Googlebot |
禁止搜索引擎蜘蛛spider访问指定目录 |
User-agent: * |
禁止搜索引擎spider访问指定目录,但允许访问该指定目录的某个子目录 |
User-agent: * |
使用通配符星号"*"设置禁止访问的url |
User-agent: * |
使用美元符号"$"设置禁止访问某一后缀的文件 |
User-agent: * |
阻止google、百度等所有搜索引擎访问网站中所有带有?的动态网址页面 |
User-agent: * |
阻止Google spider:Googlebot访问网站上某种格式的图片 |
User-agent: Googlebot |
只允许Google spider:Googlebot抓取网页和.gif格式图片 |
User-agent: Googlebot |
只禁止Google spider:Googlebot抓取.jpg格式图片 |
User-agent: Googlebot |
Google和百度对robots.txt文件的介绍: Google robotstxt,百度 robots.txt。
文章来源:http://farlee.info/archives/robots-txt-seo-googlebot-baiduspider.html 作者:FarLee
标签:
版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点,本站所提供的摄影照片,插画,设计作品,如需使用,请与原作者联系,版权归原作者所有
- 回顾 SEOVIP 培训单页,如何快速排名百度首页 2019-08-23
- 拼了命努力的SEOer,倒不如利用这几招月收入破万! 2019-04-10
- 详解HTTPS改造全过程 2019-04-10
- 熊掌号来了,SEO的“中年危机”何解? 2019-04-10
- 追逐算法更新何时了? 2019-04-10
IDC资讯: 主机资讯 注册资讯 托管资讯 vps资讯 网站建设
网站运营: 建站经验 策划盈利 搜索优化 网站推广 免费资源
网络编程: Asp.Net编程 Asp编程 Php编程 Xml编程 Access Mssql Mysql 其它
服务器技术: Web服务器 Ftp服务器 Mail服务器 Dns服务器 安全防护
软件技巧: 其它软件 Word Excel Powerpoint Ghost Vista QQ空间 QQ FlashGet 迅雷
网页制作: FrontPages Dreamweaver Javascript css photoshop fireworks Flash