网站SEO优化诊断之robots.txt文件配置误区及详细写法

2016-08-24 0 1,597

网站SEO优化诊断之.txt文件配置误区及详细写法!在网站的基本结构诊断中,浩沐已经分别从《》及《》分析过来,接下来我们将从网站的一个特殊文件s.txt,来继续探索网站SEO诊断中的基本结构优化。

网站SEO优化诊断之robots.txt文件配置误区及详细写法

我们都知道搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。

您可以在您的网站中创建一个robots.txt,在文件中声明该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。所以这将是我们网站SEO诊断检查的第一要素,因为一旦不小心定义错了robots.txt文件,网站将可能消失在搜索引擎结果中,以下浩沐将会列举需要注意事项,以及robots.txt文件的详细写法和robots书写例子,同时也收集拓展了一些各大搜索引擎蜘蛛名称。

网站robots.txt文件注意事项

robots.txt文件必不可少

不论你网站有没有需要禁止搜索引擎抓取的目录或者页面,浩沐都建议大家添加一个robots.txt文件,因为当搜索蜘蛛发现不存在robots.txt文件时,会产生一个404错误日志在服务器上,从而增加服务器的负担,因此为站点添加一个robots.txt文件还是很重要的。

robots.txt文件命名

可能很多人习惯把因为首字母大写,包括子凡有时候都有这个习惯,所以在robots.txt文件命名必须全部小写。

robots.txt文件位置

robots.txt必须放置与站点的根目录下,如果放置在二级目录等位置搜索引擎抓取时均会被忽略。

robots文件书写注意

在书写这些Robots规则语句的时候尤其注意的一点是冒号(:)和( /) 之间要有一个空格符,如果这个空格没有加的话,是不能起到作用的,并且冒号需要是英文半角输入,否则也是无效。

robots规则首字母大写

robots文件规则的写法中,每一行规则的关键字的首字母都是大写的,如:User-agent、Disallow、Allow、Sitemap

robots规则符号的区别

在屏蔽目录的时候,如果是阻止抓取某目录的话目录名字一定要注意“/”,不带“/”表示的是阻止访问这个目录页面和目录下的页面,而带上“/”则表示进阻止目录下的内容页面,这两点要分清楚。

robots中添加网站地图链接

为了让搜索引擎更快的收录我们的内页,我们一般都会做一个xml的百度地图或者谷歌地图,Sitemap: 网站地图,这个命令就可以快速的引导搜索引擎蜘蛛来到你的地图页面对网站内页进行抓取。当网站的死链接过多处理非常麻烦的时候,我们可以利用robots来屏蔽这些页面,这样就可以避免网站因为死链接被百度降权。

网站robots.txt语句详细写法

User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符
Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录
Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以”.htm”为后缀的URL(包含子目录)。
Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址
Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片
Disallow:/a/b.html 禁止爬取a文件夹下面的b.html文件。
Allow: /cgi-bin/ 这里定义是允许爬寻cgi-bin目录下面的目录
Allow: /tmp 这里定义是允许爬寻tmp的整个目录
Allow: .htm$ 仅允许访问以”.htm”为后缀的URL。
Allow: .gif$ 允许抓取网页和gif格式图片
Sitemap: 网站地图 告诉爬虫这个页面是网站地图

网站robots.txt写法举例

禁止所有搜索引擎访问网站的所有部分

User-agent: *
Disallow: /

禁止百度索引你的网站

User-agent: Baiduspider
Disallow: /

禁止Google索引你的网站

User-agent: Googlebot
Disallow: /

禁止除Google外的一切搜索引擎索引你的网站

User-agent: Googlebot
Disallow:
User-agent: *
Disallow: /

禁止除百度外的一切搜索引擎索引你的网站

User-agent: Baiduspider
Disallow:
User-agent: *
Disallow: /

禁止蜘蛛访问某个目录

User-agent: *
Disallow: /css/

允许访问某个目录中的某些特定网址

User-agent: *
Allow: /admin/html
Allow: /images/index
Disallow: /admin/
Disallow: /images/

常见的各大搜索引擎蜘蛛名称

  • 百度蜘蛛:Baiduspider,Baiduspider-mobile(抓取wap)、Baiduspider-image(抓取图片)、Baiduspider-video(抓取视频)、Baiduspider-news(抓取新闻)。注:以上百度蜘蛛目前常见的是Baiduspider和Baiduspider-image两种。
  • 谷歌蜘蛛:Googlebot,这个争议较少,但也有说是GoogleBot的。谷歌蜘蛛最新名称为“compatible; Googlebot/2.1;”。还发现了Googlebot-Mobile,看名字是抓取wap内容的。
  • 360蜘蛛:360Spider,它是一个很“勤奋抓爬”的蜘蛛。
  • 搜狗蜘蛛:Sogou News Spider,搜狗蜘蛛还包括如下这些:Sogou web spider、Sogou inst spider、Sogou spider
  • Sogou blog、Sogou News Spider、Sogou Orion spider,(参考一些网站的robots文件,搜狗蜘蛛名称可以用Sogou概括,无法验证不知道有没有效)看看最权威的百度的robots.txt ,http://www.baidu.com/robots.txt 就为Sogou搜狗蜘蛛费了不少字节,占了一大块领地。
  • MSN蜘蛛:MSNBot
  • 必应蜘蛛:bingbot ,线上(compatible; bingbot/2.0;)
  • 一搜蜘蛛:YisouSpider
  • Alexa蜘蛛:ia_archiver
  • 宜sou蜘蛛:EasouSpider
  • 即刻蜘蛛:JikeSpider
  • 一淘网蜘蛛:EtaoSpider

写在最后:关于网站robots.txt文件的优化和设置等其实浩沐之前就在泪雪博客发表过,只是都没有非常全面的来分析robots,包括前些天浩沐分享的一个《》,所以浩沐才在写这一系列网站SEO诊断中单独用最详细的一篇文章来讲解,为的就是一个全面。如果你有耐心慢慢的将本文熟悉,相信对于在网站SEO诊断中的robots.txt文件优化中会有莫大的收获,至少浩沐觉得这肯定是一篇干货文章。当然,如果你还有什么疑问或补充的,欢迎在留言讨论。

收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

声明: 本站仅提供资源学习下载,资源费用仅为赞助站长的整理费,不代表资源自身价值也不包含任何服务。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。
本站提供的资源来自网络,版权争议与本站无关,所有内容及软件的文章仅限用于学习和研究目的。
如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。侵删请致信E-mail:duhaomu@163.com

浩沐资源网 未分类 网站SEO优化诊断之robots.txt文件配置误区及详细写法 https://www.haomu.top/31607.html

相关文章

发表评论
暂无评论
  • 0 +

    访问总数

  • 0 +

    会员总数

  • 0 +

    文章总数

  • 0 +

    今日发布

  • 0 +

    本周发布

  • 0 +

    运行天数

你的前景,远超我们想象