为WordPress设置最佳Robots.txt的SEO优化规则

2018-05-04 0 3,589

为WordPress设置最佳Robots.txt的SEO优化规则 也想出现在这里?点击联系我~
为WordPress设置最佳Robots.txt的SEO优化规则
为WordPress设置最佳Robots.txt的SEO优化规则

为WordPress设置最佳Robots.txt的SEO优化规则!说到robots.txt大家已经都不会陌生了,但是有些时候很多的细节却还是没有被大多数人注意,比如seo优化人员们经常会忽略一个细节,导致最近的一些文章在搜索引擎结果中出现了重复而没有意义的链接,如果你也是使用的wordpress,不妨你也看看你自己的robots.txt文件。

为WordPress设置最佳Robots.txt的SEO优化规则 为WordPress设置最佳Robots.txt的SEO优化规则

如果你的WordPress站点还没有robots.txt文件,那么浩沐觉得你就更有必要添加一个了,即使你的站点可以让搜索引擎随意抓取,因为搜索引擎机器人访问网站时,首先会寻找站点根目录有没有 robots.txt文件,如果有这个文件就根据文件的内容确定收录范围,如果没有就按默认访问以及收录所有页面。另外,当搜索蜘蛛发现不存在robots.txt文件时,会产生一个404错误日志在服务器上,从而增加服务器的负担,因此为站点添加一个robots.txt文件还是很重要的。

好了,还是来分享一个经过浩沐整理的比较完善的适用于WordPress的robots.txt文件内容吧!

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-content/
Disallow: /wp-includes/
Disallow: /trackback/
Disallow: /comments/
Disallow: /attachment/
Disallow: /comments/feed
Disallow: /feed
Disallow: /*/feed
Disallow: /*/comment-page-*
Disallow: /*?replytocom=*
Disallow: /*/trackback
Disallow: /?s=*
Disallow: /*/?s=*\
Disallow: /wp-*.php
 
Sitemap: http://www.dhaomu.com/sitemap.xml

使用方法:新建一个名称为robots.txt文本文件,将以上的内容放进去,然后上传到网站根目录即可。

最后还是简单的解析一下其对应作用

User-agent: *

允许所有搜索引擎抓取网站,除非你网站有特别针对某个或多个搜索引擎,你可以适当的设置其抓取。如下只允许百度和谷歌抓取:

User-agent: Baiduspider
Disallow: /
User-agent: Googlebot
Disallow: /

这样设置的意思为只允许百度和谷歌的蜘蛛抓取所有,但是这里子凡用的是Disallow并设置的/根目录,所以这里其实是禁止了百度和谷歌抓取,如果要允许所有可以使用Allow,大家可以举一反三的使用,仔细的体会感受一下。

Disallow: /wp-admin/、Disallow: /wp-content/和Disallow: /wp-includes/

用于告诉搜索引擎不要抓取后台程序文件页面。

Disallow:

Disallow: /*/comment-page-*和Disallow: /*?replytocom=*

禁止搜索引擎抓取评论分页等相关链接。

Disallow:

Disallow: /category/*/page/和Disallow: /tag/*/page/

禁止搜索引擎抓取收录分类和标签的分页。(这一条浩沐并未添加到上面演示,因为不同WordPress站点可能会有所不同,大家可以根据需要添加)

Disallow: /*/trackback和Disallow: /trackback/

禁止搜索引擎抓取收录trackback等垃圾信息

Disallow: /feed、Disallow: /*/feed和Disallow: /comments/feed

禁止搜索引擎抓取收录feed链接,feed只用于订阅本站,与搜索引擎无关。

Disallow: /?s=

Disallow: /?s=*和Disallow: /*/?s=*\

禁止搜索引擎抓取站内搜索结果

Disallow: /attachment/

禁止搜索引擎抓取附件页面,比如毫无意义的图片附件页面。

Disallow: /wp-*.php

禁止搜索引擎抓取WordPress网站根目录的以wp开头的文件。

Sitemap: http://www.dhaomu.com/sitemap.html

这个就是为了方便搜索引擎利用的网站地图,具体的根据自己网站需要添加。

其实关于网站robots.txt的内容还有很多很多,这里浩沐就只是列举了WordPress最常用的一些规则罢了,如果不是最近因为浩沐资源网的robots.txt出现一些马虎导致了问题,也不会单独在整理关于WordPress的robots.txt了,不管怎么样,希望能帮助到大家!

收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

声明: 本站仅提供资源学习下载,资源费用仅为赞助站长的整理费,不代表资源自身价值也不包含任何服务。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。
本站提供的资源来自网络,版权争议与本站无关,所有内容及软件的文章仅限用于学习和研究目的。
如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。侵删请致信E-mail:duhaomu@163.com

浩沐资源网 未分类 为WordPress设置最佳Robots.txt的SEO优化规则 https://www.haomu.top/31979.html

相关文章

发表评论
暂无评论
  • 0 +

    访问总数

  • 0 +

    会员总数

  • 0 +

    文章总数

  • 0 +

    今日发布

  • 0 +

    本周发布

  • 0 +

    运行天数

你的前景,远超我们想象