关于织梦DEDECMS robots文件设置的想法

2019-12-26    来源:1886sj.com

容器云强势上线!快速搭建集群,上万Linux镜像随意使用

用织梦DEDECMS建站的站长会发现,DEDECMS自带的robots.txt文件设置很简单(开发者基于每个网站的目录结构和优化目的不同的考虑),并不能完全满足网站的优化要求,那怎样才能结合自己网站的情况,做好robots.txt优化呢?以下介绍一点自己的想法,仅供参考。

适用于未伪静态的DEDECMS网站。

User-agent: *

Disallow: /dede 管理后台目录,需要改名,具体设置后面具体讲

Disallow: /include 程序核心文件目录

Disallow: /member 会员管理目录,有些文件可以开放

Disallow: /plus 插件及辅助功能目录 ,有些文件可以开放,如search.php

Disallow: /templets 默认模板存放目录

Disallow: /data 系统缓存或其它可写入数据存放目录

Disallow: /uploads 上传下载文件保存目录,不想搜索引擎引用图片的话,禁止

Disallow: /images 系统默认模板图片存放目录

Disallow: /index.php 网站默认首页,静态化的话,最好禁止

Disallow: /404.html

Allow: /plus/search.php 开放禁止目录里的具体文件

...

基本设置就是这样,下面着重讲下后台管理目录和栏目页的设置:

1.dede目录,为了网站安全考虑需要改名。然而改名之后,大家不免疑惑:改了名,在robots.txt文件里怎么设置呢?直接禁止抓取,还是泄露了后台目录,等于改名无效。那么该如何解决这个问题呢?我们可以通过下面的设置解决这个问题,如后台目录为dedecms:

Disallow: /d*ms

这样我们就能即禁止了搜索引擎的抓取,又不会泄露了后台目录名称。

2.栏目页。有些人会注意到,如果网站不做伪静态优化的话,栏目分页后会有两个链接指向栏目首页,如*/web/和*/web/list_1_1.html,为了网站优化,建议先将栏目分页优化以下(具体做法大家可以在网上找),把首页和第一页的链接改为*/web/的形式,然后在robots.txt文件里做以下设置:

Disallow: /*1.html$

以上就是DEDECMS robots.txt文件的设置,大家可以根据自己网站的情况具体设置。

注意事项:

1.按官方说明设置好目录权限;

2.后台目录改后的名称开头字母和结尾字母不要和其他目录一样;

3.用百度站长工具测试一下robots.txt文件设置是否有效。

本文由http://www.1886sj.com编辑。

标签: dedecms robots 网站

版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点!
本站所提供的图片等素材,版权归原作者所有,如需使用,请与原作者联系。

上一篇:默认首页index/default做301重定向的思考

下一篇:百度大面积k站 到底是站长问题还是度娘身体不适