哪些因素在影响SEO的实施效果?

2019-03-08    来源:www.ycseo.org

容器云强势上线!快速搭建集群,上万Linux镜像随意使用

SEOER在做SEO的时候,可能或多或少的会碰到很多困难,或大或小。但是在解决这些问题的时候,你们会考虑那些因素影响了SEO效果嘛?

最根本的还是那些最细微的地方,下面我罗列一下,我最近工作中总结出来的细节部分:(下面的网站都是放在国内的,一个上海电信,另外一个浙江电信,数据建立在google webmaster tool之上。)

1、服务器的速度问题,google的爬虫很多是中国联通(网通)的ip来的,百度的可能好点,我现在负责的一个站,爬虫都是北京电信的,如果你们在优化国内站的时候,不能忽视google的数据,在google管理员工具里。

上面2个图,很清楚的就能够说明白,加载时间的差异了,试想一下,如果是我们用户,等上10秒钟,可能都走了,不愿意等待了,同样爬虫也是一样的,第一个解决的问题就是网速问题。

2、网速解决了,在服务器稳定的情况下,试下让google爬虫多来几次吧。

在你的服务器稳定的情况下,调到最大吧,注意一下日志,每天爬虫太大的话,会把你的服务器或者虚拟空间带宽给吃光的。

这是服务器就一个站,每天稳定在4500左右的爬虫数量,调到最大还是没问题的,每天爬虫一共下载在几百M左右,如果你是虚拟主机的话,数据不多的话,可以调到最大,适可而止吧。

上面2点是最基础的一些内容,先吧速度解决了,下面要做的就是

看看这个错误是很多的,大中型的网站,在经历了网站代码调整或者UED的修改后,网站肯定会出现错误的代码,如何更好的解决?这里有2个办法,一个 是google管理员工具的html建议,还有一个就是日志的分析错误的状态码。(日志篇分析,下次放出)这里的错误没啥讲的,看着错误,一条一条的改 吧。

最后说一下是链接的问题:

这里的问题应该不要我多说的,这个也是一个重点关注的地方,有很多人的链接建设不完善的,首页也就是域名的外链太多,真正的有用的数据,可能几年都没有被爬虫抓取到,适当的做点内容页或者栏目页的链接,让爬虫的入口更多一些。

内链的建设也是差不多的思路,网上也有很多的方法的可以用的。

说了这么多,下面总结一下:1、网站网速的问题 2、爬虫抓取问题 3、整改html的错误 4、内外链的处理,这些看起来的小问题,做起来可不是一件容易的事。

最后还是一句话,多去关注google webmaster tool 和日志的分析,对大中型网站的优化还是有很多帮助的。

作者:上海seo筱巍

转载请注意带上链接:http://www.ycseo.org/160.html

标签: 搜索优化 服务器稳定性 网站内链优化 

版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点!
本站所提供的图片等素材,版权归原作者所有,如需使用,请与原作者联系。

上一篇:分享如何巩固网站排名的经验

下一篇:浅谈新站如何做好网站SEO