1、减少死链数量
很多时候由于网站运营过程中需要改版,或是对一些内容的删除等操作,就很容易出现死链,也许一两个没什么问题,而一旦死链数量积少成多了就很容易出现问题了。
一般情况下,如果是改版比如改变URL带来的死链,那么就最好做301重定向;如果批量删除的页面,能够找到规律的那么做301或者直接在robots.txt文件里disallow掉,没有规律的那么可以把死链整理出来提交给百度死链工具。
2、减少多入口页面数量
其实就是一个页面可以通过多个URL访问的问题,这点对于静态页面生成的网站倒不会有什么问题,但不是所有程序都支持静态页面生成,比如做了伪静态的动态程序就会出现一个页面对应了两个URL,那么屏蔽掉其中一个是肯定要做的。
前面说的那个网站就是出现了这个问题,是asp动态程序,做了伪静态,但由于技术和程序方面的问题导致网站伪静态不彻底,有的页面做了伪静态,有的却没有,这样的问题就很头疼了,很容易忽视掉一些页面,久而久之,这些问题就厚积薄发了。
3、减少页面打开时间
这个就是涉及到网站加载的问题了,网站加载和蜘蛛的爬行索引有很大关系,网站访问速度过慢不仅影响了网站用户体验,加载过慢也很容易导致蜘蛛爬行存在问题,以及抓取不全等,除了需要有稳定快速的服务器支持之外,网站程序的减负也是很关键的。
4、减少低质量的页面收录
收录数量对于来说当然是需要增加的,但是需要增加的是有价值的高质量内容页面的收录。有的网站会把新闻评论单独放到一个页面里,以达到增加收录数量的目的,对于一个评论活跃度较高的网站来说这当然没什么问题,毕竟这都是原创页面,对搜索引擎而言是高质量的,但如果本身评论就很少,或者绝大部分新闻都没有评论,那么就生成了大量空白评论的垃圾页面,如果不及时解决也很容易出问题的,最好的办法是取消这些页面的存在,如果非要存在那也必须要disallow掉。
5、减少低质量
一般情况下网站存在垃圾外链是很正常的事情,毕竟外链不是站长能够完全控制的,但如果外链质量都很低或者存在大量垃圾外链,那对网站的SEO也是有很大影响,所以减少低质量外链也是需要注意的问题,对于这一点谷歌推出了否认链接工具,百度方面暂时似乎没有很快捷的办法,除了手动寻找删除之外,另一方面就是通过增加高质量外链来达到此消彼长的效果。
6、减少蜘蛛无意义的抓取
一般搜索蜘蛛会根据程度给予一个网站一定范围的抓取次数,这点可以从IIS日志里观察到,蜘蛛抓取次数一般不会有太大的波动,但我们可以提高蜘蛛抓取的质量,比如减少一些无意义页面的抓取,增加一些页面的抓取机会。