从站点设计方面看网站被降权的原因
2019-03-15 来源:Chinaz用户投稿
网站优化的过程中,我们最怕出现的情况就是被降权,因为网站权重直接会影响到关键词排名,而没有排名就没有流量,没有流量就没有转化,最后没有转化的话,当然就没有收入啦。其实严格来讲,导致网站被降权的因素很多,今天我们就从网站的设计内容方面谈谈导致网站降权的原因。
1、iframe、js和flash过多
我们知道,一个有良好用户体验的网站必定是图文并茂的。但如果页面含有过多的flash或js或者iframe等框架则会导致搜索引擎爬行困难。由于搜索引擎目前为止尚不能读懂flash内容,也很难抓取框架内容,这就会导致页面出现不利于蜘蛛抓取的代码,同时会稀释代码中关键词的密度等。
2、缺少sitemap地图
如果我们网站的栏目和内容页面过多,就需要制作一个给蜘蛛看到导航地图,这就是sitemap网站地图。Sitemap包括有html和rss两种类型,有必要的话,把这两种类型的地图都制作好并放在根目录下,同时我们在每一个页面的顶部或者底部都给出sitemap的url,引导蜘蛛爬取。
3、内部链接数量过多
我们都知道页面要做好内链,但过多的内链和不合理分布的内链却会使效果适得其反。良好的页面应包含有相关、热点、推荐、随机等板块,页面内链的数量应控制在100以内,这样既有利于收录也有利于用户体验。
4、内容字节数过少
搜索引擎要求页面有更多的原创内容出现,而很多站长并不能够花太多时间去做这个内容,于是我们经常发现有些页面主题内容字节数过少。这样做的危害就会导致页面重复度过高,从而可能会被认为是相同页面或者相似页面。
5、alt堆积关键词
由于搜索引擎尚不能读取图片内容,因此我们需要在alt里加入文字描述。Alt描述应该是一句通顺的语句而不是胡乱堆积关键词。
6、死链接
有时我们不得不面临网站改版,于是很多页面对于新站来说都不适合了,这样很多站长可能会把原先的页面删除了。由于在搜索引擎数据库里一句存在了这些页面的url,这是我们就要做好404页面和404状态码。
7、bobots.txt错误
网站根目录下的robots.txt里的内容是告诉搜索引擎哪些内容是允许访问的,哪些内容是不允许访问的。很多人不注意robots文件的设置,特别是站点测试时所加入的一些屏蔽蜘蛛的属性,如果上线时忘记修改,势必造成收录困难。
8、广告联盟过多
很多草根站长,特别是只靠流量赚取广告点击的站点,页面或加入许多广告联盟的广告,其实广告加的过多也会影响的页面加载速度,况且很多广告也是js调用的,这些都会对页面产生负面影响。
9、网站加载速度过慢
之前的文章中我说过服务器影响排名的问题,这里就不过多讲述了。总之,服务器的稳定性和加载速度直接影响到排名和权重。
以上从9个方面分析了设计内容方面导致网站降权的原因,当网站被将降权时不妨先按照此思路先认真反思下,再及时改正以便恢复权重。本文由腕式电子止鼾器http://www.koloyo.com站长合肥妈妈原创,版权问题你懂的。
版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点!
本站所提供的图片等素材,版权归原作者所有,如需使用,请与原作者联系。
下一篇:网站内部优化导读(二)