网站收录不充分的四大原因
2019-03-21 来源:年斌博客
老一代革命家张国平老师一直都很重视网站的数据分析,他也曾经说过不看网站数据,而直接进行seo的人绝对是世外高人。笔者也在之前的文章中反复强调过新人站长应该每天做好网站数据的备份,包括排名,外链数量,蜘蛛爬行,收录页面等各个方面,它的作用十分重要。当你的网站排名下降或者被搜索引擎惩罚时,排除掉算法的修改可能,在这里可以找到被降权的原因。很多站长一出现问题就到处问“我的网站被降权了,怎么回事?”你想帮他,说我看看你的网站数据,结果他告诉你没有。这种情况下,就算再牛的seo也帮不到你。没有数据,谁知道你的问题在哪,只有你自己知道。
之前一直没有注意到收录的问题,每天整理数据都是site和domain,记录一个总的数量。其实这还不够,你需要知道你网站还有那些页面没有 被收录,那些页面的内链多,必须要各个方面都兼顾到,网站优化起来才会更加得心应手,你的seo技术也会更加成熟。一般来说,收录不完全由下面4个因素造成:
1,域名权重偏低
域名这个因素一时半会也改不过来,而且也不是以你的意愿改变的。域名权重是每次搜索引擎算法更新后,重新给你的网站分配的权重,一般情况下,没有被 惩罚过的网站,坚持做个半年到一年就能获得不错的权重。如果你的是新站,出现了收录不充分的情况,没必要担心,继续做好网站更新,说明引擎对你的网站不是很信任。等时间够了,引擎开始信任你,权重也上升了,收录自然会跟着上来。老站的域名是很占优势的,收录问题就要参考别的因素。
还有一个方面也需要注意,如果你的域名是每年续费的话,按照计划和资金实力,一次续5年或者10年,老域名和一次续10年的域名比一般的能获得更高的信任,在分配权重时比较占优势。
2,网站的设计不利于蜘蛛爬行
目前大部分网站都是开源程序建站,博客站点有WP,z-blog,商业站点有dede,shopex,论坛有discuz,php,在蜘蛛爬行方面 已经有很大进步,利于seo优化和蜘蛛爬行。但是很多站长在建站之初并没有做好栏目和版面的规划,路径太长太深,如***.com/a/b/c /……,首页的具体不止三次点击,爬虫不会爬那么深。不断的增加删除页面,造成网站大量的404,降低蜘蛛的爬行兴趣,同样会影响网站的权重。
加上后期的修改代码,调整插件,插件调整会好点,就算出错也可以及时回复,只要不是删除。但是代码不一样,如果你修改header部分的次数过多, 幅度过大,都会被搜索引擎认为是一个新站,会造成之前已经收录页面遭到删除,爬虫的数量和次数也会大大降低。更换主题模板也是一样,尽量一次敲定,后期的 每一次修改都会造成不必要的权重损失。
也有部分网站是设计师设计的,这类网站一般都会经过多次调试无误,才会发布上线,这并不意味着没有问题。外观上漂亮的flash,iframe页面,却没有任何实用价值,蜘蛛几乎从不爬行,所以收录只能是0。上次听国平老师讲课,印度一个排名前三的购物网站,就是因为网站的代码问题,导致30000人注册,只有不到1%的成功率,而他们在没招聘seo之前,根本不知道这个事情。这就需要设计师在网站上线之后,还要协同seo做好追踪调试, 链接问题,死循环,蜘蛛陷阱等问题的及时改进。
3,内链分布不均匀
内链就是网站不同页面的互相链接,方便用户阅读,增强页面的交互性。通常每篇文章有3个左右的内部链接,算是比较合适的。一定要记住,不能为了内链 而在页面强加内链,越来越聪明的搜索引擎会发现自然创作和强加内链的区别,如果被引擎怀疑,将会适得其反,不会带来一点点收录的增长。
互联网是一张漫无边际的蜘蛛网,每个网站却不是那一个点,同样也是一张网,互联网是把很多小网都编织到一起的一张大网,只有你的网站到了举足轻重的时候,你才能成为那些点之一。
4,文章原创性不够
原创性应该是所有因素里面最重要的一个,也是收录不充分常见的原因。互联网发展到现在,已经是粘贴复制,抄袭山寨横行。搜索引擎为了提供良好的用户 体验,对于复制抄袭的内容,坚持不收录的原则。同时最为站长的我们,也要提高自身的修养,减少抄袭,尊重原创。没有抄袭,就没有惩罚。
作者:年斌 转载链接:http://www.nianbin.com/seonew/544.html
版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点!
本站所提供的图片等素材,版权归原作者所有,如需使用,请与原作者联系。
上一篇:浅谈研究竞争对手的具体操作