说说网站收录不好的原因

我们都知道一个最基本的原理:seo流量和收录、排名、点击成正比的,因此想获得较多的流量,网站收录率肯定不能低。但是现实却事与愿违,很多网站的收录都不是很好,该怎么提高网站的收录率,让网站流量增长呢?

第一,网站架构不好,很多网页蜘蛛抓取不到。网站架构无论对于大型网站还是小企业站,都起着至关重要的作用。一个良好的信息架构网站,不仅仅可以提高网页自身的排名,也会影响蜘蛛对网页的抓取。如果一个网站架构不好,可能会导致有一部分网页是孤岛页面,蜘蛛无法通过首页或其他页面找到这个页面啊,自然也就无法知道这个页面的存在,更别说被收录了。

第二,内容质量不好,网页被抓取后被搜索过滤了。一个网站信息架构可能没有问题,或者一个小网站只有很少的页面,但是收录仍旧不理想,这时候就要考虑下可能是网页内容质量问题了。搜索引擎喜欢收录是新鲜的、原创的稀缺页面,而不喜欢哪些互联网上大量重复、没有意义和价值的页面。当一个网站上存在大量的复制、采集的内容时候,这个网站的收录也自然难以提升上去。

第三,大量的链接调用不相关。页面内的内容和标题根本不相关,完全是欺骗搜索引擎的做法,引起了轩然大波。也有个网站叫比比贴信息网的,也曾经被完全的拔毛,他们也是给VIP会员较多的权限,在不相关的栏目发布大量相似的内容,导致了网站最后的悲剧。

第四,采用了非常规的调用数据方式,导致调用的数据抓取不到。对于一般网站来说,采用常规的程序调用规则,蜘蛛都是可以抓取的;但是也有很多网站采用了部分JS调用,导致收录非常不理想。比如曾经很出名的久久信息网就是例子,他右侧有个数据刷新的调用,很多人天真认为只要多刷新,网页就可以排在前面被蜘蛛抓取收录了,但是那个却完全是JS调用的,蜘蛛根本抓取不到,所以久久信息网的收录一直很差。收录差有时候不仅仅是减少了参与排名的网页,也对整体网页的价值降低了,导致网站权重越来越低于对手。

第五,数据更新没有规律性。特别是很多中小站长,做网站优化更新内容是三天打鱼两天晒网,兴致来时会更新很多篇,没有兴致时候一篇也不更新,这样直接导致的后果是,你网站更新没有规律,那么蜘蛛到访自然也就少,况且有时候更新那么多又无法全部收录,直接导致收录率降低。

第六,网站权重过低。网站权重会影响一个网站收录的比率,假使蜘蛛可以爬取你所有的网页的话,他也不可能给你100%全部收录的,即使你的文章都是原创。受众是影响页面价值的第一要素,如果你网站的权重低,网页的受众就低,自然页面的价值也就低了。

随机展示

猜你喜欢