全方位分析搜索引擎不收录内页的几个原因

搜索引擎不收录内页令人非常的懊恼。或者只收录首页,而其它页面从不收录,到底是什么原因引起的呢?又如何来解决这令人纠结却无从下手的问题?跟着臭虫小明 理出的思路,从分析开始。

服务器稳定

服务器稳定性不佳导致网站内页迟迟不被收录的几率很大。所在服务器如果是电信带宽,请测试北方网络是否能够正常访问,如果不能正常访问无疑会增高用户跳出率 , 让搜索引擎误认为网站不被用户接受,从而降低收录内页几率。当然智能的搜索引擎会自动切换网络环境进行抓取,搜索引擎仅仅是一个特殊的用户,因此具体的行 为还取决于真实用户。接着检查域名绑定主机是否完全正常,臭虫小明之前的博客就出现过类似的情况,由于白名单审核问题导致部分地区用户访问网站提示:“访 问拒绝原因:新接入站点,新接入站点未向我部门提交时审批,请联系ISP尽快提交接入网站申请…”并返回404 状态码 ,正是由于该原因,导致网站内页迟迟不被收录。昨天更换了服务器,今日网站内页已经被正常的收录并开始排序索引。

代码错误

良 好的网页代码能被搜索引擎快速收录是肯定的,如果网页代码中的DIV嵌套太深也会增大搜索引擎收录的难度。大量的不良代码不仅仅会降低收录几率,甚至导致 K站。所以写好网站的首页、频道、列表页以及内页之后一定要在“validator.w3.org”网站上进行代码的正确性校验,除了特定浏览器的代码不 被W3C所识别外,其它的应尽力矫正。尽量优化代码的减少冗余,让搜索引擎在抓取的时候感觉轻松。

原创比例

无 论是搜索引擎还是真实的用户,都非常的喜欢原创文章。如果用户发现该文章之前有无数的重复,那么直接关闭页面的几率将大大增加,更何况智能而特殊的搜索引 擎。发现有部分站长很喜欢改写伪原创,导致文章词不达意,离题万里等,虽然能在短时间内提高收录量,但对于聪明的用户似乎不太起作用,实际上应该把最重要 的用户体验 放在第一位。因此,网站上一定要有几篇能正常浏览的原创文章,等待搜索引擎的抓取。

蜘蛛光顾

代码优化、内容优化、服务器优化等都做的非常到位,或我们内部优化 已 经做的非常完美了,但还是迟迟不被收录。这时候,我们就需要仔细的检查蜘蛛是否爬行过网站,如果没有爬行,那么内部优化做的再好也将是徒劳。用监控工具进 行数据分析,如果蜘蛛爬行几率很小甚至者没爬行过,我们则需要去引蜘蛛来爬行网站,主动建立“互联网”,也就是传说中的外链。

总结:网站内部优化包括代码错误、代码冗余、死链接、空链接、服务器稳定性、文章原创性等元素组成,这一切就绪之后应坚持撰写原创文章和交换友情链接、发表高质量外链。

本文转自臭虫小明 博客,原文链接 http://www.bugxm.com/article/86.html

猜你喜欢

转载自lingdus.iteye.com/blog/1557900