网站迟迟不被收录,竟然是这个坑

背景

最近写了个网站,想提交被百度收录。但是两个月了百度迟迟没有收录,后来排查并优化了网站内容、标题、关键字等各种内容。但是失踪没有被收录,今天发现竟然是这个小问题导致网站迟迟不被收录。大家一起看下。

百度提示有禁用

由于该网站的robots.txt文件存在限制指令(限制搜索引擎抓取),系统无法提供该页面的内容描述;
在这里插入图片描述
根据这个提示,我这服务器上找是否有robots.txt文件,找了很久,没有发现。然后通过百度工具检测,发现以下问题:
在这里插入图片描述
天哪,竟然设置了Robots禁用爬虫,终于找到原因了。然后就是开始全局找到这个文件,把禁用内容删除。

正常了

在这里插入图片描述

总结

如果大家网站迟迟不被收录,可以看下是否被禁用了。这个给大家一个检测工具地址:https://ziyuan.baidu.com/robots/index

【处理方式】

1.修改Robots封禁为允许,然后到百度站长后台检测并更新Robots。

2.在百度站长后台抓取检测,此时显示抓取失败,没关系,多点击抓取几次,触发蜘蛛抓取站点。

3.在百度站长后台抓取频次,申请抓取频次上调。

4.百度反馈中心,反馈是因为误操作导致了这种情况的发生。

5.百度站长后台链接提交处,设置数据主动推送(实时)。

6.更新sitemap网站地图,重新提交百度,每天手工提交一次。

以上处理完,接下来就是等待了,万幸,2天的时间数据开始慢慢回升,到第3天基本回升到正常状态!

猜你喜欢

转载自blog.csdn.net/penggerhe/article/details/108990160
今日推荐