Robot.txt文件要如何正确设置( 二 )


文章插图

网站误封Robots该如何处理
robots文件是搜索生态中很重要的一个环节,同时也是一个很细节的环节 。 很多站长同学在网站运营过程中,很容易忽视robots文件的存在,进行错误覆盖或者全部封禁robots,造成不必要损失!
网站Robots文件误封处理方式:
1、修改Robots封禁为允许,然后到百度搜索资源后台检测并更新Robots 。
2、在百度搜索资源后台抓取检测,此时显示抓取失败,没关系,多点击抓取几次,触发蜘蛛抓取站点 。
3、在百度搜索资源后台抓取频次,申请抓取频次上调 。
4、百度反馈中心,反馈是因为误操作导致了这种情况的发生 。
5、百度搜索资源后台链接提交处,设置数据API推送(实时) 。
6、更新sitemap网站地图,重新提交百度,每天手动提交一次 。
以上处理完,接下来就是等待了,一段时间后网站索引数据会开始慢慢回升,直至网站索引数据恢复到正常状态!

相关经验推荐