服务热线:400-0033-166
万商云集 - 企业数字化选用平台

企业首选的

数字选用平台

分享网站Robots被误封禁后的解决方法

2020-12-31 09:32:05 阅读(171 评论(0)

  robots文件是搜索生态中一个非常重要的环节,也是一个非常详细的环节。在网站运营过程中,很多站长和学生很容易忽视robots文件的存在,错误地覆盖或完全禁止robots,造成不必要的损失!那么网站Robots被误禁后该怎么办呢?一起来看看吧!  [案例背景]  网站开发2.0版本,技术选择在线开发,为了避免搜索引擎抓取开发版本,要求技术人员设置Robots禁令处理。2.0版本开发周期为1个月。1个月后,网站版本迭代,直接覆盖1.0版本,包括Robots禁止文件。两天后,发现流量急剧下降。检查收录后,发现800万收录下降到0,大量关键词下降。  [处理方法]  1.将Robots封禁修改为允许,然后到百度站长后台检测并更新Robots。  2.在百度站长后台抓取检测,此时显示抓取失败,无所谓,多点击抓取几次,触发蜘蛛抓取站点。  3.在百度站长后台抓取频率,提高申请抓取频率。  4.百度反馈中心,反馈是由于误操作造成的。  5.百度站长后台链接提交处设置数据主动推送(实时)。  6.更新sitemap网站地图,重新提交百度,每天手工提交一次。  经过以上处理,下一步就是等待,幸运的是,两天的时间数据开始慢慢恢复,到第三天基本恢复正常状态!  [案例总结]  这次事故绝对是运营生涯的失败。我希望你能避免类似的问题。  1.产品开发必须避免在线开发,不能为了省事而建立开发环境。  2.产品迭代要有流程记录,开发的时候要做那些设置处理,那些不需要释放,那些必须释放,要非常清楚。  3.经常关注百度站长的背景,关注相关数据的变化,及时发现数据变化中的问题  以上是网站Robots被误禁后的解决方案,希望对大家有所帮助!

内容来源:网络,以上内容来源于网络,不代表本站观点,如有侵权,请联系删除。

最新文章