请选择 进入手机版 | 继续访问电脑版
查看: 25412|回复: 4

[问答中心] 怎么解决网站的robots.txt文件存在限制指令?

[复制链接]
发表于 2017-4-24 11:14:44 | 显示全部楼层 |阅读模式
由于该网站的robots.txt文件存在限制指令(限制搜索引擎抓取),系统无法提供该页面的内容描述 ?


求助:出现这种情况怎么恢复呢?网站改版前技术给屏蔽了全站,,现在robots文件重新提交了 ,也检测了没有问题,但是网站提示的就是这个?这种应该怎么办?是真的需要几个月才能恢复正常收录吗?

我看了好多帖子都说网站全部屏蔽这种做法非常不好,那用站长工具的网站改版还有闭站保护是不是比把全站屏蔽了,不让蜘蛛抓取好?请大家帮忙了!


 楼主| 发表于 2017-4-24 11:15:43 | 显示全部楼层
额 技术一看提示这个 就又急匆匆的把网站robots文件全部删了!
回复 支持 反对

使用道具 举报

发表于 2017-4-24 11:54:15 | 显示全部楼层
没啥用         
回复 支持 反对

使用道具 举报

 楼主| 发表于 2017-4-24 13:12:50 | 显示全部楼层

那应该怎么办呀 得等两个月么?
回复 支持 反对

使用道具 举报

发表于 2020-7-24 17:05:51 | 显示全部楼层
我的也是一抹一眼的问题,大佬,你用了多久恢复的?
我这边过去了27天了,没回复
回复 支持 反对

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies

本版积分规则

手机版|Archiver|Baidu Inc.

GMT+8, 2021-1-23 07:19 , Processed in 0.181205 second(s), 15 queries .

Powered by Discuz! X3.2

© 2001-2011 Comsenz Inc.

返回顶部