查看: 3923|回复: 6
打印 上一主题 下一主题

[其他] robots更新周期及404页面处理

[复制链接]
跳转到指定楼层
楼主
发表于 2013-9-3 09:45:02 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
百度robots更新周期是多长?为什么网站很多404页面百度还是抓取呢?不是说多次抓取返回404就会自动删除吗?这样的话直接禁止抓取还是提交404页面呢?求解!

沙发
发表于 2013-9-3 13:17:22 | 只看该作者
robots文件3天就生效了。
404页面返回404状态吗,还要提交下死链接,能在robots禁止最好了。

蜘蛛有时候会继续爬行的,即使提交死链接也会爬行的。

点评

谢谢你的解答,不过已经5天啦robots还是没有更新哦。急着看效果呢呼呼。。  详情 回复 发表于 2013-9-3 15:46
回复 支持 反对

使用道具 举报

板凳
 楼主| 发表于 2013-9-3 15:46:07 | 只看该作者
ctvonline 发表于 2013-9-3 13:17
robots文件3天就生效了。
404页面返回404状态吗,还要提交下死链接,能在robots禁止最好了。

谢谢你的解答,不过已经5天啦robots还是没有更新哦。急着看效果呢呼呼。。

点评

检查robots写的对不对。 看看蜘蛛爬行robots文件了没有。 另外,蜘蛛有时候是不遵守robots协议的,也有这样的现象。 我设置的都很快的,3天就有效果的。你好好检查下。  详情 回复 发表于 2013-9-4 14:25
回复 支持 反对

使用道具 举报

地板
发表于 2013-9-3 17:53:30 | 只看该作者
robots.txt文件中的死链接,一般3天就有效了。

点评

可是已经设置快一星期了,禁止抓取的目录还是照常抓取呢  详情 回复 发表于 2013-9-4 09:21
回复 支持 反对

使用道具 举报

5#
 楼主| 发表于 2013-9-4 09:21:16 | 只看该作者
zzbus2011 发表于 2013-9-3 17:53
robots.txt文件中的死链接,一般3天就有效了。

可是已经设置快一星期了,禁止抓取的目录还是照常抓取呢
回复 支持 反对

使用道具 举报

6#
发表于 2013-9-4 14:25:46 | 只看该作者
zhbddbx 发表于 2013-9-3 15:46
谢谢你的解答,不过已经5天啦robots还是没有更新哦。急着看效果呢呼呼。。 ...

检查robots写的对不对。
看看蜘蛛爬行robots文件了没有。
另外,蜘蛛有时候是不遵守robots协议的,也有这样的现象。
我设置的都很快的,3天就有效果的。你好好检查下。

点评

哦哦,写法应该是正确的,是否爬行我先检查一下。谢谢!有问题再找你哈  详情 回复 发表于 2013-9-5 17:59
回复 支持 反对

使用道具 举报

7#
 楼主| 发表于 2013-9-5 17:59:37 | 只看该作者
ctvonline 发表于 2013-9-4 14:25
检查robots写的对不对。
看看蜘蛛爬行robots文件了没有。
另外,蜘蛛有时候是不遵守robots协议的,也有这 ...

哦哦,写法应该是正确的,是否爬行我先检查一下。谢谢!有问题再找你哈
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

手机版|Archiver|Baidu Inc.

GMT+8, 2024-4-20 02:44 , Processed in 0.238207 second(s), 16 queries .

返回顶部