触屏版
全国服务热线:0571-87205688
登录
注册
客户中心
关注云客
客户指数
¥-
|
本月佣金:¥-元
今日佣金:¥-元
优化师数:-名
商户数:-名
网站数:-个
关键词数:-个
提问者:战神超哥 | 分类:网站优化 | 浏览214次 | 悬赏分:0积分 2015-05-13 10:56:07
最近有一个网站日志404太多了,如果利用robots.txt屏蔽 能不能用 Disallow: /123.txt 这种形式屏蔽
我要回答
匿名
小平同志
大量404的话,看是不是你网站有什么问题,或者这个域名以前是别人的什么站,看下蜘蛛是不是经常爬这些链接,没爬到就不管,爬到的话,用robots屏蔽是可以的,但我映像中,百度一般不管robots,照样爬,所以有空还是提交死链吧,百度自家的东西,要认:站长工具->数据提交->死链提交。
百度搜索推出惊雷算法,严厉打击通过刷点击排名
2017年11月20日