其实做网站这么久以来,关于robots文件设置无效,百度依旧抓取,这个问题一直让我疑问。( I. l9 `% \4 X5 g4 r
一开始以为没设置好,但测试了好几次,确定规则没错,所以在度娘找了好久,但问这问题的人不多,我看到一篇文章说百度对robots.txt文件的遵守很不彻底。文章已是2012-11-27发布的了,时隔1年半,貌似种情况并没有变,在2012互联网界对360不遵守robots.txt文件进行了群批,但百度强调自己遵守robots.txt协议。但直到现,我对很多网站都做了分析,对于robots.txt文件百度仍旧遵守的很不彻底。看了很多个网站的日志,设置的robots.txt很快就生效了,但唯有百度,还在对禁止目录在抓取。很多站长肯定在想,可能是没有生效,但我在百度工具更新了,而且日志上,百度对robots.txt文件抓取也不止一次。: a, ?+ o# v" g9 v/ [( a
# i2 F3 a$ p& K! x6 U4 R7 } 这个其中一个网站的robots文件,五、六天前就更新了的。
: E! o& I/ {, z" b$ }2 L/ ~ u4 K# E0 q' Y/ G: w% p: R
关于robots文件设置无效,百度依旧抓取。
- \; W! n1 B5 e: U3 ~
! M( }# j* ~2 }$ R/ g9 P9 @- T/ B5 Q, e% N
这是现在的日志,大家可以看看 5 }$ a6 X8 d. X+ [" J2 A, Z
" c2 s3 u- H/ m' t) h. _: F
9 ~7 {- {) B# y1 n% f9 q! f- b
关于robots文件设置无效,百度依旧抓取。
h% k' J5 C# u4 {( i( I8 [# k5 @
7 J f$ V; Z' Q. E5 v
: D( c' n& T, v
* u& x! W' ^8 }! n% n! c) C5 `4 P 还在爬,貌还未生效,但谷歌和其他的蜘蛛早早就看不到他们在爬取禁止的目录,我做的另一个网站,设置了robots文件也是这样,后来实在找不到原因我都没理过了,不知过了多久,禁止的目录逐渐没了抓取的记录,我也是醉了。为啥人家谷歌,雅虎反应这么快,百度作为中文最大的搜索引擎,对于一个小小的robots文件却迟迟不生效,这里面到底有什么原因?这个貌似只有百度自己知道了。 * G/ H) J% z& Y8 K
* k& B3 ^( v( f# O
9 ]% @5 ?2 T Q! A3 M( j" J原文出处链接:http://www.xtcsb.com/a/xinwenzixun/gongsixinwen/2015/0414/141.html" h4 K" c2 w$ @. Q; P: A9 a
搜外论坛原创作者:xintai3 T6 w* k4 G& @8 b# D2 L
日期:2015-4-14/ \1 Q) c4 M2 v: g! J) f$ w
4 l. P; _! Y! }+ {' K' F云鼎公司(http://onlykey.cn/35)专业的技术研究团队保障平台游戏环境顺畅,以优质的服务方式及丰富的**性,给客户高品质的服务**,秉承“诚信、责任、团队、敬业”的服务宗旨。
0 `( {( z: Q: |" }( u# O: l
" S8 a: x9 V" e! M2 M- a 其实做网站这么久以来,关于robots文件设置无效,百度依旧抓取,这个问题一直让我疑问。. O# {/ z! v+ T* a/ C; K
一开始以为没设置好,但测试了好几次,确定规则没错,所以在度娘找了好久,但问这问题的人不多,我看到一篇文章说百度对robots.txt文件的遵守很不彻底。文章已是2012-11-27发布的了,时隔1年半,貌似种情况并没有变,在2012互联网界对360不遵守robots.txt文件进行了群批,但百度强调自己遵守robots.txt协议。但直到现,我对很多网站都做了分析,对于robots.txt文件百度仍旧遵守的很不彻底。看了很多个网站的日志,设置的robots.txt很快就生效了,但唯有百度,还在对禁止目录在抓取。很多站长肯定在想,可能是没有生效,但我在百度工具更新了,而且日志上,百度对robots.txt文件抓取也不止一次。
# Q2 S I n, M/ Y1 v# u& r 4 I4 ^% c9 w7 m. W* x
这个其中一个网站的robots文件,五、六天前就更新了的。. v! L- a2 p \3 M5 B& e
6 r% W5 t+ X8 X* ]% X/ J" j
- C" a0 A5 w2 ~1 L u# @
' _/ ?7 j' w" z0 t$ w7 d
3 D- F4 f6 |. u4 V3 P/ t$ u& j 这是现在的日志,大家可以看看
, h ]6 _ ~5 ^, ?( J
4 F$ F; }: U, t3 q/ e3 g# u% M
% ^ `: G" K/ y- h! A
% o: |( _6 E$ i/ b8 }! x% \* P* i8 L - D/ Q3 q3 [( X" K& }1 H
9 G4 h, b1 q" \1 @9 ^) \! h9 G- J4 \
还在爬,貌还未生效,但谷歌和其他的蜘蛛早早就看不到他们在爬取禁止的目录,我做的另一个网站,设置了robots文件也是这样,后来实在找不到原因我都没理过了,不知过了多久,禁止的目录逐渐没了抓取的记录,我也是醉了。为啥人家谷歌,雅虎反应这么快,百度作为中文最大的搜索引擎,对于一个小小的robots文件却迟迟不生效,这里面到底有什么原因?这个貌似只有百度自己知道了。 4 P) }$ k: o( m+ p8 W7 R9 F
* e+ O4 d5 l+ ]4 H1 p
U3 o+ k) s7 a7 _; E/ [0 y原文出处链接:http://www.xtcsb.com/a/xinwenzixun/gongsixinwen/2015/0414/141.html
) l- |& u% B0 H* ^" s6 l- O搜外论坛原创作者:xintai6 v9 [; B8 K+ D8 g( t( ~$ m
日期:2015-4-14
% ?9 ^9 |7 O6 V5 h9 v+ g6 a
+ c3 A- F% W9 x7 G+ }# E9 _$ D5 `谷歌和其他的蜘蛛早早就看不到他们在爬取禁止的目录默默的赞一个 |