众所周知,seo优化中robots机器人是用来抓取网站内容的,而robots.txt文件则是放在我们网站根目录下面的一个文本文件,用来规定什么蜘蛛(机器人)可以抓取什么文件,不可以抓取什么文件。我们通常用robots来告诉搜索引擎,这个目录你可以进,那个目录你不可以进;这个文件你可以访问,那个文件你不能访问。但是有些时候,robots文件,我们还是要谨慎使用的好。 8 p* y, \1 b0 i8 e; P
$ K3 W% {7 e( ~4 X$ ^8 c
+ T& b' A5 M2 A! o! f
事情还得从年初开始。年初我负责的一个网站因为网站刚建好,内容还没填充完整,大家的观点不都是没建好的网站不要给搜索引擎抓取嘛。我用robots.txt文件把网站根目录屏蔽所有搜索引擎抓取,等到一个月之后,填充得已经差不多了,我就开放蜘蛛抓取。我不仅有提交首页网址给百度,提交网址诊断,而且还发了不少外链,但一天一天过去,在百度上面SITE网站就是一个收录都没有。我就纳闷了,是不是我什么地方设置错误了呢?结果在谷歌上面site了一下已经有上百个收录了,306,搜狗上面也有少则几个多则十几个收录了。于是我不得不认为是robots屏蔽,百度长时间未反应过来导致的。
2 Z+ g. p% f1 i' K) B# D" W前两个月,我又有一个新站重新建好开始填充内容,也是把网站屏蔽着,结果到现在都两个月过去了,可是还是不收录,首页还是提示“由于该网站的robots.txt文件存在限制指令,系统无法提供该页面的内容描述。”而谷哥收录了93条,搜狗收录了1条,360收录了45条。这次我这次彻底对度娘的robots文件反应速度是无语了。下图上为:site:3w点gzfengbao点com的结果
/ w/ r/ Y4 D, [, m) q5 P
警惕:新网站谨慎设置robots屏蔽
' `2 \: s A4 I! e- S. \- ~: D & f4 j4 V) w" v7 B
前两天在群里与伙伴们讨论,一位叫乌鸦的大神说自己之前也遇到过几次这样的情况。 7 V3 P4 S5 ~- Y
在此蜗牛SEO慎重的提醒各位朋友,新建的网站,千万不要先把网站文件上传到空间后加个robots.txt,然后填充信息,填充好了才开放抓取。如果可以在本地把网站建好,填充好内容再上传最好,否则上传到空间加robots禁止抓取,等开放抓取的时候,百度蜘蛛很可能又会几个月时间都反应不过来。几个月后网站才被收录,对网站优化的周期影响无疑是巨大的。
0 x: K+ `, J9 }9 B) o! q0 h
, R( C/ w2 V4 T9 {& A4 G, A本文由上海SEO蜗牛博客原创出品,请大家转载时保留本段内容。大家如有兴趣,可以与蜗牛一起探讨seo技术,讨论SEO发展前景,或者讨论职业发展与人生梦想。蜗牛期待成为你忠实的朋友。
4 d/ M7 ~2 i! V" F. p: K7 U l
0 ] [3 }! Y; L" O- \9 p原创文章地址: http://www.woniuseo.com/1037.html7 g) Q) p5 U9 w& k4 x
搜外原创作者:上海蜗牛SEO3 C$ v0 |8 B6 |1 H4 |6 a) w
原创日期:2015-05-23我好像都没有设置到这个诶众所周知,SEO优化中robots机器人是用来抓取网站内容的,而robots.txt文件则是放在我们网站根目录下面的一个文本文件,用来规定什么蜘蛛(机器人)可以抓取什么文件,不可以抓取什么文件。我们通常用robots来告诉搜索引擎,这个目录你可以进,那个目录你不可以进;这个文件你可以访问,那个文件你不能访问。但是有些时候,robots文件,我们还是要谨慎使用的好。
- {8 _* G2 p4 k8 \* B" U6 |
5 I1 e+ e$ a& N0 H7 y% L& H2 m2 _ / K q) o1 p) }$ w) s8 h' i
事情还得从年初开始。年初我负责的一个网站因为网站刚建好,内容还没填充完整,大家的观点不都是没建好的网站不要给搜索引擎抓取嘛。我用robots.txt文件把网站根目录屏蔽所有搜索引擎抓取,等到一个月之后,填充得已经差不多了,我就开放蜘蛛抓取。我不仅有提交首页网址给百度,提交网址诊断,而且还发了不少外链,但一天一天过去,在百度上面SITE网站就是一个收录都没有。我就纳闷了,是不是我什么地方设置错误了呢?结果在谷歌上面site了一下已经有上百个收录了,306,搜狗上面也有少则几个多则十几个收录了。于是我不得不认为是robots屏蔽,百度长时间未反应过来导致的。 9 N0 \- z/ t5 F. h( W+ C5 z0 l
前两个月,我又有一个新站重新建好开始填充内容,也是把网站屏蔽着,结果到现在都两个月过去了,可是还是不收录,首页还是提示“由于该网站的robots.txt文件存在限制指令,系统无法提供该页面的内容描述。”而谷哥收录了93条,搜狗收录了1条,360收录了45条。这次我这次彻底对度娘的robots文件反应速度是无语了。下图上为:site:3w点gzfengbao点com的结果 5 ` y$ a" ]1 y1 p, n. q
! ]# z0 f, E: B, e# k
! p- M) n2 _ q9 H# Z6 ]& a
前两天在群里与伙伴们讨论,一位叫乌鸦的大神说自己之前也遇到过几次这样的情况。 4 U% q# }( P; r( y' X* D
在此蜗牛SEO慎重的提醒各位朋友,新建的网站,千万不要先把网站文件上传到空间后加个robots.txt,然后填充信息,填充好了才开放抓取。如果可以在本地把网站建好,填充好内容再上传最好,否则上传到空间加robots禁止抓取,等开放抓取的时候,百度蜘蛛很可能又会几个月时间都反应不过来。几个月后网站才被收录,对网站优化的周期影响无疑是巨大的。
6 {& [" A' M$ |: W
2 j! }0 C7 a& B( Q本文由上海SEO蜗牛博客原创出品,请大家转载时保留本段内容。大家如有兴趣,可以与蜗牛一起探讨SEO技术,讨论SEO发展前景,或者讨论职业发展与人生梦想。蜗牛期待成为你忠实的朋友。 2 W; R" l5 V$ k+ N8 ^* W" k
' T) ~4 o3 O; M+ ~' ?# H6 F原创文章地址: http://www.woniuseo.com/1037.html
" M7 m/ A+ j# p5 D$ d搜外原创作者:上海蜗牛SEO
% A& K2 G4 G4 R; {# ?7 Q% c原创日期:2015-05-23努力学习 充实自己我对seo和迷茫新建的网站,千万不要先把网站文件上传到空间后加个robots.txt,然后填充信息,填充好了才开放抓取 |