当前位置:首页 > 网络推广 > 正文内容

利用“GOOGLE抓取方式”工具测试Robots书写正确性

光的传人13年前 (2013-05-02)网络推广2758

有一个客户的网站,一些很重要的页面被屏蔽了,搜索显示“由于此网站的 robots.txt,系统未提供关于该结果的说明 - 了解详情。”但是仔细看他的robots.txt,找不出确定的原因,犯了很多资料,也没有发现比较权威的说法。

于是自己就认真的看他的robots.txt(我勒个去,有好几百条呢!),根据所看的那些资料,写法不规范也可能是错误的我都挑了出来,代码如下:

Disallow:/search.asp?page=4&wherestr=&title=
Disallow:/%20http://cnvip.busytrade.com/indexVip.php?memid=maxiaol&show=1
Disallow:/ls-discovery/centrifugation/h..
Disallow:/diagnostics/chemistry/dxc/dxc..
Disallow:/diagnostics/chemistry/au/test..
Disallow:/diagnostics/hematology/lh-750..
Disallow:/products_
Disallow:/about2.asp[/quote
Disallow:/uppic/cp/lc/55b
Disallow:/ls-industrial/pc/coulter-coun..
Disallow:/ls-industrial/pc/laser-diffra..
Disallow:/ls-discovery/centrifugation/high-performance/avanti-j-e.html/
Disallow:/ls-discovery/flow/z-analyzer/z1-dual.html/
Disallow:/new/search.asp?page=4&wherestr=&title=
Disallow:/search.asp?page=2&wherestr=&title=
Disallow:/]Disallow:/
Disallow:/ls-discovery.asp/centrifugation.asp
Disallow:/ls-discovery/flow/quanta-sc.asp/
Disallow:/news/20121127206.html/
Disallow:/resources_1_eIQAP.asp/
Disallow:/news/2011117188.html/
Disallow:/news/200922821.html/
Disallow:/news/200791118.html/
Disallow:/news/200511145.html/
Disallow:/zyzxdisp
Disallow:/ls-disc
Disallow:/news/20
Disallow:/cp_disp

其中ls-discovery这个目录下的页面全部没有收录了,于是赶紧找权威的解释。终于找到一篇别人在2010年写的文章“利用“GOOGLE抓取”测试Robots书写正确性”,当时这个工具还是在实验室里面的,现在已经提拔出来了!https://www.google.com/webmasters/tools/googlebot-fetch?hl=zh-CN

经过一系列的测试,发现这个ls-discovery目录确实被robots.txt整个屏蔽了!但是根据rotbots.txt里面的指令,找不到准确屏蔽这个目录的命令。但是仔细观察这些不规范的,可以看到有这么一条:Disallow:/ls-discovery.asp/centrifugation.asp,我就在猜想:是不是这个"."就是罪魁祸首!?就像IIS又都解析漏洞一样,robots.txt也有这么一个执行漏洞,遇到"."就截止,直取“.”前面的内容,于是就成了“Disallow:/ls-discovery”,根据权威的解释,就是屏蔽了ls-discovery目录以及带这个关键词的所有页面。

Disallow:

该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被 robot访问。 例如"Disallow:/help"禁止robot访问/help.html、/helpabc.html、/help /index.html,而"Disallow:/help/"则允许robot访问/help.html、/helpabc.html, 不能访问 /help/index.html。"Disallow:"说明允许robot访问该网站的所有url,在"/robots.txt"文件中,至少要有一 条Disallow记录。如果"/robots.txt"不存在或者为空文件, 则对于所有的搜索引擎robot,该网站都是开放的。”

除了这个解释,没有更好的解释了吧?

如果有高手知道真正的原因,请告知!感激不尽!


扫描二维码推送至手机访问。

版权声明:本文由光的传人博客www.liu16.com发布,如需转载请注明出处。

本文链接:http://www.liu16.com/post/testrobots.html

标签: SEO谷歌
分享给朋友:

相关文章

郑多燕木瓜葛根粉丰胸有效果吗?官网都是假的,能不是骗局吗?

郑多燕木瓜葛根粉丰胸有效果吗?官网都是假的,能不是骗局吗?

上文中说到:郑多燕丰胸骗局揭秘,本文就来具体分析下郑多燕木瓜葛根粉丰胸到底有没有效果!可以负责任的告诉你:郑多燕木瓜葛根粉连官网都是假的,这样的三无产品能有效果?有效果的话就不会借助郑多燕的名气做推广了!郑多燕木瓜葛根粉就是暴利产品,就是为...

信任与不信任(Trust v No-trust)

信任与不信任(Trust v No-trust)

谷歌容忍线将根据网站不同的地方的计算进行排名。对于一个已经证明了它的价值和让谷歌非常信任的网站,我们可能会看到这样的图:受信任的站点然而,对于一个新的网站,一个没有历史记录的网站,图可能会看起来更像这。非信任的网站唯一的区别是虚线“容忍线”...

郑多燕减肥晚餐有用吗

郑多燕减肥晚餐有用吗

最近看到市面上新出来一款产品叫做:郑多燕减肥晚餐!我不禁在想:你在这买郑多燕减肥晚餐,人家郑多燕知道么?看到有人在问:郑多燕减肥晚餐有用吗?不禁大惊失色,真的有人相信郑多燕出减肥晚餐了?可以很负责任的告诉你,郑多燕只有减肥舞,没有所谓的减肥...

浅析团购网潮起潮落的根本原因

浅析团购网潮起潮落的根本原因

团购,顾名思义就是很多人一起组团去购买同一种商品,这样做的好处是:很多人团结起来,购买力惊人,购买产品数量特别大,可以让商家薄利多销,让消费者得到最大的实惠!于是,借着高科技的互联网行业,大大小小的团购网在2010年如雨后春笋般的出现了!可...

谷歌最近可能小范围更新PR值,站长们注意了

谷歌最近可能小范围更新PR值,站长们注意了

昨晚检测公司网站友情链接的时候,发现有两个前几天还是PR3的网站竟然变成0了!震惊!以为站长工具出错了呢,今天回到公司就用其他工具查了下,果然变成0了!这两个链接的来源说来可笑,公司去年买的两个PR7的友情链接,可是今年2月份PR更新的时候...

Web Analytics 2.0 学习笔记

Web Analytics 2.0 学习笔记

关于邮件营销分析,web 2.0中只是用了两页的篇幅讲解,我觉得远远不够。一直以来,我对于邮箱里面的垃圾邮件都会看看的,只是看标题,就知道到底是不是对我有帮助的。一般来说,基本上被系统拦截的这些垃圾邮件都是垃圾。我就不明白,这些发垃圾邮件的...

评论列表

电子菜谱
13年前 (2013-05-03)

看下,还是不错的

发表评论

访客

看不清,换一张

◎欢迎参与讨论,请在这里发表您的看法和观点。