User-agent: *
Disallow: /admin/
Allow: /require/
ls的意思是说
以根目录为默认的路径,就是开始那点
禁止所有SE访问admin这个文件夹下的内容,将蜘蛛引导向require这个文件夹。
一般的,将你要屏蔽蜘蛛对那个文件夹下在Disallow: 后面就行了,形式如ls所诉
1,建立一个文件。robots.txt
在里面写入---------
User-agent: *
Disallow: /admin/
Allow: /require/
----------意思是
所有蜘蛛
禁止爬行admin目录
引导爬行require目录
----明白了么?
屏蔽蜘蛛对某个文件夹:
User-agent: *
Disallow: /admin/
屏蔽蜘蛛对某个文件夹下的某个文件
User-agent: *
Disallow: /admin/abc.html