首页
230问答网
>
只让搜索引擎收录网站首页,不让收录网站其它页面的robots文件怎么写的?
只让搜索引擎收录网站首页,不让收录网站其它页面的robots文件怎么写的?
2025-01-05 16:04:01
推荐回答(2个)
回答1:
Disallow: / 就行 一般搜索引擎的爬虫都会遵守这个规则 360的规则不清楚,因为360一贯是流氓手段 都能偷偷的盗取用户电脑隐私,所以他的爬虫守不守规则就不清楚了。
回答2:
1楼答案正确
相关问答
最新问答
买车是不是一定要居住证的?
为什么我在家里开G 按HOME 呼出就切换输入法 这是怎么回事啊!
“天网恢恢”下一句是“疏而不漏”还是“疏而不失”?
湖北工业大学生活费问题
我十一要去西塘,人会不会很多?吃住会不会很贵?上海——西塘——杭州最好怎么走?
1⼀1*2*3+1⼀2*3*4+1⼀3*4*5+......1⼀98*99*100的方法步骤
SUPER JUNIOR代言过哪些服装品牌
不到两个月的雪纳瑞得了细小,已经治了三天了,还是一点没好转,还有治愈的希望么?
我有一220v三千瓦开水器在水加热几分钟时易跳闸,水烧开保温时不跳闸是什么原
沙发和电视怎么摆放,如果像图里的一样摆放,沙发后面就是窗户。请高手指教