求高手帮忙写一个网站robots.txt,禁止百度收录被global.asa木马攻击后多收录的垃圾页面。

2024-11-30 17:55:55
推荐回答(1个)
回答1:

User-agent: *
Disallow: /*?*
是的,这样写就可以。这种木马和猖獗,建议你还是从根本上出发,找一下网站的漏洞然后补一下。