首页
230问答网
>
求高手帮忙写一个网站robots.txt,禁止百度收录被global.asa木马攻击后多收录的垃圾页面。
求高手帮忙写一个网站robots.txt,禁止百度收录被global.asa木马攻击后多收录的垃圾页面。
2024-11-30 17:55:55
推荐回答(1个)
回答1:
User-agent: *
Disallow: /*?*
是的,这样写就可以。这种木马和猖獗,建议你还是从根本上出发,找一下网站的漏洞然后补一下。
相关问答
最新问答
英国简称UK还是GB
黔东南从江县到台江县到哪里座客车?
佛教上说的“分别”的含义是什么?
以梦想让青春飞扬拟一个作文题
一平行板电容器充电后与电源断开,负极板接地.在两极板间有一正电荷(电量很小)固定在P点,如图所示.
骑马与砍杀汉匈全面战争修改属兵装备 比如义军的装备 生产太慢了 还有如何修改声望
车间统计表格样式
增值税专用发票怎么开清单?
樟木头到广州南站大巴车
我是邮储银行的一名员工,我现在想申请调到省内另一个城市的支行,有没有实现的可能啊?希望大家能帮帮我