Nginx欺骗规则:设置正则跳转下载10G文件

该文章转自知新网 (uzhix.com)

有很多机器人无时无刻在爬取我们的网站,虽然在我们层层过滤后,它爬取不到什么有用的东西,但我们在查看日志还是挺闹心,那有没有什么方法呢?

20240113125934103-17051219742024011304593480

最开始想的是弄一个压缩炸弹,解压后就是几十G的文件,但是不对啊,它好多是bot爬,所以直接用301安排一个大文件是比较好的方法,于抄了一条规则,301跳转到一个10G大文件。刚开始规则有问题,多亏了群里大佬帮忙改了一下。规则如下

 

直接复制添加到网站配置里即可。如图:

20240113130107671-17051220672024011305010733

 

© 版权声明
THE END
喜欢就支持一下吧
点赞0赞赏 分享
评论 共1条

请登录后发表评论