nginx 给扫站_目录撒扫描_备份文件批量爬虫得压缩文件大礼包

zip/rar/tar.gz 之类的网站打包备份名称,极度消耗服务器资源

方法一

nginx 配置里加了个下载空连接 ZIP/RAR 等链接,直接跳转 50G 的大文件,正常链接不受影响

location ~ /(.*\.7z|.*\.zip|.*\.rar|.*\.tar|.*\.gz|.*\.tar\.gz)$ {
            if (!-f $request_filename) {
            return 301 https://cdn.eso.org/images/top100-original.zip;
            }
        }

方法二

如果扫站的通过 HEAD 请求检测绕过了,这里杀 HEAD 请求

location ~ /(.*\.7z|.*\.zip|.*\.rar|.*\.tar|.*\.gz|.*\.tgz|.*\.tar\.gz)$ {
            if (!-f $request_filename) {
            return 301 https://cdn.eso.org/images/top100-original.zip;
            }
            if ($request_method = HEAD) {
            return 403;
            }
        }

注明:非原创,来自互联网整理,暂未找到出处

版权声明

   站内部分内容来自互联网,该文仅限用于学习和研究目的。本站仅提供网络资源分享服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请 点击我 一经核实,立即删除。访问和下载本站内容,说明您已同意上述条款。在为用户提供最好的产品同时,保证优秀的服务质量。


本站仅提供信息存储空间,不拥有所有权,不承担相关法律责任。
THE END
喜欢就支持一下吧
点赞0 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容