不幸的是,提供的内容太短,无法总结,因为它只包含一句话。
在防止侵略性网络爬虫的创新方法中,博客文章《伪造JPEG》的作者讨论了一种低CPU策略的开发,涉及生成填充随机数据的伪造JPEG图像。这种方法被整合到Spigot网络应用程序中,该应用程序创建了一个虚假的网页层次结构,以误导和减缓数据需求旺盛的机器人。这些伪造图像旨在增加爬虫的处理成本,同时保持服务器负载最小。值得注意的是,作者已经找到了一种方法,使这些图像在JPEG查看器中看起来合法,可能会让寻找图像的特定爬虫感到沮丧。该技术经过测试,被证明每秒生成大量图像,表明其效率。作者还计划在GitHub上发布这种方法的Python类,使其可供他人实施。对该方法的更新包括一项调整,以减少生成无效哈夫曼编码的几率,进一步完善该方法。这些内容对于希望在不增加高服务器成本的情况下保护其网站免受不必要的机器人流量的网站开发人员和安全专家尤为有趣。
评论