0

0

如何使用Java进行服务器反爬检测 Java检测恶意爬虫访问逻辑

蓮花仙者

蓮花仙者

发布时间:2025-07-18 14:37:01

|

658人浏览过

|

来源于php中文网

原创

1.服务器端用java进行反爬检测的核心在于识别非人类、自动化程序的异常访问模式和行为逻辑;2.实现方式包括ip访问频率与行为限制,可通过concurrenthashmap与scheduledexecutorservice或redis实现;3.user-agent及请求头分析,通过维护黑名单或检查关键头信息判断是否为爬虫;4.行为模式分析,记录用户访问路径、页面停留时间等,构建行为模型识别异常;5.honeypot(蜜罐)与隐藏链接,在页面中放置爬虫可见但用户不可见的链接用于识别爬虫;6.js挑战与验证码,要求客户端执行js计算签名或完成验证码验证身份;7.高效的ip访问频率限制在单机环境下可用guava ratelimiter或自定义滑动窗口计数器,在分布式环境中推荐使用redis实现集中式限流。

如何使用Java进行服务器反爬检测 Java检测恶意爬虫访问逻辑

服务器端用Java进行反爬检测,核心在于识别那些非人类、自动化程序的异常访问模式和行为逻辑。说白了,就是通过分析请求的特征、访问频率、行为轨迹,来判断它是不是一个“好人”还是一个“坏蛋”爬虫。这事儿吧,得从多个维度去考量,没有一招鲜吃遍天的法子,往往是组合拳。

如何使用Java进行服务器反爬检测 Java检测恶意爬虫访问逻辑

解决方案

要有效检测恶意爬虫,我们需要构建一个多层次的防御体系,用Java实现的话,可以从以下几个方面入手:

1. IP访问频率与行为限制: 这是最基础也最直接的方式。如果一个IP在短时间内请求了太多次,或者访问了大量不相关的页面,那它很可能就是爬虫。

立即学习Java免费学习笔记(深入)”;

如何使用Java进行服务器反爬检测 Java检测恶意爬虫访问逻辑
  • 实现思路: 可以用ConcurrentHashMap来存储每个IP的访问计数,配合ScheduledExecutorService定期清零或滑动窗口计数。对于分布式系统,Redis的INCR命令和EXPIRE功能是更好的选择,能轻松实现全局限流。

  • Java示例(概念):

    如何使用Java进行服务器反爬检测 Java检测恶意爬虫访问逻辑
    // 假设在拦截器或过滤器中
    String ipAddress = request.getRemoteAddr();
    // 使用Guava RateLimiter (单机)
    // RateLimiter limiter = RateLimiter.create(10.0); // 每秒10个请求
    // if (!limiter.tryAcquire()) { // 未获取到令牌
    //    response.setStatus(429); // Too Many Requests
    //    return;
    // }
    
    // 或者自定义Map实现(单机)
    // Map lastAccessTime = new ConcurrentHashMap<>();
    // Map accessCount = new ConcurrentHashMap<>();
    // long now = System.currentTimeMillis();
    // if (now - lastAccessTime.getOrDefault(ipAddress, 0L) < 1000 && accessCount.get(ipAddress).incrementAndGet() > 50) {
    //    // 1秒内超过50次请求,认定为异常
    //    response.setStatus(429);
    //    return;
    // }
    // lastAccessTime.put(ipAddress, now);
    // accessCount.computeIfAbsent(ipAddress, k -> new AtomicInteger(0)).incrementAndGet();

2. User-Agent及请求头分析: 爬虫往往会伪造User-Agent,或者干脆不带。同时,一些不常见的请求头组合也可能是爬虫的特征。

  • 实现思路: 维护一个已知的恶意User-Agent黑名单,或者检测那些缺失关键User-Agent的请求。同时,可以检查RefererAcceptAccept-Encoding等头信息是否符合浏览器常规行为。
  • Java示例:
    String userAgent = request.getHeader("User-Agent");
    if (userAgent == null || userAgent.isEmpty() || userAgent.contains("bot") || userAgent.contains("spider")) {
        // 简单粗暴的判断
        // return blockRequest();
    }
    String referer = request.getHeader("Referer");
    if (referer != null && !referer.startsWith("http://yourdomain.com")) {
        // Referer异常,可能被直接访问或伪造
        // return blockRequest();
    }

3. 行为模式分析: 复杂的爬虫不会只盯着一个IP或User-Agent。它们会模拟用户行为,但总会有破绽。比如,访问顺序异常、访问速度过快(或过慢)、不加载JS/CSS、不点击广告等。

  • 实现思路: 记录用户会话中的访问路径、页面停留时间、点击事件等。通过这些数据构建用户行为模型,偏离模型的行为则标记为可疑。这通常需要更复杂的逻辑,甚至结合机器学习。
  • Java示例(概念):
    // 假设Session中存储了用户访问历史
    // List visitedUrls = (List) session.getAttribute("visitedUrls");
    // if (visitedUrls != null && visitedUrls.size() > 1 && !isValidTransition(visitedUrls.get(visitedUrls.size()-2), currentUrl)) {
    //    // 发现异常跳转,比如从首页直接跳到某个深层数据接口,而没有经过中间页面
    //    // return blockRequest();
    // }

4. Honeypot(蜜罐)与隐藏链接: 在页面中放置一些对正常用户不可见,但对爬虫可见的链接。如果这些链接被访问,那请求基本就是爬虫。

  • 实现思路: 在HTML中通过CSS(display: none;)或JavaScript动态生成链接,这些链接指向一个专门的“陷阱”URL。当这个URL被访问时,即可认定为爬虫。
  • Java示例:
    // 在Spring MVC中可以创建一个特定的Controller处理蜜罐请求
    @GetMapping("/trap/dont_click_me")
    public String honeyPotTrigger(HttpServletRequest request) {
        String ip = request.getRemoteAddr();
        // 记录IP到黑名单或警告列表
        // logger.warn("HoneyPot triggered by IP: " + ip);
        return "redirect:/403"; // 或者直接返回空
    }

5. JS挑战与验证码: 对于更顽固的爬虫,可以强制它们执行JavaScript或完成验证码。

Bg Eraser
Bg Eraser

图片物体抹除和清理

下载
  • 实现思路: 在请求数据前,先返回一个包含JavaScript挑战的页面,要求客户端执行JS计算一个签名并带回。或者,在关键操作前引入图形验证码、滑块验证等。
  • Java示例(概念):
    // 在某些请求前,先检查session中是否有验证码通过标记
    // if (!session.getAttribute("captchaVerified")) {
    //    return "redirect:/captcha_page";
    // }
    // 客户端JS生成一个token,服务器端验证
    // String clientToken = request.getHeader("X-Client-Token");
    // if (!isValidToken(clientToken)) {
    //    return blockRequest();
    // }

Java服务器端如何实现高效的IP访问频率限制?

高效的IP访问频率限制,我个人觉得,要看你的应用规模。如果只是个单机应用,Java自带的ConcurrentHashMap结合Guava的RateLimiter或者自己实现一个滑动窗口计数器就挺好使。ConcurrentHashMap可以存每个IP的上次访问时间,ConcurrentHashMap存计数,然后用ScheduledExecutorService定时清理过期数据。这套组合拳简单直接,内存开销也不算太大,适合中小规模的应用。

但话说回来,对于高并发、分布式部署的Java应用,单机限流就显得力不从心了。这时候,Redis就成了不二之选。Redis的原子操作(如INCREXPIRE)能非常方便地实现分布式环境下的IP限流。比如,你可以用SETEX ip:count 60 1来设置一个IP在60秒内只能访问1次,或者用INCR配合EXPIRE来实现滑动窗口。

// 使用Redis实现分布式IP限流(概念)
// Jedis jedis = jedisPool.getResource();
// String key = "ip_rate_limit:" + ipAddress;
// long count = jedis.incr(key);
// if (count == 1) { // 第一次访问,设置过期时间
//    jedis.expire(key, 60); // 60秒内有效
// }
// if (count > 100) { // 60秒内超过100次
//    // return blockRequest();
// }
// jedis.close();

这种方式的优势在于,它不依赖于单个服务器的内存状态,所有请求的计数都在Redis里集中管理,非常适合集群环境。而且Redis的速度非常快,对性能影响也小。不过,这会增加系统的复杂性,引入了对Redis的依赖。

Java如何识别并应对伪造User-Agent和异常请求头?

识别伪造User-Agent和异常请求头,说白了就是看这些请求是不是“装”得像个正常浏览器。大部分爬虫,尤其是那些比较懒的,会直接用一些通用或者一眼就能看穿的User-Agent,比如Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html),甚至干脆不带User-Agent。我们可以在Java的拦截器或者过滤器里,获取HttpServletRequest对象,然后调用getHeader("User-Agent")来获取这个值。

一种简单粗暴的方法是维护一个已知的爬虫User-Agent黑名单,或者检测User-Agent是否为空。如果为空,那基本可以确定不是正常浏览器访问。更进一步,可以检查Referer头。正常用户从一个页面跳转到另一个页面,Referer头会携带上一个页面的URL。如果一个请求的Referer缺失,或者指向一个完全不相关的域名,那也值得怀疑。

// 在Spring MVC拦截器或Servlet Filter中
public boolean preHandle(HttpServletRequest request, HttpServletResponse response, Object handler) {
    String userAgent = request.getHeader("User-Agent");
    if (userAgent == null || userAgent.isEmpty()) {
        // 无User-Agent,直接拦截
        // response.setStatus(HttpServletResponse.SC_FORBIDDEN);
        // return false;
    }
    // 简单的黑名单匹配
    if (userAgent.toLowerCase().contains("bot") || userAgent.toLowerCase().contains("spider")) {
        // response.setStatus(HttpServletResponse.SC_FORBIDDEN);
        // return false;
    }
    String referer = request.getHeader("Referer");
    // 检查Referer是否合法,比如是否来自本域名
    if (referer != null && !referer.startsWith("http://yourdomain.com")) {
        // response.setStatus(HttpServletResponse.SC_FORBIDDEN);
        // return false;
    }
    // 还可以检查Accept、Accept-Encoding等头是否符合浏览器标准
    return true;
}

但这里有个坑,就是User-Agent和Referer这些东西,爬虫可以轻易伪造。所以,单纯依赖这些头信息来判断,很容易被绕过。这也就是为什么我们不能只用一种方法,而是要结合多种策略,形成一个立体的防御网。

在Java应用中,如何利用行为模式分析检测复杂爬虫?

行为模式分析,这才是真正对付那些“高明”爬虫的手段。它们可能伪造了IP、User-Agent,甚至能模拟部分JS执行,但要完全模拟一个真实用户的行为轨迹,那就太难了。想想看,一个正常用户访问网站,他会有固定的浏览路径、页面停留时间、点击习惯,甚至会在页面上滚动、输入。而爬虫通常是直奔数据,不会关心这些“无用”的动作。

在Java应用中实现行为模式分析,我们可以:

  1. 追踪会话中的访问序列: 记录一个用户(或IP)在一次会话中访问了哪些URL,以及访问的顺序。如果一个“用户”在极短的时间内,从首页直接跳到了某个深层数据接口,而没有经过任何中间页面,这显然不符合正常逻辑。
  2. 分析页面停留时间: 正常用户会在页面上停留一段时间阅读内容或操作。爬虫通常是瞬间完成请求并跳转。可以记录每个请求的时间戳,计算页面间的停留时间。
  3. 识别异常操作频率: 比如,一个用户在1秒内提交了10次表单,或者对同一个搜索关键词进行了上百次查询。
  4. 检测JS/CSS加载情况: 很多爬虫为了节省资源,不会加载JS和CSS。如果一个请求完全没有加载过这些静态资源,但却请求了动态数据,那它就很可疑。这可以通过在页面中嵌入JS代码,记录JS加载完成的标记,并在后续请求中带回这个标记来判断。

要实现这些,你可能需要在Java的Servlet Filter或Spring Interceptor中,为每个会话维护一个状态对象,记录其访问历史、时间戳等信息。然后,定义一些规则或阈值,当行为偏离这些规则时,就触发警告或直接拦截。

// 行为模式分析概念
// 在拦截器中获取或创建SessionTracker对象
// SessionTracker tracker = (SessionTracker) session.getAttribute("sessionTracker");
// if (tracker == null) {
//    tracker = new SessionTracker();
//    session.setAttribute("sessionTracker", tracker);
// }
// tracker.addAccess(request.getRequestURI(), System.currentTimeMillis());

// 在SessionTracker类中可以定义方法来分析行为
// public class SessionTracker {
//    private List records = new CopyOnWriteArrayList<>();
//    public void addAccess(String uri, long timestamp) {
//        records.add(new AccessRecord(uri, timestamp));
//        // 检查异常行为
//        if (records.size() > 2) {
//            AccessRecord last = records.get(records.size() - 1);
//            AccessRecord prev = records.get(records.size() - 2);
//            if (last.timestamp - prev.timestamp < 100 && !isSequential(prev.uri, last.uri)) {
//                // 两次访问间隔过短且非正常跳转
//                // System.out.println("Suspicious rapid access detected!");
//            }
//        }
//    }
//    // 辅助方法,判断URI是否是正常顺序跳转
//    private boolean isSequential(String prevUri, String currentUri) {
//        // 实现你的业务逻辑,比如从 /list 到 /detail/id
//        return true; // 示例
//    }
// }

行为模式分析的挑战在于,它很容易产生误报(False Positive),因为真实用户的行为也可能不那么“标准”。所以,这需要大量的数据分析和规则调优,甚至可以考虑引入一些简单的机器学习模型来辅助判断,但那又是另一个更复杂的话题了。总之,这块的防御,既考验技术,也考验对业务的理解。

相关专题

更多
java
java

Java是一个通用术语,用于表示Java软件及其组件,包括“Java运行时环境 (JRE)”、“Java虚拟机 (JVM)”以及“插件”。php中文网还为大家带了Java相关下载资源、相关课程以及相关文章等内容,供大家免费下载使用。

779

2023.06.15

java正则表达式语法
java正则表达式语法

java正则表达式语法是一种模式匹配工具,它非常有用,可以在处理文本和字符串时快速地查找、替换、验证和提取特定的模式和数据。本专题提供java正则表达式语法的相关文章、下载和专题,供大家免费下载体验。

722

2023.07.05

java自学难吗
java自学难吗

Java自学并不难。Java语言相对于其他一些编程语言而言,有着较为简洁和易读的语法,本专题为大家提供java自学难吗相关的文章,大家可以免费体验。

727

2023.07.31

java配置jdk环境变量
java配置jdk环境变量

Java是一种广泛使用的高级编程语言,用于开发各种类型的应用程序。为了能够在计算机上正确运行和编译Java代码,需要正确配置Java Development Kit(JDK)环境变量。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

394

2023.08.01

java保留两位小数
java保留两位小数

Java是一种广泛应用于编程领域的高级编程语言。在Java中,保留两位小数是指在进行数值计算或输出时,限制小数部分只有两位有效数字,并将多余的位数进行四舍五入或截取。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

398

2023.08.02

java基本数据类型
java基本数据类型

java基本数据类型有:1、byte;2、short;3、int;4、long;5、float;6、double;7、char;8、boolean。本专题为大家提供java基本数据类型的相关的文章、下载、课程内容,供大家免费下载体验。

443

2023.08.02

java有什么用
java有什么用

java可以开发应用程序、移动应用、Web应用、企业级应用、嵌入式系统等方面。本专题为大家提供java有什么用的相关的文章、下载、课程内容,供大家免费下载体验。

428

2023.08.02

java在线网站
java在线网站

Java在线网站是指提供Java编程学习、实践和交流平台的网络服务。近年来,随着Java语言在软件开发领域的广泛应用,越来越多的人对Java编程感兴趣,并希望能够通过在线网站来学习和提高自己的Java编程技能。php中文网给大家带来了相关的视频、教程以及文章,欢迎大家前来学习阅读和下载。

16860

2023.08.03

俄罗斯搜索引擎Yandex最新官方入口网址
俄罗斯搜索引擎Yandex最新官方入口网址

Yandex官方入口网址是https://yandex.com;用户可通过网页端直连或移动端浏览器直接访问,无需登录即可使用搜索、图片、新闻、地图等全部基础功能,并支持多语种检索与静态资源精准筛选。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

1

2025.12.29

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Kotlin 教程
Kotlin 教程

共23课时 | 2.1万人学习

C# 教程
C# 教程

共94课时 | 5.5万人学习

Java 教程
Java 教程

共578课时 | 39.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号