Java并发应从Thread和Runnable入门,先实践线程启动、共享变量可见性、sleep/join协作;再深入synchronized三种用法及锁对象本质;接着掌握ThreadPoolExecutor核心参数;最后理解CompletableFuture的执行时机与线程池选择。

从 Thread 和 Runnable 开始,别一上来就啃 AQS
Java 并发不是从 ReentrantLock 或 AbstractQueuedSynchronizer 入门的。新手直接看源码或背锁机制,90% 会卡在“知道概念但写不出正确逻辑”。先用最原始的方式暴露问题:
new Thread(() -> {
System.out.println("Hello from " + Thread.currentThread().getName());
}).start();重点练三件事:启动线程、共享变量可见性(加 volatile 对比不加)、Thread.sleep() 和 join() 的协作效果。别急着封装工具类,先让两个线程抢同一个 int count 并观察结果——这时候你才会真正理解为什么需要同步。
理解 synchronized 的三种用法和锁对象本质
synchronized 不是“加个关键字就线程安全”,它的行为完全取决于锁对象是谁。新手常误以为方法加了 synchronized 就万事大吉,结果多个实例之间照样并发出错。必须亲手验证这三种写法的区别:
// 1. 实例方法:锁的是 this
public synchronized void inc() { count++; }
// 2. 静态方法:锁的是 MyClass.class
public static synchronized void incStatic() { staticCount++; }
// 3. 同步块:锁的是指定对象
synchronized (lockObj) { count++; }关键点:this 和 MyClass.class 是两把完全不相干的锁;lockObj 必须是所有线程共用的同一个引用,用 new Object() 每次都新建就等于没锁。
ExecutorService 替代裸线程管理,但别跳过 ThreadPoolExecutor 参数含义
用 Executors.newFixedThreadPool(5) 很快,但线上出问题时你根本不知道队列满了会发生什么。必须搞清 ThreadPoolExecutor 四个核心参数的实际影响:
-
corePoolSize:不是“固定线程数”,而是“保底常驻线程数”,空闲时也不会销毁(除非设了allowCoreThreadTimeOut) -
maximumPoolSize:只有当任务队列满且当前线程数 maximumPoolSize 时,才新建线程 -
workQueue:用LinkedBlockingQueue默认无界,OOM 风险极高;ArrayBlockingQueue才是可控选择 -
RejectedExecutionHandler:默认抛RejectedExecutionException,但你可以换成丢弃旧任务(DiscardOldestPolicy)或调用者自己执行(CallerRunsPolicy)
Executors 工厂方法,直接 new ThreadPoolExecutor 写全参数。
CompletableFuture 不是“异步版 Future”,它解决的是组合与错误传播
很多新手以为 CompletableFuture.supplyAsync() 就是把代码扔给线程池执行,忽略了它真正的价值在链式编排。比如:
CompletableFuture.supplyAsync(() -> fetchFromDB(), dbPool)
.thenApply(data -> transform(data))
.thenCompose(result -> callRemoteApi(result))
.exceptionally(ex -> fallbackValue())
.thenAccept(finalVal -> updateCache(finalVal));注意三点:thenApply 和 thenCompose 的区别(后者返回的是另一个 CompletableFuture,避免嵌套);exceptionally 只捕获上游异常,下游再抛异常不会被兜住;默认使用的 ForkJoinPool.commonPool() 不适合 IO 密集型操作,必须显式传入自定义线程池(如 dbPool)。漏掉线程池参数,高并发下 commonPool 被打满,整个应用异步逻辑就堵死。
并发编程最难的部分不在语法,而在于“状态归属”和“执行时机”的隐式约定。比如一个 ConcurrentHashMap,你以为 put 是原子的,但 computeIfAbsent 的 lambda 里再读写别的共享变量,就又跳出原子范围了。每加一层抽象,就要重新确认边界在哪里——这点没人替你检查,只能靠反复 debug 和日志定位。











