通过减少锁粒度和使用读写锁可提升并发性能:将大锁拆分为小锁以降低竞争,如哈希表分桶并配独立锁;在读多写少场景中用std::shared_mutex实现并发读、独占写,结合分段锁与读写语义优化缓存结构,避免盲目加锁。

在多线程C++程序中,锁是保护共享数据的关键机制,但不当使用会成为性能瓶颈。通过减少锁的粒度和合理使用读写锁,可以显著提升并发性能。
减少锁粒度:降低竞争
锁粒度指的是每次加锁所保护的数据范围。锁粒度越粗,多个线程更容易相互阻塞。减少锁粒度意味着将大锁拆分为多个小锁,让不同线程可以同时访问不同的数据部分。
说明:例如,一个全局哈希表如果只用一个互斥锁保护,所有操作都需竞争同一把锁。若将哈希表分桶,并为每个桶配备独立的锁,线程在访问不同桶时就不会互相阻塞。
使用读写锁:区分读写场景
在读多写少的场景中,普通互斥锁会限制并发读取。读写锁(如std::shared_mutex)允许多个线程同时读,仅在写时独占访问。
立即学习“C++免费学习笔记(深入)”;
建议:当共享数据被频繁读取但很少修改时,用读写锁代替互斥锁能显著提升吞吐量。
- 读操作使用lock_shared(),允许多线程并发进入
- 写操作使用lock(),确保独占访问
- C++17起支持std::shared_mutex,也可用Boost实现兼容旧标准
实际应用示例
以下是一个使用分段锁和读写锁优化的简单缓存结构:
class ConcurrentCache {std::vector<:unordered_map int>> buckets;
std::vector<:shared_mutex> mutexes;
int hash(int key) { return key % buckets.size(); }
public:
int get(int key) {
int idx = hash(key);
std::shared_lock lock(mutexes[idx]);
if (buckets[idx].count(key)) {
return buckets[idx][key];
}
return -1;
}
void put(int key, int value) {
int idx = hash(key);
std::unique_lock lock(mutexes[idx]);
buckets[idx][key] = value;
}
};
该设计结合了分段锁(减少粒度)和读写语义(get用共享锁,put用独占锁),在高并发读场景下性能更优。
基本上就这些,关键是根据访问模式选择合适的同步策略,不盲目加锁。











