

新闻资讯
技术学院数据库唯一约束是最可靠的重复日志拦截方式,通过 order_id 与 log_type 组合建唯一索引,可强制阻止重复插入并抛出 Integrity constraint violation 异常。
订单日志重复最常见原因是业务逻辑里没做幂等校验,光靠代码判断容易漏。直接在数据库层面加约束最可靠——比如把 order_id 和 log_type(如 'paid'、'shipped')组合设为唯一索引。
这样即使并发写入两条相同日志,第二条会触发 Integrity constraint violation 错误,而不是静默插入。你捕获这个异常后可以忽略或记录告警,但不会污染数据。
ALTER TABLE order_logs ADD UNIQUE INDEX uk_order_type (order_id, log_type);
remark),这些字段不能参与唯一索引,否则相同订单不同备注会被拦住适合高并发下单场景,在真正写库前先过一道缓存关卡。核心是用 SETNX 设置一个带过期时间的临时 key,比如 log_lock:order_12345:paid。
它比数据库锁快得多,且天然支持自动过期,避免死锁。但要注意:Redis 不是强一致存储,网络分区或写入失败时可能漏判,所以它只能作为第一道过滤,不能替代数据库唯一约束。
立即学习“PHP免费学习笔记(深入)”;
$key = 'log_lock:order_' . $orderId . ':' . $logType;
if ($redis->setnx($key, 1)) {
$redis->expire($key, 30); // 30秒足够完成后续写库
// 继续写日志
} else {
// 已存在,跳过或记录冲突
}SET ... NX EX 一条命令代替 SETNX + EXPIRE,老版本 Redis 不支持复合指令很多重复日志源于“支付成功”这类事件被多次投递(比如 MQ 重发、回调重复)。与其在每个事件入口做防重,不如把日志当作状态变更的副产品——只在订单状态从 pending → paid 等确定跃迁时才写。
状态变更本身必须是原子的(例如用 UPDATE orders SET status = 'paid' WHERE id = ? AND status = 'pending'),影响行数为 1 才算真正变更成功,这时再写日志才安全。
callback_id 或 out_trade_no
自增主键对防重毫无帮助,反而掩盖问题。更合理的是把 id 设为联合主键或唯一键,比如 (order_id, log_type, created_at),或者直接用雪花 ID / UUID 作主键并配合业务字段唯一索引。
这样做不只是为了防重,更重要的是让日志可追溯、可对账:同一笔订单的某类操作(如发货)理应只有一次有效记录,多出来就是异常。
created_at 做唯一依据,毫秒级重复仍
可能;优先选业务语义明确的字段组合address_update_seq,并在写入前校验是否已存在更高序号