背景痛点:为什么老方案撑不住 5000 并发?
架构设计:Spring Cloud + Python NLP 的“混血”方案
核心实现
1. BERT 意图识别:Python 端 80 行代码搞定
2. 状态机多轮对话:Java 端稳控流程
3. Kafka 异步解耦:削峰填谷
性能优化
1. 模型热加载:秒级更新不停服
2. Redis 缓存:对话上下文“常驻内存”
避坑指南
1. 对话超时别乱清
2. 敏感词过滤别硬匹配
生产验证:压测报告一览
留给读者的 3 个开放式问题
背景痛点:为什么老方案撑不住 5000 并发
去年“618”大促,我们旧版客服系统直接“炸”了:
- 意图识别靠正则,用户换种说法就“抓瞎”,准确率不到 70%
- 多轮对话用 if-else 硬写,10 层嵌套后没人敢改
- 高峰期 3k QPS 就把单体式应用打挂,重启一次 5 分钟,客诉飙升
总结下来就是三句话:
- 识别不准
- 流程难改
- 并发扛不住
于是痛定思痛,决定用“微服务 + 模型 + 消息队列”重新造轮子。
架构设计:Spring Cloud + Python NLP 的“混血”方案
| 模式 | 优点 | 缺点 | 适用场景 |
|---|---|---|---|
| 纯规则 | 开发快、可解释 | 难扩展、准确率天花板 | 冷启动 MVP |
| 纯模型 | 准确率高 | 训练贵、黑盒 | 数据充足 |
| 混合 | 规则兜底+模型主攻 | 系统复杂 | 生产环境 |
权衡之后,我们采用“混合”路线:
- Java 业务侧:Spring Cloud 负责高并发、事务、降级
- Python 模型侧:FastAPI + Transformers,专注 NLP
- 中间件:Kafka 做异步、Redis 做缓存、MySQL 仅落盘关键日志
这样 Java 同学不用碰模型,算法同学也不用管分布式事务,边界清晰,谁出问题谁背锅。
核心实现
1. BERT 意图识别:Python 端 80 行代码搞定
训练好 12 类意图后,把模型推到 MinIO,推理服务用 FastAPI 封装:
# intent_service.py from fastapi import FastAPI, HTTPException from transformers import BertTokenizer, BertForSequenceClassification import torch, os, logging model_path = "/model/intent_cls" tokenizer = BertTokenizer.from_pretrained(model_path) model = BertForSequenceClassification.from_pretrained(model_path) model.eval() # 推理模式 app = FastAPI() id2label = {0: "查订单", 1: "退货", 2: "优惠券", ...} @app.post("/intent") def predict(text: str): try: inputs = tokenizer(text, return_tensors="pt", truncation=True, max_length=32) with torch.no_grad(): logits = model(**inputs).logits prob = torch.softmax(logits, dim=-1) score, idx = torch.max(prob, dim=-1) return {"intent": id2label[idx.item()], "score": score.item()} except Exception as e: logging.exception("intent error") raise HTTPException(status_code=500, detail=str(e))- 模型文件提前加载,推理接口 P99 30 ms
- 异常统一 500,方便 Java 侧触发熔断
2. 状态机多轮对话:Java 端稳控流程
Spring StateMachine 自带状态与事件机制,把“查订单”拆成 4 个状态:
enum State { IDLE, AWAIT_ORDER_ID, AWAIT_CONFIRM, DONE } enum Event { ASK_ORDER, INPUT_ID, CONFIRM } @Configuration public class DialogConfig extends StateMachineConfigurerAdapter<State, Event> { @Override public void configure(StateMachineTransitionConfigurer<State, Event> transitions) throws Exception { transitions .withExternal().source(IDLE).target(AWAIT_ORDER_ID).event(ASK_ORDER) .and() .withExternal().source(AWAIT_ORDER_ID).target(AWAIT_CONFIRM).event(INPUT_ID) .and() .withExternal().source(AWAIT_CONFIRM).target(DONE).event(CONFIRM) .and() .withExternal().source(IDLE).target(IDLE).event(INPUT_ID) // 异常输入回到 IDLE .action(c -> c.getExtendedStateMachine().sendEvent(ASK_ORDER)); } }- 状态机实例按
userId维度缓存到 Redis,30 min 过期 - 每步动作把上下文
Context序列化进 Redis,重启不丢
3. Kafka 异步解耦:削峰填谷
用户说完一句话,Java 网关先落一条消息到 Kafka,返回“处理中”占位:
# 生产者 spring.kafka.producer.topic: dialog-inputPython 侧消费后把意图结果写回dialog-output,Java 再推送给前端。
压测发现:同步改异步,峰值 QPS 从 3k→7k,RT 从 900 ms→220 ms,错误率 0.3%。
性能优化
1. 模型热加载:秒级更新不停服
FastAPI 启动时开线程每 30 s 轮询 MinIO 的version.txt:
def hot_reload(): global model, tokenizer while True: new_ver = get_remote_version() if new_ver > local_ver: tmp_model = BertForSequenceClassification.from_pretrained(tmp_path) model = tmp_model # 原子替换 local_ver = new_ver time.sleep(30)- 双缓冲,无锁切换,线上 0 中断
- 灰度 10% 流量验证 5 min,无误再全量
2. Redis 缓存:对话上下文“常驻内存”
- Key 设计:
dialog:{userId},Hash 存state|variableJson - 过期策略:每次写操作刷新 TTL 30 min,防止“聊到一半被踢”
- 大促前把 Redis 从 8 G 升到 32 G,命中率 99.5%,DB 压力降 80%
避坑指南
1. 对话超时别乱清
早期直接在 Redis 设 10 min TTL,结果用户去洗个澡回来对话被清空,怒打一星。
改进:
- TTL 延长到 30 min
- 前端心跳包每 3 min 发“ping”,后台续期
- 真正结束(状态机到 DONE 或用户主动退出)才删缓存
2. 敏感词过滤别硬匹配
硬匹配会把“红包”误杀成“红*包”,体验极差。
用AC 自动机 + 白名单双策略:
- AC 树预处理 2 w 敏感词,复杂度 O(n)
- 白名单支持业务配置,例如“红包”在电商节期间放行
- 返回替换位置给前端,高亮提示而非直接拒绝,减少投诉
生产验证:压测报告一览
| 指标 | 目标 | 实际 |
|---|---|---|
| 意图识别准确率 | ≥ 95% | 99.2% |
| 平均响应时间 | ≤ 300 ms | 220 ms |
| P99 响应时间 | ≤ 600 ms | 480 ms |
| 并发 TPS | 5000 | 6200 |
| 错误率 | ≤ 0.5% | 0.28% |
| 滚动发布中断时间 | 0 | 0 |
压测脚本用 Gatling,持续 30 min,CPU 占用 70% 左右即停,留 30% buffer 给突发流量。
留给读者的 3 个开放式问题
- 如果业务拓展到多语言,是否仍用同一套 BERT 中文模型?你会如何设计“语言路由”层?
- 状态机实例随着用户量线性增长,Redis 内存迟早见顶,有没有更省内存的“对话压缩”方案?
- 当模型需要在线增量学习用户反馈时,如何保证“模型版本一致”与“灰度回滚”两者兼得?
欢迎在评论区聊聊你的思路,一起把智能客服做得更“智能”、更“扛造”。