背景痛点:外呼场景的三座大山
做外呼的同学都懂,电话一接通,系统必须在 200 ms 内给出第一句话,否则用户直接挂断。我们在 2023 年双十一帮某银行做账单提醒,峰值 5 000 路并发,结果老系统直接“罢工”:
- 语音流是 8 kHz 单声道,每路 16 kbps,5 000 路就是 80 Mbps 的实时数据,传统 WebSocket 网关把 JSON 当语音帧传,CPU 先打满。
- 规则引擎用 if-else 维护 1 200 个意图,新增一个“分期办理”要改 7 层嵌套,上线两周准确率从 92% 掉到 84%。
- 对话状态放在 Redis Hash,key 是手机号,field 是 round_id,结果重试时 round_id 自增,脚本把“已还款”误发两次,被投诉“骚扰”。
技术方案:BERT+BiLSTM 混合架构
1. 方案对比
我们先在 4 核 16 G 的测试机跑 1 万条真实录音,结果如下:
| 方案 | QPS/每秒查询数 | 准确率 | 90th 延迟 |
|---|---|---|---|
| 规则引擎 | 1 800 | 84.3 % | 120 ms |
| FastText+CRF | 2 900 | 89.7 % | 85 ms |
| BERT+BiLSTM | 5 100 | 99.2 % | 65 ms |
结论:深度学习贵 200 ms 的 GPU 时间,但省掉后面无数次人工补规则,ROI 更高。
2. 模型结构
- 输入:语音识别后的文本,最长 64 token。
- BERT-Base-Chinese 取 [CLS] 向量 768 维。
- 接双向 BiLSTM 128 隐藏单元,捕捉“帮我查账单,不对,是查余额”这种反转句式。
- 输出层:Linear(256, n_intent) + Softmax,交叉熵损失。
训练 trick:
- 用 Whole Word Masking,中文分词后整词 mask,提升 0.8 % 准确率。
- 对抗训练 FGSM,ε=1.0,鲁棒性提升 1.3 %。
3. FastAPI 异步服务
代码目录
ai_call/ ├── main.py ├── model_pool.py ├── auth.py └── conf.ymlmain.py 核心片段(PEP8,带类型注解):
from fastapi import FastAPI, HTTPException, Depends from pydantic import BaseModel import asyncio import uuid from typing import Dict app = FastAPI(title="AI-Call-Intent-Svc") class Query(BaseModel): call_id: str text: str round_id: int # JWT 鉴权省略,用依赖注入占位 async def verify_token(): ... @app.post("/intent") async def predict(q: Query, _: None = Depends(verify_token)) -> Dict[str, any]: try: intent, score = await model_pool.infer(q.text) return {"call_id": q.call_id, "round_id": q.round_id, "intent": intent, "score": float(score)} except Exception as e: raise HTTPException(status_code=500, detail=str(e))model_pool.py 实现 GPU 池化 + 热加载,后文详述。
性能优化:把 5000 TPS 压到 65 ms
1. 压力测试方案
用 Locust 写“语音回放”场景:
- 预录 1 万条文本,按峰值倍速 2 倍回放。
- 每个用户(User)绑定一个 call_id,顺序发送 round_id=1,2,3… 模拟多轮。
- 断言返回 JSON 里 score>0.85,否则记为失败。
locustfile.py 关键段:
from locust import HttpUser, task, between class Caller(HttpUser): wait_time = between(0.5, 1.5) @task def ask(self): payload = {"call_id": self.call_id,"text": next(self.text_iter, "round_id": self.round} with self.client.post("/intent", json=payload, catch_response=True) as rsp: if rsp.json()["score"] < 0.85: rsp.failure("low_score")单机 4 进程locust -f locustfile.py -u 5000 -r 500可打出 5 100 QPS,CPU 占用 65 %,GPU 占用 82 %,符合预期。
2. GPU 资源池化
- 把模型拆成“BERT 编码器”+“分类头”两段,编码器占 90 % 计算,分类头只占 10 %。
- 起 4 个 TensorRT 引擎实例,每个实例 batch=32,动态 batching 等待 5 ms。
- 用 Redis Stream 做“推理队列”,worker 取 batch,推理完写回结果,实现“请求-结果”异步解耦,平均延迟再降 8 ms。
3. 模型热加载
线上要更新模型时,先 load 到影子池,待首次 warmup 完成(50 次空跑),再原子切换指针,旧池等待 30 s 无请求后自动卸载,实现 0 中断上线。
避坑指南:踩过的三个深坑
1. 对话超时重试的幂等性
外呼网关 3 s 没收到回包会重试,round_id 自增导致重复语义。解决:
- 用 call_id + round_id 做唯一索引,服务端先查 Redis 是否已处理过。
- 返回相同 intent,score 用缓存值,保证用户侧无感知。
2. 方言样本不平衡
粤语、四川话录音只占 5 %,模型偏向普通话。做法:
- 用 TTS 合成方言 20 万条,过一遍语音识别再喂给模型,数据增强 4 倍。
- 损失函数加 focal loss,α=0.25,γ=2,少数类 F1 从 0.54 提到 0.81。
3. 语音端点检测(VAD)误触发
用户沉默 600 ms 就切句,结果“嗯… 啊”被当成完整句子送意图。把 VAD 尾音保护从 300 ms 提到 800 ms,误触发率下降 37 %。
代码片段:异常处理与类型注解
from typing import Tuple import torch import logging logger = logging.getLogger(__name__) class IntentModel: def __init__(self, engine_path: str): self.engine = self._load_engine(engine_path) def _load_engine(self, path: str): try: return torch.jit.load(path, map_location="cuda:0") except FileNotFoundError as e: logger.error(f"model file missing: {path}") raise e async def infer(self, text: str) -> Tuple[str, float]: if not text.strip(): raise ValueError("empty text") try: with torch.no_grad(): logits = self.engine(text) prob = torch.softmax(logits, dim=-1) idx = int(torch.argmax(prob).item()) score = float(prob[idx].item()) intent = self.id2label[idx] return intent, score except RuntimeError as e: logger.exception("infer failed") raise RuntimeError("model infer error") from e延伸思考
- 如何设计一个跨语种(中、英、粤)意图识别的统一框架,既共享语义空间又保留语种特色?
- 当语音流切换到 16 kHz 双声道高清通话,VAD 与 ASR 的窗口大小该如何动态自适应?
- 在 GDPR 与《个人信息保护法》双向合规背景下,实时语音特征脱敏与模型推理如何兼得?
带着这些问题,下一期想和大家一起把“多模态情绪识别”搬进外呼链路,让机器人不仅听懂,还能听出“情绪”。如果你也在做语音对话,欢迎评论区交换踩坑清单。