ASL Tool 3 Development Plan: - Architecture blueprint v1.5 (6 rounds of architecture review, 13 red lines) - M1/M2/M3 sprint checklists (Skeleton Pipeline / HITL Workbench / Dynamic Template Engine) - Code patterns cookbook (9 chapters: Fan-out, Prompt engineering, ACL, SSE dual-track, etc.) - Key patterns: Fan-out with Last Child Wins, Optimistic Locking, teamConcurrency throttling - PKB ACL integration (anti-corruption layer), MinerU Cache-Aside, NOTIFY/LISTEN cross-pod SSE - Data consistency snapshot for long-running extraction tasks Platform capability: - Add distributed Fan-out task pattern development guide (7 patterns + 10 anti-patterns) - Add system-level async architecture risk analysis blueprint - Add PDF table extraction engine design and usage guide (MinerU integration) - Add table extraction source code (TableExtractionManager + MinerU engine) Documentation updates: - Update ASL module status with Tool 3 V2.0 plan readiness - Update system status document (v6.2) with latest milestones - Add V2.0 product requirements, prototypes, and data dictionary specs - Add architecture review documents (4 rounds of review feedback) - Add test PDF files for extraction validation Co-authored-by: Cursor <cursoragent@cursor.com>
12 KiB
分布式 Fan-out 任务模式开发指南
版本: v1.0(基于 ASL 工具 3 架构设计经验,尚未经生产验证)
创建日期: 2026-02-23
定位: 实战 Cookbook,开发时按需查阅
互补文档:系统级异步架构风险剖析与演进技术蓝图.md(Why)→ 本文(How)
Postgres-Only 指南:Postgres-Only异步任务处理指南.md(底层规范)
首个试点: ASL 工具 3 全文智能提取工作台(docs/03-业务模块/ASL-AI智能文献/04-开发计划/08-工具3-*.md)
状态: 🟡 设计阶段经验总结,待 ASL 工具 3 M1/M2 实战后升级为 v2.0
一、适用场景判断
| 维度 | Level 1:单体任务 | Level 2:Fan-out 任务 |
|---|---|---|
| 触发模式 | 1 触发 → 1 Worker → 结束 | 1 触发 → 1 Manager → N 个 Child Worker |
| 典型案例 | DC Tool C 解析 1 个 Excel | ASL 工具 3 批量提取 100 篇文献 |
| 失败代价 | 小(重跑 40 秒) | 极大(第 99 篇失败不应导致前 98 篇白做) |
| 并发挑战 | 无(单 Worker) | 高(N 个 Child 跨 Pod 竞争同一父任务计数器) |
判断公式: 如果你的任务是"1 次操作处理 N 个独立子项,且 N 可能 > 10",就必须使用 Fan-out 模式。
二、核心架构:Manager + Child + Last Child Wins
┌─ API 层 ──────────────────────────────────┐
│ POST /tasks → 创建业务记录 → pgBoss.send │
│ (module_task_manager) │
└────────────────────────────────────────────┘
↓
┌─ Manager Job ─────────────────────────────┐
│ 1. 读取 N 个子项 │
│ 2. 快照外部依赖数据(防源头失踪) │
│ 3. for each → pgBoss.send(child_queue) │
│ 4. 派发完毕 → 退出(Fire-and-forget) │
└────────────────────────────────────────────┘
↓ (N 个)
┌─ Child Job ───────────────────────────────┐
│ 1. 乐观锁抢占(updateMany where status │
│ = pending → processing) │
│ 2. 执行业务逻辑 │
│ 3. 事务内:更新子项 + 原子递增父任务计数 │
│ 4. 判断 successCount + failedCount >= │
│ totalCount → 翻转父任务 completed │
│ 5. 错误分级:致命 return / 临时 throw │
└────────────────────────────────────────────┘
三、7 项关键设计模式
模式 1:原子递增(禁止 Read-then-Write)
问题: 多个 Child 同时完成时,count = count + 1 的读写逻辑导致计数丢失。
// ❌ 错误:Read-then-Write 反模式
const task = await prisma.task.findUnique({ where: { id } });
await prisma.task.update({ data: { successCount: task.successCount + 1 } });
// ✅ 正确:数据库级原子操作
const taskAfterUpdate = await prisma.task.update({
where: { id: taskId },
data: { successCount: { increment: 1 } },
});
Prisma 的 { increment: 1 } 编译为 SQL SET success_count = success_count + 1,数据库行锁保证原子性。
模式 2:Last Child Wins(终止器)
问题: Manager 派发完就退出,没有人负责把父任务从 processing 翻转为 completed。
解法: 每个 Child(无论成功还是失败)在原子递增后立即检查:
if (taskAfterUpdate.successCount + taskAfterUpdate.failedCount >= taskAfterUpdate.totalCount) {
await prisma.task.update({
where: { id: taskId },
data: { status: 'completed', completedAt: new Date() },
});
// 广播完成事件(如 NOTIFY)
}
关键: 成功路径和失败路径都必须有这段检查。漏掉任何一条路径,任务就可能永远卡在 processing。
模式 3:乐观锁抢占(Optimistic Locking)
问题: pg-boss 的 at-least-once 语义意味着同一 Child Job 可能被投递多次。如果用 findUnique → if (status !== 'pending') return 做幂等检查,两个 Worker 可能同时读到 pending 然后同时处理。
// ❌ 错误:Read-then-Write 幂等检查
const existing = await prisma.result.findUnique({ where: { id } });
if (existing?.status === 'completed') return; // 两个 Worker 可能同时到这里
// ✅ 正确:原子抢占
const lock = await prisma.result.updateMany({
where: { id: resultId, status: 'pending' },
data: { status: 'processing' },
});
if (lock.count === 0) return { success: true, note: 'Idempotent skip' };
updateMany 的 WHERE 条件充当乐观锁,数据库保证只有一个 Worker 能成功更新。
模式 4:错误分级路由
问题: pg-boss 默认对所有失败 Job 进行指数退避重试。但"PDF 损坏"这类永久错误重试 3 次也不会好。
try {
await doWork();
} catch (error) {
if (isPermanentError(error)) {
// 致命错误:更新业务状态为 error + 原子递增 failedCount
await markAsFailed(resultId, taskId, error.message);
// ⚠️ 别忘了 Last Child Wins 检查!
return { success: false }; // return 而非 throw → pg-boss 视为"成功消费",停止重试
}
// 临时错误 (429/5xx/网络抖动):throw → pg-boss 指数退避自动重试
throw error;
}
| 错误类型 | 处理方式 | pg-boss 行为 |
|---|---|---|
| 永久错误(4xx、数据不存在、格式损坏) | return |
停止重试 |
| 临时错误(429、5xx、网络超时) | throw |
指数退避重试 |
模式 5:三级限流(teamConcurrency)
问题: 如果不限制 Child 并发,1000 个 Job 被同时拉起 → 1000 个 await 挂起的闭包 → Node.js OOM。
// 第一级:Child Worker — 控制内存中的并发闭包数量
jobQueue.work('module_task_child', { teamConcurrency: 10 }, handler);
// 第二级:昂贵 API — 保护外部服务
jobQueue.work('module_expensive_api', { teamConcurrency: 2 }, handler);
// 第三级:LLM 调用 — 保护 LLM 并发
jobQueue.work('module_llm_call', { teamConcurrency: 5 }, handler);
teamConcurrency vs P-Queue:
P-Queue是进程内信号量,多 Pod 下每个 Pod 各自限流 → 全局并发 = 限制值 × Pod 数 → API 429teamConcurrency是 PostgreSQL 行锁,跨所有 Node.js 实例全局生效- 结论:Fan-out 场景禁止使用 P-Queue,必须用 teamConcurrency
模式 6:SSE 跨实例广播(NOTIFY/LISTEN)
问题: sseEmitter.emit() 基于内存 EventEmitter,用户连 Pod A、Worker 跑 Pod B → Pod A 收不到日志。
// Worker 端(发送)
await prisma.$executeRawUnsafe(
`NOTIFY sse_channel, '${JSON.stringify({ taskId, type: 'log', data: logEntry }).replace(/'/g, "''")}'`
);
// API 端(接收)— Pod 启动时初始化
const pgClient = new Client({ connectionString: DATABASE_URL });
await pgClient.connect();
await pgClient.query('LISTEN sse_channel');
pgClient.on('notification', (msg) => {
const { taskId, type, data } = JSON.parse(msg.payload);
const clients = sseClients.get(taskId);
if (clients?.size > 0) {
for (const res of clients) {
res.write(`event: ${type}\ndata: ${JSON.stringify(data)}\n\n`);
}
}
});
约束:
- LISTEN 连接必须独立于连接池(归还后 LISTEN 失效)
- NOTIFY payload 上限 8000 bytes
- fire-and-forget(无持久化),适合日志流这类"丢了不影响业务"的场景
模式 7:数据一致性快照
问题: Fan-out 任务可能持续数十分钟。期间用户在源模块删改数据 → Child Worker 找不到依赖数据而崩溃。
解法: Manager 派发前一次性快照关键元数据,冻结到子项记录中:
// Manager 中:批量快照
const pkbDocs = await Promise.all(
results.map(r => pkbBridge.getDocumentDetail(r.pkbDocumentId))
);
const docMap = new Map(pkbDocs.map(d => [d.documentId, d]));
await prisma.$transaction(
results.map(result => {
const doc = docMap.get(result.pkbDocumentId);
return prisma.result.update({
where: { id: result.id },
data: {
snapshotStorageKey: doc?.storageKey ?? null,
snapshotFilename: doc?.filename ?? null,
}
});
})
);
原则: 快照轻量元数据(storageKey、filename 等 < 1KB)到数据库。大文件内容不快照,通过错误分级路由兜底。
四、反模式速查表
| 反模式 | 后果 | 正确做法 |
|---|---|---|
内存计数 count + 1 |
多 Pod 计数丢失 | Prisma { increment: 1 } |
findUnique → if → update 幂等 |
并发穿透 | updateMany({ where: { status: 'pending' } }) |
| Manager 等待所有 Child 完成 | Manager 进程挂起,消耗连接 | Fire-and-forget + Last Child Wins |
| P-Queue 限流 | 多 Pod 失效 | pg-boss teamConcurrency |
| 内存 EventEmitter 跨 Pod | SSE 日志断裂 | PostgreSQL NOTIFY/LISTEN |
| Job payload 塞大数据 | pg-boss 阻塞 | 仅传 ID(< 1KB),数据存 DB/OSS |
| 队列名用点号 | pg-boss 路由截断 | 下划线命名(module_task_child) |
不设 expireInMinutes |
僵尸 Job 占据队列名额 | Manager: 60min, Child: 30min |
| 成功路径漏检 Last Child Wins | 任务永远卡在 processing | 成功 + 失败路径都检查 |
| Child 运行时回查外部模块数据 | 源头删改导致批量崩溃 | Manager 快照元数据到子项记录 |
五、pg-boss 配置速查
// Manager Job 派发
await pgBoss.send('module_task_manager', { taskId }, {
retryLimit: 2,
expireInMinutes: 60,
singletonKey: `manager-${taskId}`, // 防止同一任务重复派发
});
// Child Job 派发(Manager 内循环)
await pgBoss.send('module_task_child', { taskId, itemId }, {
retryLimit: 3,
retryDelay: 10, // 10 秒后重试
retryBackoff: true, // 指数退避(10s, 20s, 40s)
expireInMinutes: 30,
singletonKey: `child-${itemId}`,
});
// Worker 注册(队列名必须用下划线!)
jobQueue.work('module_task_child', { teamConcurrency: 10 }, handler);
六、开发检查清单
在 Code Review 时,逐项核对以下问题:
- 原子递增:父任务计数器是否使用
{ increment: 1 }? - Last Child Wins:成功路径和失败路径是否都检查了
successCount + failedCount >= totalCount? - 乐观锁:Child Worker 是否使用
updateMany({ where: { status: 'pending' } })而非findUnique → if? - 错误分级:永久错误是否
return(停止重试)?临时错误是否throw(指数退避)? - teamConcurrency:Child 队列是否设置了全局并发限制?是否禁用了 P-Queue?
- Payload 轻量:Job data 是否仅传 ID(< 1KB)?
- 过期时间:是否设置了
expireInMinutes? - 队列命名:是否使用下划线(
module_task_child),而非点号? - 数据快照:Manager 是否在派发前快照了外部依赖数据?
- NOTIFY 广播:SSE 日志推送是否经过 PostgreSQL NOTIFY(如需跨 Pod)?
- 事务保障:子项状态更新 + 父任务原子递增是否在同一事务中?
七、演进路线
| 阶段 | 时间 | 内容 |
|---|---|---|
| v1.0 设计沉淀 | 2026-02 | 基于 ASL 工具 3 架构审查经验编写本指南(当前) |
| v1.5 实战验证 | ASL M1 完成后 | 将 M1 开发中遇到的实际问题补充到本文 |
| v2.0 基建抽象 | ASL M2 完成后 | 将 Fan-out 通用逻辑抽离为 common/jobs/FanOutHelper.ts |
| v2.5 全量推广 | 后续模块 | IIT Agent 批量质控、DC 批量 ETL 等模块复用 Fan-out 基建 |
设计原则: 先在 ASL 工具 3 中"打样",踩完坑后再抽象为平台能力。避免过早抽象导致接口不合理。
本文档基于 ASL 工具 3 全文智能提取工作台开发计划(v1.5,经 6 轮架构审查)的设计经验总结。 待 M1/M2 实战后升级为 v2.0,届时补充真实踩坑记录和性能数据。