Files
AIclinicalresearch/docs/03-业务模块/IIT Manager Agent/02-技术设计/CRA Agent 业务逻辑与执行架构书 (1).md

3.4 KiB
Raw Permalink Blame History

CRA Agent 业务逻辑与执行架构书

文档目的: 基于用户定义的 5 大规则体系,构建标准化的 CRA 智能监查工作流。

适用版本: IIT Manager Agent V2.9.1

创建日期: 2026-02-07

🏛️ 一、 规则体系定义 (The 5 Pillars)

我们将规则分为两类引擎执行,以平衡成本与智能。

编号 规则类型 执行引擎 来源方式 典型示例
1 变量质控 Hard Engine (代码) 自动从 Metadata 同步 空值检查、数值范围 (0<BMI<50)、逻辑跳转
2 入排标准 AI Engine (LLM) AI 解析 Protocol + 人工确认 确诊时间 < 3个月、实验室指标符合入组线
3 方案偏离 (PD) Hybrid (混合) 人工配置逻辑 访视超窗 (Date2 - Date1 > 28+3)、禁用药物使用
4 AE 事件 AI Engine (LLM) 预置医学 Prompt Lab 异常值 vs AE 记录一致性检查 (SAE Reconciliation)
5 伦理合规 Hard Engine (代码) 预置逻辑 知情同意书签署日期 > 访视 1 日期

🔄 二、 智能监查工作流 (The Workflow)

Step 1: 触发与范围界定 (Trigger)

  • 触发源
    • 自动触发Webhook (REDCap 数据录入) 或 Cron (每日凌晨)。
    • 人工触发:用户点击“立即监查”。
  • 范围优化:使用 增量检查 (Incremental Check)。只对新录入或变更的数据及其相关联规则进行检查。

Step 2: 漏斗式质控执行 (Funnel Execution)

为每个受试者执行以下管道:

  1. Level 1: 阻断性检查 (Blocking)
    • 检查伦理 (ICF) 和 关键变量缺失。
    • 如果 Fail:直接标记为 Critical中止后续 AI 检查(省钱)。
  2. Level 2: 基础清洗 (Cleaning)
    • 运行所有变量质控规则 (Hard Rules)。
    • 生成基础错误日志。
  3. Level 3: AI 深度监查 (AI Reasoning)
    • 组装 Context (XML+Markdown)。
    • 调用 LLM 检查 入排、PD、AE。
    • 输出证据链{ "status": "FAIL", "reason": "...", "evidence": { "var": "alt", "val": 150 } }

Step 3: 结果汇总 (Aggregation)

更新 iit_qc_project_stats 和 iit_record_summary 表。

  • 生成 风险热力图 (Risk Heatmap) 数据源。

Step 4: 双模报告输出 (Dual-Mode Reporting)

  • Mode A: 人类阅读版 (Interactive UI)
    • 热力图 + 诊断卡片。
    • 支持 “确认/忽略” 操作 (Query Loop)。
  • Mode B: LLM 阅读版 (Context Protocol)
    • XML 结构化数据,包含统计摘要 + 严重问题清单 + 证据链。

Step 5: 智能问答 (Q&A Loop)

  • 用户提问 -> ContextBuilder 提取 Mode B 报告 -> LLM 回答。
  • 场景:“帮我列出所有疑似未报 AE 的患者。”

💡 三、 关键增强点

  1. SDV 边界声明:明确系统仅进行“逻辑一致性监查”,无法核对原始病历真伪。
  2. 人机回环 (HITL):所有 AI 生成的复杂规则(入排/PD必须经过人工 "Review & Activate" 才能生效。
  3. 三态管理:质控结果包含 Pending (AI 疑似), Confirmed (人工确认), Ignored (人工忽略)。

结论

该方案逻辑闭环,技术可行。通过引入 漏斗执行人机回环,可有效解决成本与准确性问题。