Files
AIclinicalresearch/Phase2-问题9-快速验证.md
HaHafeng 855d142fec chore: add remaining test docs, scripts and temp files
- Add Git commit preparation checklist
- Add Phase testing guides and issue tracking
- Add utility scripts (env setup, test data initialization)
- Add temp migration SQL files (for reference)
- Update startup scripts and README
- Remove obsolete scripts
2025-11-16 15:44:55 +08:00

228 lines
4.7 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
# Phase 2 问题9 - 快速验证指南
**修复内容**Token限制与超时问题
**修复时间**2025-10-13
---
## 🚀 重启服务(必需)
### 1. 重启Backend
```bash
cd AIclinicalresearch/backend
# 如果正在运行按Ctrl+C停止
npm run dev
```
**等待输出**
```
✅ Backend服务已启动: http://localhost:3001
```
### 2. 重启Frontend
```bash
cd AIclinicalresearch/frontend
# 如果正在运行按Ctrl+C停止
npm run dev
```
**等待输出**
```
✅ Frontend服务已启动: http://localhost:3000
```
---
## ✅ 验证步骤
### 测试1正常使用推荐5-7篇文献
1. **进入全文阅读模式**
- 智能问答 → 知识库模式
- 选择知识库
- 选择"全文阅读"模式
2. **检查自动切换模型**
- 应该看到提示:"已自动切换到Qwen-Long模型支持1M上下文"
3. **点击"用量说明"按钮**
- 查看已加载文献数量
- 查看Token使用情况
4. **提问测试**
```
这些文献的主要研究方向是什么?
```
5. **预期结果**
- ✅ AI开始流式输出回答
- ✅ 回答完整,不会卡在中间
- ✅ 底部显示引用清单【文献N文件名】格式
- ✅ Backend日志显示Token使用情况
---
### 测试2Token接近限制8-9篇文献
1. 选择8-9篇文献
2. 进入全文阅读模式
3. 查看Backend日志
**预期**
- 🟡 警告日志:`Token数量接近限制 (XXX/990000)`
- ✅ 但仍能正常运行
---
### 测试3Token超限10+篇或超大文献)
1. 尝试选择10篇以上文献
2. 进入全文阅读模式
3. 尝试发送消息
**预期(如果超限)**
- ❌ 立即收到友好错误提示:
```
⚠️ Token数量超限
输入Token数量 (XXXXX) 超出Qwen-Long模型限制 (990000)。
请减少文献数量后重试。
建议:
- 当前选中 X 篇文献,共 XXXXX tokens
- 请减少到 Y 篇以内
- 或使用"逐篇精读"模式深入分析单篇文献
```
---
## 📊 Backend日志检查
启动对话后Backend应该输出
```
📚 [ChatController] 全文阅读模式 - 加载文献全文 { documentCount: 7 }
📄 [ChatController] 加载了 7 篇文献全文
📚 [ChatController] 全文上下文已组装 {
totalDocuments: 7,
totalCharacters: 345678,
totalTokens: 723456,
estimatedTokens: 138271
}
🤖 [ChatController] 开始调用LLM {
model: 'qwen-long',
maxOutputTokens: 6000,
mode: '全文阅读'
}
[QwenAdapter] 开始流式调用 {
model: 'qwen-long',
timeout: '300秒',
messagesCount: 2
}
```
**关键指标**
- ✅ `totalTokens` 应该 < 990,000
- ✅ `maxOutputTokens` 应该是 6000不是2000
- ✅ `timeout` 应该是 300秒
- ✅ `mode` 应该是"全文阅读"
---
## ❓ 常见问题
### Q1: 还是卡死怎么办?
**检查**
1. Backend日志中的`totalTokens`是多少?
- 如果 > 990,000说明文献太多减少到5-7篇
- 如果 < 800,000可能是其他问题
2. 是否看到`maxOutputTokens: 6000`
- 如果是2000说明代码未更新重启Backend
3. Qwen API Key是否配置正确
- 检查`.env`文件中的`DASHSCOPE_API_KEY`
### Q2: 如何知道文献的Token数
在"用量说明"弹窗中可以看到:
- 容量使用情况X / 980,000 tokens
- 已加载文献列表每篇的Token数
### Q3: 多少篇文献最合适?
**推荐**
- **5-7篇**:理想范围(~500-700K tokens
- 8-9篇可用但接近上限
- 10+篇:很可能超限
**原则**
- 平均每篇100K tokens以内最安全
- 总Token数建议 < 800K
---
## 📝 验证结果记录
### 正常使用测试
- [ ] 自动切换到Qwen-Long模型
- [ ] Token数量显示正确
- [ ] AI回答完整无卡顿
- [ ] 引用格式正确【文献N文件名】
- [ ] Backend日志正常
### 超限测试
- [ ] 超限时收到友好错误提示
- [ ] 提示包含具体Token数和建议
- [ ] 不会导致连接重置或白屏
---
## 🎯 成功标志
如果以下全部成立,说明修复成功:
1. ✅ 全文阅读模式能正常进行对话
2. ✅ AI回答不会"卡在中间"
3. ✅ 回答长度合理3000-5000 tokens
4. ✅ Token超限时有友好提示
5. ✅ Backend日志清晰详细
6. ✅ 无 ECONNRESET 错误
---
## 📞 如果还有问题
请提供以下信息:
1. **Backend日志**(完整的控制台输出)
2. **文献数量和Token数**(从"用量说明"中获取)
3. **Frontend控制台错误**(如果有)
4. **具体卡在哪里**(输出了多少内容)
**关键数据**
- `totalTokens: ?`
- `maxOutputTokens: ?`
- `timeout: ?`
这些信息能帮助快速定位问题!
---
**验证文档版本**1.0
**最后更新**2025-10-13