当前位置: 首页 > news >正文

山东大学软件学院项目实训-创新实训-计科智伴(二)——只能互动与练习

在前一篇博客中,我介绍了"计科智伴"知识库底座的构建思路,确立了"双库协同"的技术格局。

本篇博客进行了智能互动与练习模块的设计与实现。其核心可以概括为:以教学闭环中的"学习—练习—诊断—反馈"四个环节为牵引,构建一组以底座能力为支撑、以用户画像为驱动的对话与练习接口。

一、 模块定位:从"知识库"到"教学体验"的中间层。

知识库底座解决了"AI 能不能调到正确知识"的问题,用户画像解决了"AI 知不知道用户是谁"的问题,但它们之间需要一个工作流层,把"用户当前的状态"翻译成"对底座的具体调用",再把"底座的返回结果"翻译成"对用户有意义的输出"。

智能互动与练习模块就是这一层。按需求文档,它对外暴露 5 个接口:

接口方法教学闭环中的环节
/api/ai/chatPOST学习(讲解、答疑)
/api/ai/chat/multimodalPOST学习(识图答疑)
/api/exercises/nextGET练习(自适应出题)
/api/exercises/submitPOST诊断 + 反馈(批改、错因)
/api/exercises/targetedGET练习(薄弱点专项)

二、 核心设计:三条贯穿模块的设计原则

我确立了三条设计原则以此决定了后续每个接口的实现细节

原则一:所有 AI 调用必须经过 RAG 与画像的双重约束。

原则二:对话与练习共享同一套底座接口

原则三:所有写操作必须回流到画像

三、 关键技术环节详解

1. 智能问答/api/ai/chat:RAG 驱动的多轮对话

文本问答接口在工程上的核心,不在于调用 LLM,而在于如何把"用户当前问题 + 历史上下文 + 检索到的知识片段 + 用户画像"组装成一个高质量的 Prompt

整个调用链拆为三个 Service:RetrievalService负责检索、PromptBuilder负责组装、ChatService负责调用 LLM 与流式返回。流程如下:

用户提问 ↓ RetrievalService.hybridSearch(query, subject) → pgvector 返回 Top-K 切片 ↓ PromptBuilder.build(query, history, chunks, profile) ↓ ChatService.streamChat(prompt) → SSE 流式返回 ↓ 异步:写入对话历史(Redis List)

有几个值得展开的设计点:

学科过滤的必要性。hybrid_search接口本身支持 subject 参数。我会从用户画像中读出当前学习的科目,将检索范围限定在该科目内。

Top-K 自适应。初版固定 top_k=5,后来改成根据 query 长度动态调整:短问题(<20 字)取 3,长问题(>50 字)取 8。原因是短问题语义聚焦,多了反而稀释;长问题往往涉及多个概念,需要更多上下文。

多轮对话的窗口管理。历史对话存于 Redis 的 List,key 为chat:history:{userId}:{sessionId},每轮 push 一对消息。Prompt 中只取最近 10 轮(20 条)。窗口取多少是个权衡——窗口越长上下文越完整,但 token 成本与"被早期对话带偏"的风险也越高。10 轮是反复测试后的经验值。会话 idle 超过 30 分钟则 Key 过期,相当于自然进入新话题。

SSE 而非一次性返回。学生体验对延迟极度敏感,等待 3 秒空白屏幕和 0.3 秒后开始流式打字,主观感受差异巨大。后端使用 Spring 的SseEmitter,LLM 端走 OpenAI 兼容协议,每接收一个 chunk 即emitter.send()

2. 多模态问答/api/ai/chat/multimodal:从图片到结构化 JSON

多模态接口承接的典型场景是:学生拍下一道题、传一张笔记截图、上传一张手绘的递归调用图,希望 AI 能"看图答题"。这一接口的工程难点不在于调用视觉语言模型,而在于预处理输出结构化

预处理流水线。学生上传的图片质量参差不齐,直接送入 VLM 既贵又不准。我在 MinIO 上传前加了四步处理:格式校验(jpg/png/webp)、按 EXIF 自动旋转、长边压缩到 1280px、文件名规范化。其中长边压缩这一步直接将单次调用成本降低约 60%——VLM 按图像 token 计费,原图 1024×1024 与压缩后的差异在准确率上几乎不可感知,但成本差近 3 倍。

结构化输出而非自然语言。这是一个易被忽略但收益很大的设计决策。我在 Prompt 中明确要求模型按以下 JSON 结构返回:

json

{ "recognized_text": "题目原文(公式用 LaTeX)", "subject": "学科分类", "knowledge_points": ["涉及的知识点"], "answer": "解答过程", "confidence": 0.0~1.0 }

结构化输出带来三个直接好处:前端可分块渲染(题目用 KaTeX 渲染公式、知识点变成可点击标签跳转知识库);knowledge_points字段可用于回写到wrong_question或更新画像;confidence字段允许前端在低置信度时给出"识别可能不准,请检查"的提示。

实测下来,印刷体题目 confidence 普遍在 0.85 以上,手写体在 0.5~0.7 区间。这个区间的提示机制不可省略——否则模型会"幻觉式"地给出看似自信的错答。

3. 自适应出题/api/exercises/next:让画像驱动选题

练习题接口的核心问题不是"怎么从题库取一道题",而是"取哪一道"。有了画像后,可以做到真正的自适应

题库表exercise的核心字段:

字段类型说明
subjectvarchar学科
knowledge_pointsjsonb涉及知识点(数组),与 Neo4j Topic.name 严格对齐
difficultyint1~5 难度等级
typevarchar单选/多选/填空/简答/编程
contenttext题干(支持 Markdown + LaTeX)
answertext标准答案
explanationtext标准解析

knowledge_points与 Neo4j 中 Topic 节点的name严格对齐这一点尤为关键,它是后续诊断阶段能跨库联动的前提。

选题逻辑分三步:

第一步,加权采样选定知识点。从画像读取knowledge_mastery,以(1 - mastery)作为该知识点的采样权重。掌握度越低,被选中的概率越高。这比简单遍历薄弱点更平滑,也避免了用户在同一个薄弱点上反复刷题。

第二步,难度自适应。根据该知识点的当前掌握度映射难度区间——掌握度 < 0.4 出 difficulty 1~2,0.4~0.7 出 2~3,> 0.7 出 3~4。让学生始终处在"略有挑战但不至于挫败"的区间。

第三步,去重。Redis 维护done:exercise:{userId}集合,TTL 7 天。每次选题前 SISMEMBER 判断,命中则重选,最多重试 5 次。这保证短期不重复但又不会因为题库小而陷入死循环。

4. 答案批改/api/exercises/submit:AI 判分 + 画像回流

提交接口是整个模块业务最重的一个,因为它要同时完成批改画像回写错题归档反馈生成四件事。

批改分流。不同题型批改策略不同。客观题(单选、多选、判断)走字符串比较,零成本零延迟;填空题先精确匹配,失败后才走 AI 判断同义表达(如"栈"≡"堆栈");简答题与编程题完全交给 LLM 判分。

LLM 判分的 Prompt 设计经历了一次重要调整。初版 Prompt 措辞较温和("请评价学生答案"),结果模型几乎逢答必对,分数失真严重。后来改为:

请严格按照标准答案的核心要点判断。每遗漏一个关键要点扣相应分数,错误表述按程度扣分。返回 JSON:{ correct, score, feedback }

并将 temperature 设为 0.1。两项调整后,AI 判分与人工抽检的一致率从约 60% 提升到 88% 左右。这印证了一个我反复体会的事实——LLM 的输出质量,几乎完全由 Prompt 的明确程度决定

画像回流。这是体现"原则三"的关键步骤。答错时:调用底座的update_topic_mastery接口,对涉及的每个知识点扣 0.05;将题目写入wrong_question表;清除userProfile缓存。答对时:掌握度 +0.05,掌握度首次突破 0.8 时给前端推一条"恭喜掌握 XX"的反馈消息。

反馈增强。传统在线练习答错后只展示标准解析,但我们的优势是知识库底座完整。我在反馈环节追加了一步——以错题涉及的知识点为 query,调用hybrid_search检索 Top-3 切片,作为"延伸阅读"附在反馈下方。学生答错的瞬间能直接看到对应章节的精华讲解,这是单纯有题库或单纯有知识库都做不到的——它依赖前一阶段构建的双库协同底座。

5. 专项练习/api/exercises/targeted:用图谱编排路径

专项练习的产品形态是"针对薄弱点连续刷一组题",看似简单,但怎么编排这组题决定了产品价值。

最直观的方案是把所有薄弱点列出来,每个出两道题。但这种方案在实际推演中很快暴露问题:若学生"动态规划"薄弱、根源是"递归"未掌握,直接刷 DP 题只会反复挫败。真正的薄弱不是末端节点,而是它依赖的某个前置节点未达标。

这是 Neo4j 图谱真正派上用场的地方。编排逻辑如下:

1. get_weak_topics(subject, threshold=0.5) → 拿到所有薄弱点 W 2. 对每个 t ∈ W: 沿 PREREQUISITE_OF 反向遍历前置节点 P 若 p ∈ P 且 mastery(p) < 0.5 → p 才是真正的"病根" 3. 按"前置 → 末端"的顺序组织题目序列 4. 每个节点配 1~3 道题,难度由低到高

举一个真实跑出来的例子:用户在"动态规划"上掌握度 0.3,前置链中"递归"为 0.2、"分治"为 0.8。生成的序列为:

递归(基础 ×2) → 递归(进阶 ×1) → 动态规划(入门 ×2) → 动态规划(应用 ×2)

这种"由因及果"的路径编排,本质上是把图谱的关系推理能力转化为产品体验。若没有PREREQUISITE_OF关系,这一逻辑只能退化为简单的题目堆叠,所谓"专项"也就名不副实。前一阶段在图谱中手工标注那 40+ 对前置关系的工作,在此处获得了直接回报。

四、 部署与联调中的三个坑

模块开发完后联调阶段遇到了几个有代表性的问题,记录如下。

坑一:SSE 在 Nginx 反向代理后被缓冲。本地开发时流式输出表现正常,部署到测试服务器后变为"等待数秒后一次性返回完整文本"。排查发现 Nginx 默认开启了proxy_buffering。在对应 location 块中显式关闭即可:

nginx

proxy_buffering off; proxy_cache off; proxy_set_header Connection ""; proxy_http_version 1.1;

坑二:多模态接口的成本失控。接通后第一天进行密集测试,未做图像压缩,单日消耗约为预算的 50%。事后复盘,VLM 计费按图像 token,原图与长边 1280 压缩后的图在视觉问答任务上准确率几乎一致,但成本差近 3 倍。任何调用第三方 API 的接口,必须在上线前完成成本估算并加入预处理优化,这一点对学生项目尤其重要。

坑三:知识点别名导致跨库联查失败。题库录入时的标签是"快速排序",但图谱中部分节点早期写为"快排",跨库联查时匹配不上。最终在KnowledgePointNormalizer中维护一份别名映射表("快排"、"快速排序"、"QuickSort" 全部归一到Topic("快速排序"))。这是一个底层数据治理问题,根因是模块间字段约定不严,提醒我任何跨库的字段对齐都应当作为契约写进文档,而非依赖默契

五、 阶段成果数据

本模块开发完成后,对照需求文档自检:

指标需求实际完成
接口数55
文本问答平均首字延迟< 1s约 0.6s
文本问答 RAG 召回相关切片 ≥ 3 条Top-K 自适应 3~8 条
多模态识别置信度(印刷体)≥ 0.7平均 0.87
AI 批改与人工抽检一致率≥ 80%88%
自适应选题画像驱动是(加权采样 + 难度自适应)
专项练习路径编排基于薄弱点基于薄弱点 + 前置图谱

六、 总结与下一步

本周已经把"学—练—诊—反馈"的最小闭环跑通:学生可以发起对话、上传图片、自适应刷题、获得 AI 批改与延伸讲解、进入专项练习。但这只是闭环的"骨架版本",真正的智能体验还需要诊断 Agent 的细粒度错因分析、规划 Agent 的学习路径生成共同支撑。

下一阶段我会继续推进两件事:一是将诊断 Agent 接入提交接口,二是基于本模块沉淀的练习数据,与规划 Agent 协同。

http://www.jsqmd.com/news/750413/

相关文章:

  • 2026年3月吸音板公司口碑推荐,空心格栅/七槽格栅/木饰面/A级防火板/集成墙板/防撞板/木塑面,吸音板企业哪家好 - 品牌推荐师
  • 3大核心特性解析:MyTV-Android如何为老旧电视注入新活力
  • Vivado 2019.1 + Petalinux 实战:分离式设备树与PL动态加载避坑指南
  • 如何在Windows 11 LTSC 24H2上快速恢复微软商店:完整免费指南
  • 深入PyTorch显存管理:从一次OOM报错,理解max_split_size_mb参数的真实含义与最佳实践
  • 别再瞎调颜色了!手把手教你用Python+OpenCV搞定ISP中的CCM矩阵(附代码)
  • 从“静默”到“唤醒”:深入理解UDS 0x28服务在ECU睡眠管理中的关键作用
  • 从安防到物联网:SNMP协议在非传统设备上的实战(以摄像头为例)
  • 基于遗传算法的机械故障诊断MATLAB程序
  • 世界模型EP01:DreamZeroDreamDojo 世界模型与机器人智能的新范式
  • 将 Claude Code 编程助手无缝对接至 Taotoken 平台使用
  • R3nzSkin国服换肤工具:如何在英雄联盟中零风险体验全皮肤
  • 游戏性能被DLSS版本卡住?这个工具让你自由掌控显卡潜力
  • CTF新手必看:手把手教你用Python脚本批量处理36个二维码碎片(BUUCTF安洵杯真题复盘)
  • JoyCon-Driver深度解析:Switch手柄PC无线控制的技术实现方案
  • Anthropic颠覆OpenAI了吗?
  • 孤舟笔记 并发篇二十三 线程池是如何实现线程复用的?Worker循环取任务的秘密远比你想象的精巧
  • 2026支付宝立减金回收攻略:过期作废太可惜,这样操作轻松换额度 - 可可收
  • FOCUS方法:解决多主体图像生成中的属性绑定与空间关系问题
  • 语言如何刻写自感:从黄玉顺“生活存在论”到“痕迹政治学”的元重释
  • PyTorch模型保存的两种方式(.pth全量 vs state_dict),哪种更适合转ONNX?一次讲清楚
  • Obsidian Excel插件:构建企业级知识库结构化数据管理的完整方案
  • 从寄存器操作到库函数:我的ZYNQ OV5640+LCD显示工程优化与重构心得
  • 为 OpenClaw Agent 工作流配置 Taotoken 作为统一的模型提供商
  • 终极解决方案:如何用OBS多平台推流插件实现一次编码多平台直播
  • 内网部署音频AI项目,我踩遍了librosa、numba和llvmlite的版本坑(附完整依赖清单)
  • 惠阳中大型塑胶模胚加工及代表性厂家 - 昌晖模胚
  • 告别HX711!用STM32和CS1238搭建低成本高精度电子秤方案(附完整工程)
  • 告别SDK卡顿!ZYNQ-7020上两种HDMI图片显示方案的实战对比与选择
  • OneDrive同步总出bug?程序员教你用Git思维来管理和排查同步问题