当前位置: 首页 > news >正文

AI辅助手写试卷评分的实战:OCR与LLM技术方案对比与工程化指南

1. 项目概述:当AI遇见手写试卷

作为一名在工程教育领域摸爬滚打了十几年的教师,我每年最头疼的时刻之一,就是期末考试后那堆积如山的试卷。尤其是像热力学这样的核心课程,一道计算题往往涉及多个公式推导、图表绘制和概念应用,评分工作不仅繁重,更要求高度的专注和一致性。去年,我们团队进行了一次大胆的尝试:探索利用人工智能(AI)来辅助完成手写热力学试卷的评分工作。这并非要取代教师的专业判断,而是希望借助技术的力量,将我们从重复性的、机械的核对工作中解放出来,让我们能更专注于评估学生的解题思路和创造性思维。

这个项目的核心挑战非常明确:如何让机器“读懂”学生那五花八门的手写答案?这远不止是把字认出来那么简单。学生的笔迹从工整清晰到“医生体”天书应有尽有;解题过程中大量的公式、希腊字母、上下标和积分符号构成了一个独特的“数学语言”系统;更别提那些要求绘制的温度-熵(T-s)图、压力-温度(p-T)图,这些图表信息如何转化为机器可以“理解”的文本描述?我们尝试了四种不同的工作流程,核心都围绕着两个关键技术环节:光学字符识别(OCR)大语言模型(LLM)。OCR负责将扫描后的试卷图像“翻译”成结构化的文本(我们用的是LaTeX格式),而LLM(我们主要测试了GPT-4系列模型)则扮演“阅卷老师”的角色,根据标准答案和评分规则,对转换后的文本答案进行理解和打分。

整个探索过程充满了意想不到的困难,也收获了宝贵的启示。我发现,技术方案的细节选择,比如OCR工具的搭配、评分规则的粒度设计,甚至一个叫“温度”(Temperature)的参数设置,都会对最终评分的准确性和可靠性产生巨大影响。这篇文章,我就来详细拆解我们踩过的坑、试过的方法,以及对于未来想要尝试类似应用的同行们,我的一些实操心得和建议。

2. 核心挑战拆解:为什么手写试卷是AI的“硬骨头”?

在畅想AI自动评分之前,我们必须正视一个基本事实:当前技术在处理非结构化、高噪声、高专业性的手写内容时,依然存在显著瓶颈。我们的研究对象是252份真实的热力学期末试卷,这绝非一个干净的实验室环境。学生使用的是自备的纸张,解题过程充满涂改,答案布局随心所欲。这些现实因素共同构成了AI评分的“三重门”。

2.1 第一重门:手写识别与公式转换的天然困境

OCR技术发展至今,对于印刷体文本的识别已经相当成熟。但手写体,尤其是科学计算中的手写体,是另一个维度的难题。

笔迹多样性与模糊性:如图3所示的学生答案,字迹潦草、连笔严重,甚至使用圆珠笔导致的墨迹断续,都会让OCR引擎陷入困惑。更棘手的是,学生常用涂鸦式的“划掉”来表示错误步骤。对人类阅卷者而言,这很直观;但对OCR来说,这些墨团可能被识别为图表、无关注释,甚至是另一个字符。在我们的流程中,MathPix OCR在遇到低置信度的区域时,会直接将该区域保存为JPG图片嵌入LaTeX,后续再由GPT-4V尝试解读。这就引出了一个严重问题:GPT-4V有时会“无视”涂改痕迹,把学生已经废弃的算式重新“复活”并纳入评分,这显然会导致误判。

数学语言的结构复杂性:热力学试卷充斥着微分符号“d”、偏导符号“∂”、求和“∑”、积分“∫”,以及大量的上下标(如h_out,T_in)和分式。这些符号的二维空间关系(如上标、下标、分式的分子分母)对于正确理解公式语义至关重要。OCR系统必须不仅识别字符,还要理解它们的二维布局结构,并将其准确转换为LaTeX这样的标记语言。一个常见的错误是将Q_out识别为Qout,丢失了下标信息,这在物理意义上可能是完全不同的变量。

多语言与专业术语混合:我们的考试虽以德语进行,但热力学公式本身是国际通用的符号语言。然而,学生在描述性文字或变量注释中会混用德语。例如,一个模糊的手写下标“eis”(德语的“冰”),如果脱离“冰水混合物”的物理上下文,OCR几乎不可能猜出它的含义(见图6中MathPix直接跳过了该词)。这要求后续的LLM不仅要懂数学,还要具备一定的领域知识和多语言理解能力。

2.2 第二重门:从图像到理解的语义鸿沟

即使OCR成功地将手写内容转换成了文本,这也不意味着机器“理解”了答案。这就是LLM需要介入的地方,但这里同样存在鸿沟。

图表信息的文本化丢失:问题2a和4a明确要求绘制过程图。对于AI评分系统,必须先将这些手绘图转换为文字描述。我们使用GPT-4V来“看图说话”,生成像图7、图8那样的描述。然而,这种转换存在根本性缺陷:描述是定性的,而评分需要定量或结构化的比对。GPT-4V可以描述“图上有一条曲线和几个点”,但它很难精确判断学生绘制的等压线p2是否经过了正确的状态点,或者曲线的斜率趋势是否反映了不可逆过程的熵增。这种从丰富视觉信息到贫瘠文本描述的转换,必然丢失大量用于精确评分的细节。

解题路径的多样性与评分规则的刚性:优秀的热力学问题往往有多种解法。人类评分者可以识别不同的、但等价的公式表述,或者理解学生虽然跳步但思路正确的推导。LLM虽然具备强大的语言理解能力,但其判断严重依赖于我们提供的“标准答案”和“评分规则”的表述方式。如果评分规则(Rubric)制定得过于细致和僵化,要求必须出现某个中间变量或特定公式形式,那么即使学生用另一种完全正确的方法解题,也可能无法得分。这就要求我们在设计AI评分提示(Prompt)时,必须在规则的明确性和灵活性之间找到微妙的平衡。

2.3 第三重门:工程化部署的现实约束

在学术研究之外,若想将这套系统投入实际应用,还必须考虑一系列工程和伦理问题。

流程的可靠性与稳定性:我们的流程涉及多个环节:扫描、OCR、LLM评分。每个环节都可能出错。扫描仪可能自动切换彩色/黑白模式,导致某些笔迹不清;OCR API可能因网络问题调用失败;LLM生成具有随机性,多次运行可能给出不同分数。一个生产级系统必须能处理这些异常,保证端到端的稳定运行,而不是在实验室的理想条件下。

成本与效率的权衡:使用商业OCR和LLM API是按量计费的。处理一份包含复杂公式和图表的试卷,尤其是调用多模态模型(GPT-4V)来识别图像,token消耗巨大,成本不菲。同时,多次调用取平均分以提高可靠性(如我们对每份试卷评分10次)的策略,会进一步放大成本。这对于大规模考试评分而言,是一个必须算的经济账。

数据隐私与伦理:学生试卷是敏感数据。我们的研究获得了伦理委员会批准,并进行了匿名化处理。在实际应用中,必须确保所有数据处理(包括可能涉及跨国传输的OCR服务)符合当地数据保护法规(如欧盟的GDPR)。我们当时就因MathPix服务可能在美国处理数据,而将所有学生信息进行了假名化处理。

实操心得:在启动类似项目前,不要低估数据预处理的工作量。我们花了大量时间手动整理试卷:排序页面、旋转方向错误的纸张、裁剪掉信头广告(学生用了带公司Logo的便签纸)。这些“脏活累活”不解决,再先进的AI模型也无用武之地。自动化评分的前提,是高度标准化的输入。

3. 技术方案深度对比:四种工作流程的实战剖析

我们并非只设计了一条路,而是并行探索了四条技术路径,核心变量在于OCR的识别方式和评分规则的粒度。每一种方案都像是一把不同的钥匙,试图打开“自动评分”这把锁,而实战结果告诉我们,没有万能钥匙。

3.1 方案一:MathPix + GPT-4V 接力OCR,配合细粒度量规评分

这是我们认为最初级、最“理所当然”的方案,试图用最专业的工具处理各自擅长的部分。

工作流程

  1. 第一棒:MathPix:将扫描的PDF试卷直接输入MathPix API。MathPix在识别印刷体数学公式方面口碑很好,它的策略是“不求有功,但求无过”。对于清晰的手写公式,它能较好地转换为LaTeX;对于它信心不足的区域(如图表、严重涂改、模糊字迹),它不做猜测,而是直接将该区域裁剪成JPG图片,以\includegraphics命令的形式插入到生成的LaTeX文档中。
  2. 第二棒:GPT-4V:我们编写脚本,自动扫描上一步生成的LaTeX文档,找出所有的\includegraphics命令,提取对应的JPG图片,再调用GPT-4V的多模态能力,要求它“描述这张图片中的手写内容或图表,并将其转换为LaTeX代码”。用GPT-4V的输出来替换原来的图片引用。
  3. 评分:细粒度量规(Fine-grained Rubric):我们将助教使用的详细评分表(如表I所示)转化为一个结构化的提示词表格,连同问题题干、标准答案一起输入给GPT-4-32k。评分表精确到每一个小步骤(如“写出能量平衡方程,1分”、“正确代入入口焓值,0.5分”),要求模型对照学生答案,逐项判断并给出小分。

实战表现与瓶颈

  • 优点:理论上结合了MathPix的准确性和GPT-4V的“想象力”,能处理模糊内容。细粒度量规最接近人类助教的评分方式。
  • 致命缺点
    • “账本错误”泛滥:这是最出乎意料的问题。GPT-4在对照长达20多项的细目打分时,经常出现“账本错误”——即它对学生答案每一步的评判逻辑是合理的,但在最后加总各小项分数时,会算错总和。例如,各小分加起来应该是4.5分,它最终可能输出4.3或4.7分。这并非理解错误,而是简单的算术或逻辑执行错误。
    • 评分失败率高:由于规则过于复杂,模型有时会“困惑”,无法输出一个完整的评分列表,导致整个评分任务失败,需要重试。
    • 成本与效率低下:流程环节多,且GPT-4V处理图像token消耗巨大。更糟糕的是,GPT-4V对涂改JPG的解读极不稳定(如图4),有时会脑补出被划掉的内容,有时又会完全曲解。

3.2 方案二:仅用GPT-4V进行整页OCR,配合按题部分评分

为了简化流程并测试端到端能力,我们尝试绕过MathPix,让GPT-4V“一肩挑”。

工作流程

  1. OCR:将每页试卷PDF转换为PNG图片,直接提交给GPT-4V,指令为:“将本页手写内容完整、准确地转换为LaTeX代码,包括所有公式、文字和图表描述。”
  2. 评分:按部分评分(Parts-based Grading):我们不再提供琐碎的评分量规,而是只为每个大题的子部分(如Problem 1a, 1b, 1c...)设定一个总分值。向GPT-4-32k提供问题题干、标准答案全文以及每个部分的总分,要求它通读学生答案后,直接为每个部分分配一个分数(例如,Problem 1a满分2.5分,模型直接给出1.8分)。

实战表现与瓶颈

  • 优点:流程简化,提示词设计更简单。按部分评分减少了模型的“记账”压力,评分失败率显著降低。
  • 缺点
    • OCR质量波动剧烈:如图5下半部分和图6下半部分所示,GPT-4V对整页手写内容的识别结果变异性极大。同一页内容,多次运行会得到差异很大的LaTeX输出。我们不得不将温度参数T从默认的0.7降至0.5以减少随机性,但问题依然存在。它对数字的误读尤其常见。
    • 忽略图表:在处理整页信息时,GPT-4V似乎会优先处理文本和公式,经常完全“忽略”页面中的手绘图表,不在LaTeX输出中做任何描述,导致需要绘图评分的部分得分为零。
    • 丢失细节:由于没有细粒度量规的引导,模型评分更依赖于对答案整体的“感觉”,可能会错过一些关键的、细微的错误或步骤缺失,评分的一致性(Inter-rater Reliability)面临挑战。

3.3 方案三:MathPix + GPT-4V接力OCR,配合按题部分评分

这是方案一和方案二的混合体,旨在结合两者优点。

工作流程:OCR流程与方案一完全相同(MathPix打底,GPT-4V补图)。但在评分阶段,采用方案二的“按部分评分”法。

实战表现: 这是我们最终采用的主要方案。它平衡了可靠性和实用性。MathPix提供了相对稳定的文本/公式识别基础,GPT-4V补全了图表和模糊区域。按部分评分则避免了细粒度量规的“账本错误”和高失败率问题。虽然OCR环节仍有瑕疵,但评分环节的稳定性和效率得到了保障。我们后续的定量分析主要基于此方案的结果。

3.4 方案四:基于整题的模糊评分

这是一种更粗粒度的尝试,旨在测试模型的整体判断力。

工作流程:OCR流程可采用上述任意一种。评分时,只告诉模型整个大题的总分(例如Problem 1共15分),并提供标准答案,然后让模型直接给出一个0到15之间的总体分数。

实战表现与启示: 这种方案表现最差。由于缺乏中间步骤的引导,模型的评分变得非常模糊和不准确,与人工评分相关性很低。这证实了一个关键观点:当前的LLM并不擅长进行整体的、概括性的学术评价。它需要被“分解任务”,通过一步一步的、结构化的推理来逼近可靠的结果。让AI直接给一篇作文或一道复杂计算题打总分,为时尚早。

技术选型心得:不要追求“最先进”的技术堆砌,而要寻找“最稳健”的流程组合。在我们的场景中,“专业OCR(MathPix) + 多模态LLM补全(GPT-4V) + 中粒度评分(按部分)”构成了最佳实践。细粒度量规对当前LLM来说管理负担过重,而整题评分又过于粗糙。同时,多次采样取平均是降低LLM随机性影响的有效策略,我们每个答案都评分10次,用平均分和标准差来衡量置信度。

4. 评分效果量化分析与关键发现

经过对252份试卷、四种工作流程的测试,我们得到了一系列数据。这些数据不仅告诉我们AI“行不行”,更揭示了它“在什么情况下行,在什么情况下不行”。

4.1 评分一致性:AI vs. 人类助教

我们以两位人类助教(TA)的评分作为基准(通常他们之间也会有微小差异,取平均或协商一致),来评估AI评分的一致性。这里的关键指标是相关系数(如R²)和均方根误差(RMSE)。

整体通过/不通过判断的精准性:AI系统在判断一份试卷是否达到及格线(本考试设定为65分中的26分)方面,表现出极高的精确度。对于那些最终得分明确高于或远低于及格线的试卷,AI的判断与人类高度一致。这是因为通过/不通过是一个相对宏观的、分数累积后的二分判断,对中间具体步骤的细微误差不敏感。

具体分数匹配的局限性:然而,在给出与人类助教完全一致的具体分数上,AI仍有明显差距。尤其是对于得分在及格线附近徘徊的“边缘试卷”,AI给出的分数波动性(标准差)较大。这主要是因为在这些试卷中,学生的答案往往包含部分正确、部分错误、表述模糊或跳步的情况,需要评分者运用大量的领域知识和教学经验进行裁量。AI在理解这种“灰色地带”时显得力不从心。

不同评分粒度的影响:对比“细粒度量规评分”和“按部分评分”,我们发现后者与人类评分的整体相关性更高,RMSE更低。这再次印证了细粒度量规带来的“账本错误”和复杂度过高的问题,损害了评分的整体可靠性。按部分评分给了模型更大的灵活性去综合判断一个子问题的完成质量,反而更接近人类评分者的工作模式。

4.2 图文评分的能力差异

这是一个非常鲜明且重要的发现:AI对纯数学推导文本的评分能力,显著优于对图表的评分能力。

数学推导评分:对于问题中要求列公式、代数值、进行计算的部分,只要OCR能够相对准确地将手写公式转换为LaTeX(特别是识别清变量名和上下标),GPT-4在理解物理过程、核对计算步骤和数值结果方面表现尚可。它能发现明显的公式错误、单位遗漏或数值计算失误。

图表(T-s图, p-T图)评分:对于问题2a和4a要求绘制过程图的部分,评分可靠性大幅下降。根本原因在于信息转换的严重损耗:

  1. 识别阶段:无论是MathPix还是GPT-4V,都很难从手绘草图中稳定地提取出完整的、结构化的数据。它们生成的描述(如图7)往往是定性且不精确的。
  2. 评分阶段:我们尝试将标准答案中的图表也由GPT-4V进行描述(如图8),然后让模型对比两个文本描述。然而,标准答案的图表描述本身就可能由GPT-4V产生误差(例如错误描述等压线的走向或状态点的顺序)。用一份可能有误的“标准描述”去评判另一份模糊的“学生描述”,其结果的可信度可想而知。人类评分者一眼就能看出的图形特征(如曲线的凸性、两条线是否平行、关键点的相对位置),在文本描述中几乎无法被准确传达和比对。

4.3 LLM的随机性:温度参数与评分波动

LLM的本质是一个概率模型,其输出具有内在的随机性。我们通过控制“温度”(Temperature)参数来调节这种随机性。温度越高(如T=0.7),输出越多样、有“创意”;温度越低(如T=0),输出越确定、可预测。

在我们的评分任务中,低温度(T=0.5)设置是更可取的。我们发现,在T=0.7下,同一份答案多次评分,分数波动可能高达3-4分(满分15分的问题),这在实际评分中是不可接受的。将温度降至0.5后,波动范围显著缩小。这告诉我们,在需要一致性和可靠性的生产任务中,应该将LLM的“创造力”关小,让它更倾向于选择最可能的、最确定的输出路径。

然而,即使降低了温度,波动依然存在。因此,单次评分结果不可信。我们的做法是对每份答案进行多次(如10次)独立评分,然后取平均分作为最终分,并计算标准差作为置信度的参考。一个得分14±1分的答案,比一个得分14±4分的答案,其AI评分的可靠性要高得多。

数据分析心得:AI评分的结果必须附带一个“置信区间”。不要只看平均分,一定要关注标准差。高标准差意味着AI对这个答案“没把握”,这个信号本身就有价值——它标明了那些需要人类评分者重点复核的“疑难卷”。AI的价值不仅在于替代部分劳动,更在于它能高效地完成初筛和风险标注。

5. 构建实用AI辅助评分系统的实操指南

基于我们的探索和教训,如果你正在考虑为你的课程(不限于热力学,任何涉及手写解答的理科工科课程)引入AI辅助评分,以下是一份从零开始的实操指南和避坑清单。

5.1 前期准备:试卷设计与学生引导

1. 优化试卷格式(你能控制的最重要环节)

  • 提供答题纸:强烈建议使用统一的、预先印好题号和答题区域的答题纸。这能从根本上解决页面排序混乱、边缘涂鸦等问题。
  • 明确答题规范:在考试说明中,增加对书写和作图的要求。例如:“请使用黑色钢笔或签字笔书写”、“绘图请使用直尺,关键点用字母清晰标注”、“如写错,请用单线划去,避免涂黑”。这些要求对人类阅卷友好,对OCR更是雪中送炭。
  • 结构化答题引导:鼓励学生在答题时写明“Problem 1a:”,而不仅仅是“a)”。这能极大减轻后期分割答案的工作量。

2. 构建高质量的标准答案与评分规则

  • 为AI设计评分规则:忘掉给人类助教看的那种充满缩写和标记的评分表。为AI准备的评分规则应该是清晰、无歧义、结构化的文本。可以是一个JSON或Markdown列表,明确列出得分点、对应的公式或关键词、以及给分标准。
  • 提供多样化的解题范例:除了“标准答案”,最好能提供几种常见的、正确的变体解法,并在提示词中告诉AI:“如果学生使用了以下任何一种方法,也应视为正确”。这能提升系统对解题路径多样性的包容度。
  • 详细定义图表评分点:对于绘图题,不要只说“画出T-s图”。而应分解为:“标出坐标轴(T, s)得1分”、“画出等压线p1, p2, p3得2分”、“正确标注状态点1-6得3分”、“用箭头正确指示过程方向得1分”。将视觉信息转化为可文本化检查的条目。

5.2 技术实施:工作流程搭建

1. 扫描与预处理

  • 使用自动进纸扫描仪,并固定设置为高分辨率(300dpi以上)、黑白模式。彩色模式可能引入不必要的噪声,且文件体积大。
  • 编写或使用工具进行自动预处理:包括旋转摆正的页面、基于空白区域自动分割题目(如果答题纸规范)、去除页眉页脚等。OpenCV等图像处理库可以帮大忙。

2. OCR流程搭建(推荐组合方案)

  • 首选方案:使用像MathPix这样的专业数学OCR服务进行第一轮识别。配置其输出,要求它不要将低置信度区域输出为图片,而是尽可能输出其最佳猜测的文本,并用特殊标记(如[UNCLEAR])标出。
  • 备用方案:对于MathPix标记为不清或确实需要处理图表的部分,调用GPT-4V等多模态模型进行针对性识别。提示词要具体:“请将图片中的手写公式转换为LaTeX。如果内容是图表,请用文字详细描述其关键元素,包括:坐标轴名称、曲线条数及标签、关键点位置及标签、箭头方向等。”
  • 建立校验环节:OCR后,并非直接进入评分。可以设计一个简单的规则校验,比如检查LaTeX代码中是否包含大量[UNCLEAR]标记,或是否完全缺失某个问题的答案。这些试卷可以自动路由到“待人工复核”队列。

3. 评分提示词工程

  • 采用“按部分评分”法:为每个大题的子部分设定总分。提示词结构建议为:

    你是一位热力学教授,正在批改试卷。请严格按照以下标准评分。问题1a(满分2.5分)

    • 核心公式:[列出正确的能量平衡方程]
    • 关键步骤:[列出必须有的步骤,如查找焓值、代入数据]
    • 最终答案:[正确数值和单位] 请仔细审阅学生的LaTeX答案:[插入学生答案]。 请评估学生的答案与上述标准的符合程度。首先进行逐步推理,解释学生的每一步是否正确或哪里出错。最后,在单独一行输出格式为SCORE: X.XX的分数,其中X.XX是0到2.5之间的数字。
  • 要求模型“逐步思考”:在提示词中明确要求模型“请逐步推理”(Chain-of-Thought),这能显著提高其判断的合理性和一致性。
  • 设定低温和多次采样:将LLM的温度参数设置为0.1-0.3之间。对每份答案执行3-5次独立的评分调用,取平均分。记录每次的分数和推理过程,方差过大的需要人工复核。

5.3 部署与迭代:人机协作模式

1. 明确AI的定位:辅助者,而非替代者

  • 高分与低分试卷:对于AI评分非常自信(方差小)且分数很高或很低的试卷,人类教师可以进行快速抽检确认。
  • 边缘试卷与高方差试卷:对于分数在及格线附近,或AI评分方差很大的试卷,必须交由人类教师重点复核。这正是AI系统的核心价值——帮教师筛选出最需要投入精力的部分。
  • 图表题与开放性题目:目前阶段,建议所有包含绘图或开放性讨论的题目,完全由人类教师评分。

2. 建立反馈闭环

  • 收集AI评分与最终人工评分存在显著差异的案例。
  • 分析差异原因:是OCR错误?还是评分规则描述不清?或是AI无法理解某种特定表述?
  • 用这些案例不断优化你的OCR后处理脚本、评分提示词和标准答案库。这是一个持续迭代的过程。

3. 成本监控与优化

  • 密切关注API调用成本,特别是GPT-4V处理图片的费用。
  • 考虑分层处理:对于字迹极其潦草或页面复杂的试卷,直接路由给人工,避免无谓的API消耗。
  • 探索使用本地部署的、更轻量化的OCR模型和开源LLM(如LLaMA、Claude等)的可能性,以降低长期运营成本。

终极建议:不要追求全自动。将AI视为一个不知疲倦、高度一致但缺乏深层理解的“初级助教”。它的任务是完成第一轮粗筛,标记出所有它“不确定”和“可能有问题”的地方。真正的评分权、对学术价值的最终判断权,以及对学生个性化反馈的提供,必须牢牢掌握在人类教师手中。这次探索让我们坚信,未来的教育评估,将是人类智慧与人工智能协同工作的新模式,而我们的目标,是让两者各自发挥其不可替代的优势。

http://www.jsqmd.com/news/783410/

相关文章:

  • 基于注意力机制与多模态融合的计算机视觉辅助自闭症行为分析系统
  • CodeCortex:为AI编码助手构建项目知识图谱,提升开发效率与代码安全
  • CANN社区基础设施SIG
  • 2026 北京财税机构指南注册公司代办机构高新企业认证口碑推荐 - 品牌优企推荐
  • 从零实现扩散模型:数学原理与PyTorch实战图像生成
  • CANN/ops-nn PReLU反向传播
  • 2026江苏 上海环氧地坪源头厂家怎么选?哪家好 推荐 - 奔跑123
  • 用友财报深度解读:2025亏损13亿,即将触底反弹?
  • 基于图神经网络与可视分析的慢性肾病临床决策支持系统构建
  • CANN/pyasc昇腾SoftMax算子API文档
  • 工程教育中基于角色的AI能力框架:从认知到协同的整合路径
  • 多模态大模型赋能港口,从视频孪生迈向空间原生智能
  • 2026年半导体超纯水夹钳流量传感器推荐:五家优选深度对比 - 科技焦点
  • 【图像处理】基于数学形态学的数字视网膜图像血管提取 (DRIVE) 数据集分割方法附matlab代码
  • 多智能体协作框架设计:从需求到交付的自动化产品开发实践
  • 2026年亦缇玻尿酸综合评测:品牌现状与市场表现 - 江湖评测
  • CANN/pto-isa通信测试问题诊断手册
  • AI赋能敏捷开发:从需求到部署的智能化实践与效率革命
  • cann/runtime初始化指南
  • 包头就近入学政策解读:昆区城区小学教学水平究竟如何? - 品牌推荐大师
  • AI智能增长如何影响其自我设计能力?比例论与收益递减论之争
  • 构建企业级MLOps平台:从数据湖到实验管理的全流程实践
  • AI赋能非洲农业:技术落地挑战与可持续路径实践
  • 集成学习在濒危语言文本分类中的实践:小样本场景下的NLP解决方案
  • pH计(酸度计)选型参考:2026年5月国内外笔式pH 计,台式pH 计,实验室pH 计知名品牌与正规生产厂家汇总 - 品牌推荐大师1
  • 内容创作团队如何利用Taotoken多模型能力提升稿件生成效率
  • 强化学习在精准健康干预中的应用:从多臂老虎机到个性化策略优化
  • HarmonyOS 6 实战:首页标题栏右上角智能体入口接入指南
  • CANN DeepSeek-V3.2-Exp推理优化实践
  • CANN MXFP4量化矩阵乘算子