为什么企业做 AI Agent Harness Engineering 必须先做数据治理
为什么企业做AI Agent Harness Engineering必须先做数据治理
本文面向企业CTO、AI工程负责人、数据负责人、业务线技术主管,全文约10800字,读完约需25分钟,将帮你搞懂85%AI Agent项目失败的核心原因,以及如何通过前置数据治理把Agent投产成功率从30%提升到95%。
引言
痛点引入:90%的AI Agent项目失败,不是模型不行,而是数据拖了后腿
2024年Gartner发布的《企业生成式AI落地报告》显示:全球范围内85%的企业级AI Agent项目在上线18个月内无法达成预期业务目标,其中62%的失败原因与数据质量直接相关,仅有12%的失败是由模型能力、框架缺陷导致的。
我接触过的30多家布局AI Agent的企业,几乎都踩过同样的坑:
- 某股份制银行花了200多万采购商业Agent Harness平台,搭建智能客服Agent,上线1个月就因为给用户推荐已停售的理财产品被银保监会罚款50万,排查后发现是RAG召回的知识库内容3年没更新,存在大量过期冲突信息;
- 某制造业龙头自研设备运维Agent,Harness框架对接了1200个传感器的实时数据接口,上线后连续3次误判设备高温故障,触发生产线紧急停机,损失超过800万,根因是不同厂家传感器的温度单位元数据没有统一,有的返回摄氏度有的返回华氏度,Agent计算故障阈值时直接混用了数据;
- 某互联网公司做内部行政Agent,员工查报销规则时Agent给出的答案前后矛盾,甚至出现和公司最新制度相悖的内容,上线2个月使用率不足10%,最后直接下线,原因是行政制度文档存在多个版本,没有做去重对齐,RAG随机召回了旧版本内容。
很多企业的技术负责人有一个误区:觉得AI Agent落地的核心是选对大模型、买对Harness框架,只要把LangChain、LlamaIndex或者商业Agent平台搭起来,接入业务数据就能跑通流程。但现实是,AI Agent Harness本质是“数据驱动的决策执行系统”,所有模块的运行100%依赖输入数据的质量,没有高质量的数据做地基,再先进的框架都是建在沙地上的高楼,投入越大垮得越快。
核心论点:数据治理是AI Agent Harness Engineering的前置必要条件
AI Agent Harness Engineering(智能体管控工程)是指对Agent的生命周期、工具编排、权限管控、协同调度、可观测性进行全链路管理的工程体系,是把大模型能力转化为业务价值的核心枢纽。而面向Agent场景的专属数据治理,是这套体系能够稳定、合规、高效运行的前置必要条件——没有完成核心业务数据的治理就启动Agent Harness开发,本质是“带病上线”,最终只会浪费资源、错过业务窗口期。
文章脉络
本文将首先明确AI Agent Harness Engineering和面向Agent的数据治理两个核心概念的定义与边界,接着从Harness各核心模块的运行逻辑出发,拆解数据质量对Agent效果的影响机制,然后给出面向Agent场景的数据治理落地方法论、实操案例、最佳实践,最后梳理行业发展趋势与常见问题解答。
核心概念定义与边界
1. AI Agent Harness Engineering:智能体的“操作系统”
Harness原意为“鞍具、管控装置”,AI Agent Harness就是套在Agent之上的管控层,相当于所有Agent的操作系统,核心目标是解决大模型原生能力的不可控、不可观测、不可编排问题,让Agent能够安全稳定地落地到业务场景。
核心要素组成
AI Agent Harness Engineering的核心架构分为5层,每层的运行都高度依赖数据输入:
| 层级 | 核心功能 | 依赖的数据类型 |
|---|---|---|
| 适配层 | 对接不同大模型、业务系统、数据源,屏蔽底层差异 | 大模型元数据、业务系统接口元数据、数据源元数据 |
| 工具层 | 统一管理所有Agent可调用的工具,包括注册、发现、鉴权、重试、熔断 | 工具元数据、权限规则数据、SLA规则数据 |
| 编排层 | 意图识别、路由决策、多Agent协同调度、流程编排 | 意图标注数据集、路由规则数据、协同流程配置数据 |
| 管控层 | 合规校验、权限管控、流量控制、输出格式化 | 合规规则数据集、业务规则数据、输出格式标准数据 |
| 观测层 | 全链路追踪、指标监控、根因分析、效果评估 | 交互日志数据、调用链数据、效果标注数据 |
我们可以用mermaid架构图清晰展示Harness各模块和数据的依赖关系:
与普通Agent开发的区别
普通的单Agent开发只需要关注Prompt、工具调用逻辑,而Harness Engineering面向的是企业级多Agent场景,需要支持数百个Agent同时运行、跨部门协同、对接数十个业务系统,对稳定性、合规性、可扩展性的要求提升了10倍以上,对数据质量的要求也远高于普通Demo级Agent。
2. 面向AI Agent的专属数据治理:不是传统数据治理的翻版
很多企业会问:我们已经做了传统的大数据治理,做了数仓、数据中台,是不是不需要再做数据治理了?答案是否定的——传统数据治理面向的是BI分析、业务系统的结构化数据消费场景,核心目标是保证数据的一致性、完整性,而面向AI Agent的数据治理是专门为大模型消费数据设计的,除了基础的质量要求,还要保证数据可被大模型理解、可被召回、可追溯来源、可动态更新。
核心治理范围
面向Agent的数据治理只需要聚焦Agent实际消费的5类核心数据,不需要搞大而全的全量数据治理:
- 训练与微调数据集:包括意图识别、路由决策、角色微调用到的标注数据,要求标注准确、分类清晰、覆盖所有业务场景;
- RAG知识资产:包括业务文档、产品手册、FAQ、制度规则等非结构化数据,要求无错误、无重复、无过期、无冲突、分段合理、标签完善;
- 工具元数据:包括所有Agent可调用工具的名称、描述、适用场景、入参出参规范、权限要求、SLA、联系人,要求描述自然语言友好、参数规范无遗漏;
- 业务规则与合规资产:包括敏感词库、行业监管规则、业务禁忌、输出格式要求,要求规则无冲突、覆盖所有合规风险点;
- 运行时数据资产:包括用户交互日志、Agent调用链日志、工具返回结果日志,要求格式统一、标签完善、可追溯、可回流优化。
数据质量量化模型
我们可以用一个通用的数学模型来量化面向Agent的数据质量得分(Data Quality Score,简称DQ):
D Q = 0.3 × A + 0.2 × C + 0.2 × C o n s + 0.15 × T + 0.15 × C o m p DQ = 0.3 \times A + 0.2 \times C + 0.2 \times Cons + 0.15 \times T + 0.15 \times CompDQ=0.3×A+0.2×C+0.2×Cons+0.15×T+0.15×Comp
其中:
- A AA(Accuracy,准确性):数据内容和权威数据源一致的比例,取值范围[0,1]
- C CC(Completeness,完整性):必填字段非空的比例,取值范围[0,1]
- C o n s ConsCons(Consistency,一致性):同一业务概念在不同数据资产中定义一致的比例,取值范围[0,1]
- T TT(Timeliness,时效性):数据在规定更新周期内的比例,取值范围[0,1]
- C o m p CompComp(Compliance,合规性):数据符合监管要求、无敏感内容的比例,取值范围[0,1]
根据我们的实操经验,当D Q ≥ 90 DQ \geq 90DQ≥90分时,Agent Harness的整体运行成功率可以达到95%以上;当60 ≤ D Q < 90 60 \leq DQ < 9060≤DQ<90分时,运行成功率在60%-85%之间,适合内部低风险场景;当D Q < 60 DQ < 60DQ<60分时,运行成功率低于30%,完全不适合上线。
下面是Python实现的DQ得分计算代码示例:
defcalculate_dq_score(accuracy:float,completeness:float,consistency:float,timeliness:float,compliance:float)->float:""" 计算面向AI Agent的数据质量得分 :param accuracy: 准确性得分 0-1 :param completeness: 完整性得分 0-1 :param consistency: 一致性得分 0-1 :param timeliness: 时效性得分 0-1 :param compliance: 合规性得分 0-1 :return: DQ得分 0-100 """weight=[0.3,0.2,0.2,0.15,0.15]dq=accuracy*weight[0]+completeness*weight[1]+consistency*weight[2]+timeliness*weight[3]+compliance*weight[4]returnround(dq*100,2)# 示例:某电商售后知识库的质量得分accuracy=0.92# 92%的内容和业务部门的权威文档一致completeness=0.95# 95%的文档都有完整的标签、更新时间、责任人consistency=0.88# 88%的业务概念定义一致timeliness=0.9# 90%的内容都是最近3个月内更新的compliance=0.96# 96%的内容没有合规风险dq_score=calculate_dq_score(accuracy,completeness,consistency,timeliness,compliance)print(f"数据质量得分:{dq_score}分")# 输出:数据质量得分:91.7分3. 边界与外延
需要明确的是:
- 面向Agent的数据治理不是替代传统数据治理,而是传统数据治理在AI场景下的延伸,两者是互补关系,传统数据治理做得好的企业,做Agent数据治理的成本会低50%以上;
- 数据治理不是一次性项目,而是持续运营的闭环过程,业务更新、规则变化、工具迭代都需要同步更新数据资产;
- 不需要等所有数据都治理完再上线Agent,可以按照业务场景的优先级,分阶段治理核心数据,小步快跑快速验证价值。
为什么数据治理是AI Agent Harness Engineering的前置条件
我们从Harness的5个核心层的运行逻辑,逐一拆解数据质量对Agent效果的影响:
1. 编排层:路由准确率90%的差异来自数据质量
编排层是Harness的“大脑”,核心职责是判断用户的请求属于什么意图、应该路由到哪个Agent、调用哪些工具、走什么流程。路由准确率直接决定了Agent的整体体验,如果用户问“我的订单怎么退款”,路由到了闲聊Agent,那后续的处理肯定是错的。
很多企业以为路由准确率低是因为意图识别模型不行,其实90%的情况是标注数据质量差:
- 标注数据覆盖不全,很多边缘场景的意图没有标注,模型识别不准;
- 标注标准不统一,同一个用户问题,有的标注为“售后退款”,有的标注为“订单查询”,模型训练出来的效果自然差;
- 标注数据过时,业务新增的场景没有及时更新标注数据集,模型识别不出来新的意图。
我们做过对比实验,同一套路由模型,用DQ得分60分的标注数据训练,路由准确率只有72%,用DQ得分95分的标注数据训练,准确率可以提升到96%,效果提升超过30%,远超过换大模型带来的提升(换模型一般只能提升5%-10%的准确率)。
2. 工具层:工具调用成功率80%的问题来自元数据治理缺失
工具调用是Agent区别于普通大模型的核心能力,Harness的工具层需要支持Agent自动选择合适的工具、组装正确的参数、处理调用异常。工具调用的成功率直接决定了Agent能不能完成用户的任务,而工具调用失败80%的原因是元数据治理缺失:
- 工具描述不清晰,大模型不知道这个工具什么时候用,比如你有个“查询用户订单”的工具,描述只写了“查订单”,大模型可能会在用户问“我买的东西发货了吗”的时候也调用这个工具,而实际上应该调用“查询物流”的工具;
- 入参规范不完整,没有说明必填参数、参数格式、取值范围,比如“查询社保”的工具没有说明要传“身份证号”和“所属城市”,Agent调用的时候就会漏传参数,直接报错;
- 元数据不一致,同一个参数在不同工具里的定义不一样,比如“订单ID”在A工具里是字符串类型,在B工具里是数字类型,Agent调用的时候直接传字符串就会报错。
某头部 SaaS 企业的案例显示:他们一开始没有治理工具元数据,23个工具的调用成功率只有68%,花了1周时间补全所有工具的元数据、统一参数规范之后,调用成功率直接提升到98%,没有修改任何一行代码,也没有换大模型。
3. 管控层:合规风险100%可以通过前置数据治理避免
Agent的输出合规是企业的生命线,尤其是金融、医疗、教育这些强监管行业,一次不合规的输出可能带来百万级的罚款,甚至吊销资质。Harness的管控层负责对Agent的输出做合规校验,而校验的规则完全依赖治理后的合规数据资产:
- 敏感词库不全,就会漏过用户隐私、违法违规的内容;
- 业务规则冲突,比如有的规则说“新用户可以领100元优惠券”,有的规则说“新用户只能领50元优惠券”,管控层就不知道该用哪个规则校验;
- 监管规则更新不及时,比如广告法新增了禁用词,没有同步更新到合规规则库,Agent就会输出违反广告法的内容。
某互联网金融企业的案例显示:他们上线Agent之前花了2周时间梳理所有监管规则、业务禁忌、敏感词,构建了DQ得分98分的合规资产库,上线后连续6个月没有出现一次合规风险事件,而行业平均的合规事件发生率是1.2%。
4. 观测层:根因排查效率提升10倍依赖标准化的运行时数据
企业级Agent上线后,出问题是常态,关键是能不能快速定位根因、快速修复。Harness的观测层需要支持全链路追踪,能够追溯一个用户请求从意图识别、路由、工具调用、RAG召回、输出校验的全流程数据,而这些数据的质量直接决定了排查效率:
- 日志格式不统一,不同模块的日志字段不一样,排查的时候需要跨多个系统拼接数据,本来10分钟能查到的问题,要花几个小时;
- 标签不全,日志没有标注用户ID、Agent ID、工具ID、知识库ID这些关键信息,出了问题不知道找谁负责;
- 数据不完整,调用链日志缺了某一段,根本没法追溯问题出在哪个环节。
某企业的运维Agent项目,没有治理运行时数据之前,平均根因排查时间是4小时,做了日志标准化、标签完善之后,平均排查时间降到了20分钟,效率提升了11倍。
5. 幻觉问题:80%的业务场景幻觉来自RAG数据质量差
很多企业以为Agent幻觉是大模型的问题,其实在业务场景下,80%的幻觉是因为RAG召回的知识数据质量差:
- 知识过时,比如产品已经更新了价格,知识库还留着旧的价格;
- 知识冲突,同一个问题有多个不同的答案,RAG随机召回了错误的那个;
- 知识错误,知识库的内容本身就是错的,比如产品参数写错了;
- 知识重复,同一个内容有多个版本,RAG召回了重复的内容,导致Agent输出重复。
我们做过实验,同一套RAG系统,用DQ得分60分的知识库,幻觉率是28%,用DQ得分95分的知识库,幻觉率降到了3%,效果提升非常明显。
面向AI Agent Harness的数据治理落地方法论
很多企业觉得数据治理是个复杂的大项目,要花几百万、做半年才能上线,其实面向Agent的数据治理是轻量、聚焦的,只需要针对Agent用到的核心数据,按照以下5步流程,快的话1-2周就能完成核心场景的数据治理,达到上线要求。
落地流程
我们用mermaid流程图展示完整的治理流程:
各环节实操要点
1. 资产盘点:只聚焦Agent用到的核心数据
不要一开始就盘点全公司的所有数据,先梳理你要上线的Agent核心场景,比如你要做售后客服Agent,那只需要盘点售后相关的知识库、售后工具、售后规则、用户意图标注数据这四类就可以了,其他无关的数据完全不用管。
盘点完成后,用前面的DQ得分公式评估每个数据资产的质量,得分低于60分的资产必须先治理才能上线。
2. 标准制定:贴合Agent场景,不要照搬传统标准
制定标准的时候要考虑大模型的消费特点:
- 知识库的标准:每段内容不超过500字,必须包含业务标签、更新时间、责任人、来源链接,内容不能有模糊的表述,比如“大概”“可能”“左右”这些词要尽量避免;
- 工具元数据的标准:描述要写清楚“适用场景”“不适用场景”,入参要写清楚类型、格式、示例、取值范围,比如“订单ID:字符串类型,格式为OD+10位数字,示例:OD20240501001”;
- 合规规则的标准:每个规则要写清楚触发条件、处理方式,比如“出现用户身份证号:触发掩码处理,替换为****”,不要写模糊的规则。
3. 存量清洗:自动化为主,人工为辅
存量数据清洗尽量用自动化工具提升效率:
- 去重:用向量相似度匹配,把相似度超过90%的内容合并;
- 纠错:用大模型批量校验内容和权威数据源的一致性,标记出错误的内容;
- 打标:用大模型批量给内容打业务标签,人工只需要校验高风险的内容;
- 格式转换:批量把PDF、Word等格式的文档转换成纯文本,分段处理。
一般来说,10万条以内的存量数据,自动化清洗可以完成70%的工作量,剩下30%的高风险内容人工审核,1-2周就可以完成。
4. 资产确权:解决“数据出了问题找谁”的问题
很多企业的数据治理做不下去,核心原因是没有明确责任人,数据出了问题找不到人负责。每个数据资产必须明确:
- 业务Owner:负责数据内容的准确性、时效性,一般是业务部门的负责人;
- 技术Owner:负责数据的存储、同步、质量监测,一般是数据部门或者AI工程部门的人;
- 更新周期:明确多久更新一次,比如产品手册每个月更新一次,监管规则随时更新;
- SLA要求:明确数据问题的响应时间,比如高优先级的问题24小时内修复。
5. 动态运营:建立数据- Agent的反馈闭环
数据治理不是做完就完事了,要建立动态的运营闭环,把Agent运行过程中产生的错误数据自动回流到治理流程:
- 当Agent输出错误内容的时候,自动标记对应的RAG知识片段或者工具元数据,触发告警给数据Owner;
- 当用户反馈Agent回答错误的时候,自动把问题和对应的回答同步到标注数据集,优化意图识别和路由模型;
- 当工具调用失败的时候,自动校验工具元数据是不是有问题,是不是需要更新;
- 每个月做一次数据质量巡检,重新评估DQ得分,优化质量标准。
实操案例:某头部电商售后Agent Harness的落地过程
项目背景
某头部电商2023年Q3启动售后AI Agent项目,目标是替代80%的人工售后客服,降低人力成本,提升用户满意度。项目一开始没有做数据治理,直接采购了商业Agent Harness平台,花了3个月时间对接售后系统、上传知识库、开发工具,上线后效果非常差:
- 路由准确率72%,很多用户的退款请求被路由到了物流查询Agent;
- 工具调用成功率68%,经常出现参数错误、调用超时的问题;
- 输出合规率75%,多次出现承诺给用户超额赔偿的情况;
- 用户满意度42%,远低于人工客服的85%;
- 上线1个月,不仅没有降低人力成本,反而增加了10个人工坐席专门处理Agent的错误订单。
数据治理过程
项目组在2023年Q4暂停了新功能开发,集中精力做面向Agent的数据治理,总共花了2个月时间:
- 资产盘点:梳理出售后场景用到的4类核心数据:12万条售后知识库内容、28个售后工具、3万条历史用户咨询标注数据、120条售后规则;
- 标准制定:针对每类数据制定了详细的质量标准,比如知识库内容必须小于500字,必须包含更新时间、产品标签、责任人,工具元数据必须包含适用场景、入参示例;
- 存量清洗:用自动化工具把12万条知识库内容去重、纠错,剩下4万条高质量内容,28个工具的元数据全部补全,3万条标注数据重新校验,修正了4200条标注错误的内容;
- 资产确权:每个数据资产都明确了业务Owner是售后部门的对应负责人,技术Owner是AI工程团队的人,更新周期是每周更新一次;
- 闭环搭建:在Harness里内置了数据质量校验模块,Agent输出错误的时候自动回流到治理流程,触发数据更新。
治理效果
治理完成后重新上线,核心指标得到了大幅提升:
| 指标 | 治理前 | 治理后 | 提升幅度 |
|---|---|---|---|
| 路由准确率 | 72% | 96% | +33% |
| 工具调用成功率 | 68% | 98% | +44% |
| 输出合规率 | 75% | 99.2% | +32% |
| 用户满意度 | 42% | 89% | +112% |
| 售后人力成本 | 100% | 38% | -62% |
| 问题解决时长 | 12分钟 | 2分钟 | -83% |
项目上线6个月就收回了所有成本,ROI是最初未做治理版本的8倍,现在已经覆盖了92%的售后咨询场景。
最佳实践Tips
1. 轻量优先,不要搞大而全的治理
不要等传统数据治理做完再做Agent的数据治理,也不要一开始就治理全公司的所有数据,先聚焦核心业务场景用到的小部分数据,快速治理快速上线验证价值,再逐步扩展到其他场景。
2. 把数据治理嵌入Harness的运行流程
不要把数据治理和Harness工程分开做,要把数据质量校验嵌入到Harness的各个环节:
- RAG召回的时候,先校验召回内容的质量分,低于80分的内容不返回给Agent,触发告警;
- 工具调用之前,先校验工具元数据的完整性,低于90分的工具不允许Agent调用;
- 输出校验的时候,先校验合规规则的覆盖率,低于95%的场景不允许上线。
3. 建立数据质量和Agent效果的关联看板
搭建统一的监控看板,把数据质量得分和Agent的核心指标(路由准确率、工具调用成功率、用户满意度、合规率)放在一起展示,让所有人都能看到数据质量对Agent效果的影响,提升业务部门对数据治理的重视程度。
4. 小步快跑,迭代优化
不要追求一次就把数据质量做到100分,先做到80分满足上线要求,上线后通过反馈闭环持续优化,逐步提升到90分、95分,这样既能快速拿到业务价值,又能降低前期的治理成本。
5. 明确考核机制,把数据质量纳入Owner的KPI
数据治理能不能持续下去,核心是有没有考核机制,要把数据质量得分、数据问题响应时长纳入数据Owner的KPI,比如业务Owner的KPI里包含知识库的DQ得分,低于90分就扣绩效,这样才能保证数据治理不会半途而废。
行业发展趋势
我们整理了2022年到2027年企业AI项目投入结构的变化趋势:
| 年份 | 模型投入占比 | 数据投入占比 | 工程投入占比 | 核心关注点 |
|---|---|---|---|---|
| 2022 | 60% | 20% | 20% | 能不能跑通Demo |
| 2023 | 30% | 40% | 30% | 能不能落地场景 |
| 2024 | 20% | 45% | 35% | 能不能稳定运行 |
| 2025(预测) | 15% | 50% | 35% | 能不能规模化复制 |
| 2026-2027(预测) | 10% | 55% | 35% | 能不能提效降本 |
可以看到,数据投入的占比逐年提升,未来3年,数据治理会成为AI Agent项目的核心竞争力,谁能把数据质量做好,谁就能在AI落地的浪潮中抢占先机。
未来的发展趋势包括:
- Agent Harness框架原生内置数据治理模块:现在的LangChain、LlamaIndex等框架已经开始内置元数据管理、数据质量校验的功能,未来不需要企业单独搭建数据治理平台,直接在Harness里就能完成治理;
- 大模型辅助自动数据治理:未来会有专门的大模型自动完成数据清洗、打标、纠错、更新的工作,人工只需要审核高风险的内容,治理成本会降低80%以上;
- 数据资产交易市场:高质量的行业数据集、知识库、工具元数据会成为可交易的资产,企业可以直接购买高质量的数据资产,不用自己从零开始治理。
常见问题FAQ
Q1:我们企业已经做了传统的数据治理,还要做面向Agent的数据治理吗?
A:需要,传统数据治理面向的是结构化数据的BI分析场景,不会覆盖非结构化知识的分段打标、工具元数据的自然语言优化、运行时日志的标准化这些Agent专属的治理需求,传统数据治理做得好的企业,只需要做20%的补充工作就可以满足Agent的要求。
Q2:我们的Agent场景很简单,就是内部员工查制度,还要做数据治理吗?
A:需要,哪怕是内部场景,如果制度文档有多个版本、冲突内容,Agent给员工返回错误的规则,也会导致员工做错事,带来损失,只是治理的要求可以低一点,DQ得分达到80分就可以上线,不用做到95分。
Q3:数据治理应该由哪个部门牵头做?
A:建议由AI工程部门牵头,业务部门和数据部门配合,AI工程部门最清楚Agent需要什么样的数据,业务部门对数据内容的准确性负责,数据部门提供底层的数据源支持,三方配合才能把治理做好。
Q4:数据治理要花多少钱?
A:面向Agent的轻量数据治理成本很低,核心场景的治理成本一般只占Agent项目总投入的10%-20%,远低于后续因为数据问题导致的损失,ROI非常高。
本章小结
AI Agent是未来企业数字化转型的核心驱动力,而AI Agent Harness Engineering是把大模型能力转化为业务价值的核心枢纽,但是所有的Harness能力都建立在高质量的数据资产之上,没有做好数据治理就启动Harness开发,本质是“带病上线”,最终只会浪费资源、错过业务窗口期。
企业做AI Agent落地,一定要改变“重模型、重框架、轻数据”的误区,把数据治理作为前置必要条件,先聚焦核心业务场景,做轻量、闭环、面向Agent的专属数据治理,再投入资源做Harness开发,这样才能真正拿到AI的业务价值,在未来的竞争中抢占先机。
如果你正在规划AI Agent项目,建议你先停下手头的框架开发工作,花1周时间盘点一下你的核心场景数据质量,算一下DQ得分,如果低于60分,先做数据治理再上线,这会帮你节省至少50%的投入,缩短一半的落地周期。
欢迎在评论区分享你在AI Agent落地过程中遇到的数据相关问题,我会一一回复。更多AI工程落地的干货内容,可以关注我的专栏。
