当前位置: 首页 > news >正文

基于AI与记忆增强的DEX交易策略自主进化引擎构建实践

1. 项目概述:一个能自己“进化”的DEX交易策略发现引擎

如果你在Base链上交易过,或者用过Uniswap V3、Aerodrome这些去中心化交易所,你肯定知道一个痛点:市场是活的,但你的交易策略往往是死的。你花几天时间写了个策略,回测看着不错,一上线,市场风格一变,策略立马失效,然后你又得从头开始调参、重构,陷入一个没完没了的循环。

AutoResearch这个项目,就是冲着解决这个“人肉调参”的瓶颈来的。它的核心想法非常直接:把策略的发现和进化过程,交给一个AI代理去自动化完成。这个代理会像一个不知疲倦的研究员,不断地提出新的策略假设(比如“把RSI周期从14改成10试试”),然后用真实的Base链上DEX数据(ETH/USDC, AERO/USDC等)进行回测,根据一个综合评分决定是保留这个新策略,还是回滚到上一个版本。最关键的是,它有一个“记忆”系统,能记住每一次实验的成功与失败,让下一次的“进化”方向更聪明。

我花了12个小时,从零构建了这个系统。它不是一个简单的回测框架,而是一个完整的、能自主运行的“策略发现引擎”。从获取链上数据、计算技术指标、设计回测引擎,到集成LLM(大语言模型)来生成策略突变、最后通过Bankr钱包在Base主网上进行实盘交易验证,整个流程完全打通。最让我兴奋的是,它真的在无人干预的情况下,通过230多次实验,将一个基准策略的评分从0.421提升到了8.176,提升了超过1840%,并且自动发现了从简单的均值回归到复杂的双策略组合的进化路径。

2. 核心架构与设计哲学

2.1 为什么是“自主研究”,而不是“自动交易”?

市面上大多数交易机器人,核心是“执行”。你给它一个设定好的策略(比如“RSI低于30买入,高于70卖出”),它就不眠不休地执行。AutoResearch的定位是“研究”。它的核心产出不是交易信号,而是经过验证的、更优的交易策略本身

这背后的设计哲学深受Andrej Karpathy的“autoresearch”概念启发。Karpathy将其应用于AI模型训练,让AI自己修改训练脚本、跑实验、评估结果。我们把这个循环搬到了DEX交易策略领域。这里的“训练”变成了“回测”,评估标准从“验证集准确率”变成了“风险调整后的综合收益评分”。

2.2 系统架构全景

整个系统可以看作一个由数据驱动、记忆增强的闭环反馈系统。下图展示了其核心工作流:

[数据层] -> [策略引擎] -> [回测与评估] -> [记忆与学习] -> [突变生成] ^ | | v +------------------------------------------------------------+

数据层:这是系统的眼睛。它从多个源头获取Base链上DEX的实时和历史数据,包括Uniswap V3的0.05%和0.3%费率的ETH/USDC池、cbETH/WETH池,以及Aerodrome的AERO/USDC池。我们使用了DeFiLlama、CoinGecko的API,并集成了Uniswap开发者平台的子图查询作为后备,确保数据的可靠性和实时性。数据以每小时K线的形式被标准化处理,为回测提供燃料。

策略引擎:这是系统的大脑。它基于一个简单的类接口(一个onBar函数)运行。当前活跃的策略代码就存放在一个单一的strategy.js文件中,这是系统的“单一事实来源”。引擎会为每个交易对计算10种技术指标(RSI, MACD, 布林带, ATR, VWAP, 随机指标, OBV, EMA, 威廉指标, 百分比排名),并将这些数据喂给策略函数,策略函数则返回目标持仓量。

回测与评估:这是系统的裁判。它模拟交易,严格计算手续费(基于真实DEX费率)、滑点,并跟踪资金曲线。其评分系统是策略进化的指挥棒,计算公式为:score = sharpe × √(min(trades/50, 1.0)) − drawdown_penalty − turnover_penalty。这个公式巧妙地在夏普比率(风险收益比)、交易活跃度、最大回撤和换手率之间取得了平衡,鼓励策略寻找稳健的Alpha,而不是通过高频交易刷虚假收益或承担过大风险。

记忆与学习(LCM):这是系统区别于随机搜索的关键。我们集成了OpenClaw的Lossless Context Management(无损上下文管理)。每一次实验,无论成功(KEPT)还是失败(REVERTED),都会被详细记录到记忆库中,包括改动了什么参数、得分多少、夏普比率、回撤等。在生成下一次突变前,AI代理会先查询记忆:“我们试过哪些RSI周期?哪个效果最好?”“在偏离阈值这个参数上,最优区间大概在哪里?”“有哪些结构性的改动(比如添加新指标)我们还没探索?”这使得研究过程是收敛的,避免了在无效区域反复试错。

突变生成(LLM Gateway):这是系统的创新引擎。我们通过Bankr的LLM Gateway接入Claude Sonnet等模型。系统会构建一个详细的提示词(Prompt),包含当前策略代码、历史实验记忆、市场数据摘要,然后要求LLM“提出一个最有希望提高综合评分的、具体的代码修改建议”。LLM可能会建议调整参数,也可能建议引入新的指标组合或出场逻辑。这个建议会被自动应用到strategy.js文件中,触发新一轮回测。

2.3 模块化设计

整个代码库由14个核心源文件模块化构成,职责清晰:

  • src/controller.js: 总控循环,协调突变、测试、学习流程。
  • src/backtest.js: 回测引擎核心,包含手续费模型和评分逻辑。
  • src/indicators.js: 纯函数实现的10个技术指标库。
  • src/regime.js: 市场状态检测模块,通过Hurst指数、EMA斜率等判断趋势/震荡市。
  • src/memory.js: LCM记忆的封装,负责实验日志的存储和查询。
  • src/executor.js: 实盘执行引擎,连接Bankr钱包,处理风险控制和订单发送。
  • src/bankr.js: Bankr服务的集成层,处理LLM调用和钱包交互。
  • scripts/daemon.js: 守护进程脚本,让整个研究循环可以7x24小时无人值守运行。

这种设计使得系统易于理解、调试和扩展。例如,如果你想替换LLM提供商,只需修改bankr.js;如果想增加新的技术指标,就更新indicators.js

3. 实操搭建与运行指南

3.1 环境准备与快速启动

假设你已经在本地配置好了Node.js(v20+)环境,并且有一个可以访问Base链的RPC节点(可以用公共的,也可以用自己的Infura或Alchemy端点)。

第一步,克隆代码库并安装依赖(注意,核心运行时依赖为零,但一些脚本可能需要node-fetch等,请根据package.json安装):

git clone https://github.com/darks0l/autoresearch.git cd autoresearch npm install # 如果package.json里有开发依赖的话

第二步,获取历史数据。回测需要数据,我们提供了脚本从多个源抓取Base上主流交易对的近期小时K线数据:

node scripts/fetch-data.js

这个脚本会默认获取ETH/USDC, AERO/USDC等4个交易对的数据,保存到data/目录下。你也可以修改脚本或通过配置来增加其他你感兴趣的Base链上交易对。

第三步,运行基准测试。在让AI开始研究之前,最好先看看一个简单策略的基线水平:

node scripts/run-benchmarks.js

这会运行一个内置的简单VWAP均值回归策略,并输出其综合评分。我最初得到的基线分数是0.421,这将是AI进化的起点。

3.2 启动自主研究循环

现在,激动人心的部分来了。运行以下命令,启动一个自动进行30次实验的研究会话:

node scripts/run-autoresearch.js --max 30

你会看到控制台开始输出日志:

[启动] 加载策略文件与历史记忆... [记忆查询] 发现23次历史实验,最佳得分: 0.740 (exp074) [LLM调用] 请求生成突变... [突变生成] LLM建议:将RSI周期从14调整为10,以获取更灵敏的超卖信号。 [回测] 对4个交易对进行回测,共2800根K线... [结果] 新得分: 0.726,旧得分: 0.740。未提升,回滚。 [记忆] 记录实验exp075: REVERTED。 [LLM调用] 基于失败经验,请求新的突变... ...

这个过程会持续进行,直到达到30次实验上限,或者你手动中断。每次实验,AI都会尝试一个微小的改动,并根据回测结果决定保留还是丢弃。

3.3 部署持久化守护进程

对于长期、无人值守的研究,你需要运行守护进程模式。它会以批次为单位运行实验,并在批次间隙暂停,避免过度消耗资源(和API调用费用)。

node scripts/daemon.js --batch 15 --model claude-sonnet-4.5 --target 10.0

参数解释:

  • --batch 15: 每轮运行15次实验。
  • --model claude-sonnet-4.5: 指定使用Claude Sonnet模型进行突变生成(效果更好,但成本略高)。
  • --target 10.0: 设定一个目标分数,达到后守护进程可以暂停或通知。

守护进程会在每批实验结束后,将改进的策略自动提交到Git(如果配置了Git仓库),并生成一份报告。它还会跟踪Bankr LLM的积分消耗,确保研究循环在预算内进行。

3.4 实盘交易执行(谨慎!)

在AI发现了一个高评分策略后,你可以选择进行实盘交易。强烈建议先用模拟盘(paper trading)运行足够长时间

# 模拟盘运行,使用最新的策略 node scripts/run-live.js # 模拟盘,并使用市场状态检测模块来动态调整策略 node scripts/run-live.js --regime # 实盘交易(需要配置BANKR_API_KEY和有效的Bankr钱包余额) node scripts/run-live.js --live --regime --cycles 24

实盘执行引擎内置了严格的风险控制:

  • 单笔头寸上限:默认不超过投资组合总价值的15%。
  • 每日止损线:当日累计亏损达到5%时,自动停止交易。
  • 交易对白名单:只允许在预设的、流动性好的交易对上交易(如ETH/USDC)。
  • 余额同步:每次交易前会从Bankr钱包同步真实余额,确保不会超买。

重要提示:实盘交易涉及真实资产损失风险。务必从小额开始,充分理解策略逻辑,并确保你已设置好所有安全配置(如API密钥权限仅限交易,不包含提现)。

4. 策略进化全记录与深度解析

这个项目最宝贵的产出,不是最终的策略代码,而是那230多次完整的实验日志。它像一本AI交易策略的“进化日记”,揭示了机器如何思考市场。我们来深入看看几个关键阶段。

4.1 第一阶段:VWAP均值回归的陷阱(实验1-74)

最初的基准策略是一个经典的VWAP(成交量加权平均价)均值回归策略:当价格偏离VWAP一定百分比时入场,回归时出场。在合成数据(人为生成的、具有明显均值回归特性的数据)上,AI通过微调参数(如偏离阈值、ATR周期、RSI周期),成功将分数从0.421提升到了0.740。

关键教训:过拟合(Overfitting)。当我把这个在合成数据上表现优异的策略(exp074)放到真实Base链数据上回测时,分数暴跌至-1.460,模拟回报为-6%。这是一个教科书般的过拟合案例:策略完美适应了训练数据(合成数据)的噪声,却无法泛化到真实市场。

实操心得:永远、永远要用真实市场数据进行最终验证。合成数据或单一历史阶段的数据只能用于初步构思。市场的复杂性和结构性变化是任何合成数据难以模拟的。

4.2 第二阶段:结构性突破——转向趋势跟踪(实验117)

认识到VWAP策略的局限性后,我(作为人类开发者)进行了一次手动结构性干预。我没有让AI继续调参,而是完全重写了策略逻辑,从均值回归转向趋势跟踪。新策略结合了:

  1. 唐奇安通道突破作为入场信号。
  2. EMA双线交叉作为趋势过滤器,只在趋势方向交易。
  3. RSI超卖区作为趋势中的回调买入机会。
  4. 基于ATR的动态跟踪止损来保护利润。

这次重构带来了质的飞跃,分数从0.74跃升至2.838,首次在真实数据上实现了正收益。这揭示了一个关键点:LLM擅长在既定框架内做局部优化(调参),但突破性的架构创新往往还需要人类的直觉和领域知识来引导。

4.3 第三阶段:LLM守护进程的渐进式优化(实验126-183)

在提供了趋势跟踪这个强大的新框架后,我将控制权交回给AI守护进程。它开始了新一轮的“微进化”:

  • 实验126:引入基于Hurst指数的市场状态识别,在趋势市增加仓位。
  • 实验128:将ATR跟踪止损的倍数从2.0收紧至1.5,夏普比率显著提升至4.002。
  • 实验151:增加多时间框架趋势过滤(例如,用50周期EMA的斜率判断大趋势),过滤掉了许多逆势交易。

这个阶段,分数从2.838稳步提升至3.777。AI通过系统性的、数据驱动的试错,不断打磨策略的细节。

4.4 第四阶段:再次突破——集成学习与双策略组合(实验161-199)

当分数在3.78附近陷入平台期时,我再次介入,引入了集成学习(Ensemble)的概念(实验161)。新策略并行运行三个独立的子策略(唐奇安突破、RSI抄底、MACD动量),只有当至少两个子策略发出相同方向的信号时才开仓,并根据“投票”的票数来加权仓位。这一下将分数推高到了4.512。

然而,有趣的事情发生了。AI守护进程在后续的实验中,竟然发现“简化”比“复杂”更有效。实验163剥离了复杂的集成投票,回归到纯粹的唐奇安趋势突破,分数反而进一步提升到5.310。这似乎说明,在当时的市场状态下,一个清晰强力的信号比多个微弱信号的组合更有效。

随后,AI自发地发现了几项关键改进:

  • 实验170(ATR百分比过滤器):将简单的“ATR > SMA”过滤器,改为“ATR处于其近期分布的60百分位以上”。这是一个质的提升,分数跃升至7.327。它不再看ATR的绝对值,而是看其相对位置,更好地捕捉了“波动率扩张”的起始点。
  • 实验180(自适应盈利目标):根据趋势强度动态调整盈利目标(弱趋势2倍ATR,强趋势4倍ATR),让利润奔跑,分数到了7.875。
  • 实验183(动态突破回看期):根据波动率状态动态调整唐奇安通道的回看周期(高波动用25期,低波动用15期),适应不同市场节奏,分数达7.991。
  • 实验199(双策略组合):这是最终的巅峰。AI设计了一个双策略投资组合:一个策略负责趋势突破,另一个负责均值回归。然后利用Hurst指数(衡量时间序列趋势性的指标)来动态分配资金:当Hurst指数高(趋势市),大部分资金分配给趋势策略;当Hurst指数低(震荡市),则分配给均值回归策略。这个动态资产配置模型将最终分数推至8.176

4.5 核心发现与AI行为模式总结

  1. 退出优于入场:在大多数失败的实验中,AI试图优化入场条件。而大多数成功的实验,改进的是出场逻辑(止损、止盈)。这印证了一句交易格言:“会买的是徒弟,会卖的是师傅。”
  2. 简单性力量:复杂的集成策略(exp161)被更简单的纯趋势策略(exp163)超越。AI最终发现,减少错误信号比增加更多信号源更重要。
  3. 自动升级机制有效:我们设定了“平台期检测器”。如果连续5次实验都是参数微调且没有显著提升,系统会强制LLM进行“结构性思考”,禁止它再调参。正是这个机制逼出了“ATR百分比过滤器”这个重大创新。
  4. 记忆是关键:没有LCM记忆,每次实验都是独立的随机游走。有了记忆,AI能避免重复失败,并沿着有希望的方向深入探索。

5. 市场状态检测:让策略“识时务”

一个在所有市场环境下都固守同一套逻辑的策略注定会失败。因此,我构建了一个轻量但有效的市场状态检测模块(src/regime.js)。它从三个维度分析最近100根K线:

  1. 趋势强度:通过短期EMA与长期EMA的交叉和斜率来判断。
  2. 波动率水平:计算ATR,并判断其处于近期历史分布中的百分位。
  3. 市场记忆性(Hurst指数):通过重标极差(R/S)分析估算。H值接近0.5类似随机游走,小于0.5倾向均值回归,大于0.5倾向趋势延续。

系统将市场划分为5种状态,并对应调整策略行为:

市场状态检测方法策略行为调整
强势上涨EMA金叉 + H > 0.6 + 斜率向上采用动量跟踪,增加仓位,使用更宽松的止损。
强势下跌EMA死叉 + H > 0.6 + 斜率向下采用做空动量(或空仓观望),使用更紧的止损。
均值回归H < 0.4 + 趋势强度弱启用VWAP均值回归子策略,高抛低吸。
高波动ATR > 80百分位将仓位规模减半,扩大止损幅度,以承受更大噪音。
低波动ATR < 20百分位保持空仓,避免在无方向市场中磨损手续费。

在双策略组合(exp199)中,Hurst指数直接用于分配两个策略的资金权重。这是一个非常优雅的解决方案,让策略本身具备了环境适应性。

6. 集成、扩展与生产化考量

6.1 作为OpenClaw技能运行

AutoResearch被设计为可嵌入其他智能体系统。你可以将其作为技能安装到OpenClaw中:

cp -r autoresearch ~/.openclaw/skills/autoresearch

之后,你就可以在OpenClaw的对话中直接命令它:“运行30次autoresearch实验,并将结果报告到#autoresearch-lab频道”。这使得它能够成为更大自动化工作流的一部分。

6.2 自定义交易对发现

系统内置了4个Base主流交易对,但你可以轻松扩展。我们提供了发现脚本,可以自动扫描Base链上TVL最高的DEX资金池并添加。

# 预览TVL前10的池子 node scripts/pairs.js discover # 自动添加TVL大于100万美元的前5个新池子 node scripts/pairs.js auto --max 5 --min-tvl 1000000

你也可以通过API手动添加任何Base链上的交易对,只需要提供合约地址和费率信息。新增的交易对会持久化到配置文件中,并自动纳入后续的所有回测。

6.3 报告生成与分析

实验日志是文本格式,为了更直观的分析,我们提供了报告生成器:

# 生成完整的Markdown报告 node scripts/report.js --out my_strategy_report.md # 生成带样式的HTML报告,方便在浏览器中查看 node scripts/report.js --html report.html

报告包含评分演变图表、每笔实验的详细参数、分交易对表现、失败模式分析等,是复盘AI研究过程的最佳工具。

6.4 x402微支付与自维持经济循环

为了让这个系统能真正“自给自足”,我们设计了基于EIP-3009(x402)的微支付服务。外部用户或智能体可以支付少量费用来调用服务:

  • /strategy/discover: 支付2 USDC,启动N次新的策略研究实验。
  • /strategy/validate: 支付0.5 USDC,对现有策略进行样本外验证。
  • /strategy/signal: 支付0.1 USDC,获取指定交易对的最新交易信号。

产生的收入会自动转入Bankr钱包,用于支付后续LLM API调用的费用,从而形成一个自维持的研究经济循环:更好的策略吸引更多使用,产生更多收入,进而资助更深入的研究。

7. 常见问题、故障排查与避坑指南

在12小时的密集开发和后续测试中,我踩了不少坑。这里记录下最关键的一些问题和解决方案。

7.1 数据获取失败或延迟

问题:运行fetch-data.js时卡住,或回测时提示数据缺失。排查

  1. 检查网络和API密钥:首先确认你的网络能访问外部API(DeFiLlama, CoinGecko)。如果用了Uniswap API,确认密钥有效且未超限。
  2. 使用备用数据源:代码中设置了数据源优先级。如果主源失败,会自动降级到备用源。查看日志确认降级是否发生。
  3. 本地数据缓存:成功获取的数据会保存在data/目录下。后续回测会优先使用本地缓存。如果你需要最新数据,可以手动删除缓存文件再运行。
  4. RPC节点问题:如果用到直接链上查询,确保Base RPC URL稳定。公共节点可能限速,建议使用可靠的供应商节点。

技巧:在src/config.js中增加数据源超时时间和重试逻辑,可以大幅提高鲁棒性。我后来将超时设为10秒,并最多重试3次。

7.2 LLM生成的策略代码有语法错误或逻辑错误

问题:AI有时会生成无法通过JavaScript解析的代码,或者逻辑上明显有问题的修改(比如把买入条件写成卖出)。解决

  1. 强化系统提示词(System Prompt):这是最重要的。你的提示词必须明确要求LLM“输出一个完整的、可运行的、语法正确的JavaScript策略类onBar函数”。并提供清晰的示例。
  2. 添加代码验证层:在将AI生成的代码写入strategy.js之前,先用eval()或创建一个临时VM沙盒尝试解析和执行一下。如果抛出语法错误,则直接判定本次实验失败,并记录原因“LLM生成无效代码”,然后重试。
  3. 设置安全边界:在提示词中限制AI的修改范围。例如,“只允许修改entryThreshold,exitThreshold,rsiPeriod这三个参数的数值,或调整calculateSignal函数内的逻辑比较符(>, <, >=, <=),不允许添加新的外部依赖或改变函数签名”。

7.3 回测速度过慢

问题:当交易对数量增多或K线数据量很大时,回测一次实验可能需要几十秒,严重拖慢研究循环。优化

  1. 指标预计算:技术指标计算是性能瓶颈。我将所有10个指标的计算从每次onBar调用时计算,改为在数据加载阶段一次性批量计算好,并存入数组。策略函数只需查表,速度提升了一个数量级。
  2. 减少不必要的精度:回测中模拟的滑点和手续费模型,在早期研究阶段可以适当简化。例如,使用固定比例滑点代替订单簿模型。
  3. 并行化回测:如果测试多个不相关的交易对,可以使用Node.js的worker_threads进行并行回测。但要注意共享内存和结果汇总的复杂度。
  4. 抽样回测:在探索性研究阶段,可以只用最近30%的数据进行快速回测。只有当策略评分显著提升时,再用全量数据进行最终验证。

7.4 策略在实盘与回测表现严重不符

问题:回测分数很高,但一上实盘就亏损。排查(按优先级)

  1. 未来函数(Look-ahead Bias):这是最常见原因。确保你的策略在t时刻只能使用t时刻及之前的数据。仔细检查指标计算是否无意中引入了未来信息(例如,使用了整个数据段的平均值)。
  2. 手续费与滑点低估:回测中使用的费率(如0.05%)和滑点模型(如固定0.1%)可能远低于实际。尤其是在市场波动大时,真实滑点可能远超预期。实盘时,务必使用更保守的(更高的)手续费和滑点假设重新回测。
  3. 数据质量差异:回测使用的历史K线数据(如1小时收盘价)与实盘接收的Tick级或分钟级数据存在差异。确保数据源和清洗逻辑一致。
  4. 市场状态变化:策略可能只适应特定市场状态(如低波动趋势市)。使用regime.js模块分析策略在不同历史阶段的表现,并考虑引入类似双策略组合的动态适配机制。

7.5 Bankr LLM积分消耗过快

问题:守护进程运行一段时间后,Bankr积分耗尽,研究停止。管理策略

  1. 设置预算和警报:在守护进程配置中,设置每日或每批次的最大积分消耗。可以与Bankr的API结合,定期查询余额,低于阈值时发送通知(如Discord Webhook)。
  2. 优化提示词,减少Token使用:提示词要简洁精准。将历史实验记忆进行摘要后再喂给LLM,而不是发送全部原始日志。实验表明,经过摘要的关键信息(如“RSI周期在10-20之间表现最佳”)与完整日志的效果几乎一样,但能节省大量Token。
  3. 使用成本更低的模型进行探索:对于大量的、探索性的参数微调,可以使用像claude-haiku这样的轻量级模型。只有当策略进入平台期,需要“创造性突破”时,再切换到更强的claude-sonnetclaude-opus模型。
  4. 实现“冷启动”缓存:如果多次运行相似的研究,可以将第一次运行时LLM生成的有用突变(即使当时未提升评分)缓存起来,后续运行可以直接从缓存中抽取候选,减少LLM调用。

7.6 记忆(LCM)查询返回无关信息

问题:AI基于记忆提出的突变建议似乎与当前策略不相关,或在重复过去的失败。解决

  1. 改进记忆索引和查询:LCM默认基于语义搜索。如果记忆条目太多,查询可能不够精准。可以尝试为每次实验添加更结构化、更丰富的元数据标签,例如["parameter_tuning", "rsi_period", "success"],然后让查询同时结合语义和这些标签进行过滤。
  2. 定期清理或总结记忆:当实验次数超过一定数量(比如500次),可以对早期、低分或过时的实验记录进行归档或摘要,只保留最近的和高分实验的详细记录,保持记忆库的“新鲜度”和相关性。
  3. 人工引导:当AI陷入局部最优时,手动在记忆库中添加一条“高级提示”,例如:“过去50次实验都在调整入场参数,但评分停滞。建议优先探索出场逻辑的优化,或考虑引入市场状态过滤。” 这可以显著改变AI的搜索方向。

这个项目对我来说,不仅仅是一个黑客松作品,它是一次关于“AI如何自主解决问题”的深度实践。它证明了,在定义清晰的评估框架和持续的记忆反馈下,AI确实可以承担起策略研究和迭代的繁重工作,将人类从重复的试错中解放出来,去关注更宏观的结构设计和方向把握。最让我满意的不是那个8.176的分数,而是看到系统能自己从失败中学习,并一步步找到通往更优解路径的那个过程。如果你也对自动化策略发现感兴趣,我强烈建议你克隆代码库,从运行第一个基准测试开始,亲眼看看这个“数字研究员”是如何工作的。

http://www.jsqmd.com/news/775226/

相关文章:

  • 竟然还在手动逐字转写会议录音?2026年这5款录音转文字工具,3分钟搞定1小时录音
  • 从CIO到一线团队,AISMM模型落地失败率高达68%?这4类架构错配正在 silently 拖垮数字化转型
  • 2026年选购杨树毛毛收集器,志云环保设备值得推荐 - myqiye
  • Godot 4海洋模拟插件:基于FFT与CDLOD的高性能实时渲染方案
  • 人类唯一无法被AI替代的是什么
  • Flutter与Firebase实战:构建实时同步的西班牙语词汇管理应用
  • 2026年4月自建房农村别墅供应商推荐,轻钢别墅房屋/农村自建别墅/景区房屋/自建房农村别墅,自建房农村别墅厂家哪家好 - 品牌推荐师
  • wechatbot云端微信SAAS框架使用教程,轻松实现微信登录,微信消息调度,微信群管理,微信联系人管理,定时任务!
  • 如何使用Gaussian计算键解离能
  • 紧急通知!2026年度成都市动物疫病预防控制中心农产品实验室日常检测耗材采购项目申报要求指南来啦!
  • 鸿蒙构建失败:00303149 Configuration Error
  • 3分钟搞定:如何用Blender 3MF插件完美处理3D打印文件
  • 君瑞祥通风管道市场口碑怎么样? - myqiye
  • 2026年专利律所有哪些?行业专业机构推荐 - 品牌排行榜
  • 【仅限首批200家机构开放】:AISMM快速评估版API密钥申请通道将于48小时后关闭
  • 车载光通信芯片:行业现状、技术卡点与国产化实情
  • AISMM Level 2团队如何6周内建立首个可复用的过程资产库?揭秘某独角兽用Feature Toggle+过程实例化实现的0文档迁移法
  • CSS如何通过变量实现颜色组件复用_利用CSS var实现样式统一
  • XUnity.AutoTranslator终极指南:5分钟破解Unity游戏语言壁垒
  • RF PA的系统指标和内在意义
  • 内容创作平台集成 Taotoken 实现多模型文本生成引擎
  • 适合健身人群的米珍膳食纤维原料有哪些品牌 - mypinpai
  • 2026年实测有效:5款高效降AI工具,AI率从89%狂降到5% - 降AI实验室
  • 豆包爪:专为豆包AI打造的高性能多语言工具包实战指南
  • 终极华硕笔记本性能优化神器:G-Helper完整指南
  • AI视觉皮带监测系统概述
  • CANopen避坑指南:PDO映射配置中的5个常见错误与调试技巧
  • 3分钟掌握手机号码精准定位:开源工具location-to-phone-number完全指南
  • 2026年PC板生产企业哪家口碑好? - mypinpai
  • AI-Book-Generator:基于LLM的自动化书籍创作框架解析与实践