当前位置: 首页 > news >正文

基于带外源输入的非线性自回归网络(NARX)的时间序列预测 NARX时间序列 matlab 代码 注

基于带外源输入的非线性自回归网络(NARX)的时间序列预测 NARX时间序列 matlab 代码 注:暂无Matlab版本要求 -- 推荐 2018B 版本及以上

最近在折腾时间序列预测,发现NARX网络对付非线性数据效果挺有意思。这玩意儿全名叫带外源输入的非线性自回归网络,听着复杂其实跟咱们平时用的循环神经网络有点像,但多了外部变量输入这个buff。

先上段Matlab实战代码热热身:

% 数据准备(假设已有时间序列数据) load engine_data % 自带示例数据集 inputSeries = con2seq(exInput); % 外部输入序列 targetSeries = con2seq(exOutput); % 目标输出序列 % 创建NARX网络 delay = 2; % 延迟阶数 hiddenLayerSize = 10; narxNet = narxnet(1:delay,1:delay,hiddenLayerSize); % 数据预处理 [Xs,Xi,Ai,Ts] = preparets(narxNet,inputSeries,{},targetSeries); % 训练配置 narxNet.divideFcn = 'divideblock'; % 按块划分数据集 narxNet.trainParam.epochs = 100; narxNet.trainParam.min_grad = 1e-5; % 开练! [net,tr] = train(narxNet,Xs,Ts,Xi,Ai); % 预测未来三步 prediction = net(Xs,Xi,Ai);

这里有几个关键点值得唠唠。延迟阶数相当于给网络开了个时间窗口,比如delay=2时网络会同时看t-1和t-2时刻的数据。hiddenLayerSize别设太大,我之前试过设50结果过拟合得亲妈都不认识,10-20层足够应对多数场景。

数据预处理里的preparets函数是个隐藏大佬,自动帮咱们处理输入输出对齐问题。要是自己手动处理时间延迟数据,代码量至少翻三倍。不过要注意输出序列会比输入短delay个点,新手容易在这儿翻车。

训练时强烈推荐用divideblock代替默认的随机划分,时间序列讲究时间连贯性,乱序划分会让模型学了个寂寞。早停法(Epochs设个合理值)也是个防过拟合的利器,毕竟这网络的学习能力堪比黑洞,稍不留神就把噪声都吃进去了。

预测部分有个坑需要注意:当用预测值继续滚动预测时,记得把网络输出重新接入输入层。这里给个多步预测的扩展代码:

% 转成开环网络做多步预测 narxNetClosed = narxNet; narxNetOpen = removedelay(narxNetClosed); [predictionsOpen,xiOpen,aiOpen] = narxNetOpen(Xs,Xi,Ai); % 可视化对比 figure plot(cell2mat([targetSeries; predictionsOpen])) legend('真实值','预测值') title('NARX预测效果')

这个removedelay操作相当于把闭环改成开环,让网络能持续用自己预测的结果作为下一步输入。不过实际用起来会发现预测误差会逐渐累积,所以长期预测还是要配合其他方法。

最后说下数据归一化这个玄学问题。虽然示例代码里没体现,但遇到量纲差异大的输入特征时,建议加上:

% 手动归一化 inputSeries = (inputSeries - mean(inputSeries))./std(inputSeries); targetSeries = (targetSeries - mean(targetSeries))./std(targetSeries);

别完全依赖工具箱自带的归一化,特别是当训练集和测试集分布不一致时,手动控制更靠谱。我上次有个项目没注意这个细节,预测结果直接飞出了银河系。

总的来说NARX网络就像个带记忆的智能漏斗,能把时间信息和外部变量搅和在一起榨出预测规律。不过别指望它通吃所有场景,遇到高频震荡数据还是得上LSTM之类的专业选手。下次有机会再聊聊怎么用NARX网络预测股票走势——当然,亏了别找我(手动狗头)

http://www.jsqmd.com/news/225976/

相关文章:

  • Qwen3-VL多机部署太复杂?云端单卡方案轻松体验核心功能
  • Qwen3-VL多模态入门:没GPU也能学,1块钱起步体验
  • HY-MT1.5-1.8B低延迟秘诀:模型剪枝与量化部署详解
  • Qwen3-VL显存需求详解:如何用1块钱体验235B大模型
  • 强烈安利8个AI论文网站,本科生搞定毕业论文!
  • Hunyuan HY-MT1.5部署成本分析:比自建集群省70%费用
  • Qwen3-VL视频解析指南:云端GPU按需付费省80%
  • Qwen3-VL原型开发:1人初创公司如何快速验证MVP?
  • HY-MT1.5-7B政府公文翻译:保密性与准确性双重保障方案
  • Qwen3-VL创意写作指南:免GPU云端部署,文科生也能玩AI
  • Qwen3-VL API快速调用:免部署直接测试模型能力
  • 学生党必备:Qwen3-VL低成本体验方案,比网吧便宜
  • Qwen3-VL模型托管指南:个人开发者也能轻松上线服务
  • Qwen3-VL图像理解实战:不用买显卡,云端3步出结果
  • HY-MT1.5-1.8B边缘部署实战:IoT设备集成实时翻译功能详细步骤
  • Hunyuan开源模型能否商用?HY-MT1.5企业落地案例分享
  • Qwen3-VL多模态开发:云端GPU比本地快5倍的秘密
  • Qwen3-VL持续学习方案:模型迭代不中断,新类别识别准确率+25%
  • Qwen3-VL多模态必看:5分钟了解所有新特性,免费体验
  • Hunyuan-HY-MT1.5入门必看:首次部署必知的10个核心参数详解
  • Qwen3-VL多实例测试:快速验证不同参数组合效果
  • HY-MT1.5部署疑问解答:网页推理打不开?常见问题排查手册
  • 没显卡怎么玩Qwen3-VL?云端镜像2块钱搞定,小白5分钟出图
  • Java团队转型AI应用开发:痛点解析与破局之道
  • Qwen3-VL最新功能体验:图文理解+生成,云端3步搞定
  • HY-MT1.5教育科技应用:在线课堂实时字幕生成系统
  • HY-MT1.5部署自动化:CI/CD流水线集成模型更新实战案例
  • Qwen3-VL-WEBUI环保方案:减少90%的电子垃圾产生
  • HY-MT1.5镜像安全加固:生产环境部署注意事项实战指南
  • Java企业AI智能问数:数据来源难题与实战解法