当前位置: 首页 > news >正文

DNN深度神经网络模型做多输入单输出的拟合预测建模之旅

DNN深度神经网络模型做多输入单输出的拟合预测建模。 程序内注释详细直接替换数据就可以使用。 程序语言为matlab,需求版本为2018及以上。 程序直接运行可以出拟合预测图,迭代优化图,线性拟合预测图,多个预测评价指标。

在机器学习领域,深度神经网络(DNN)是一个强大的工具,尤其适用于复杂的拟合预测任务。今天,咱就来聊聊如何用Matlab(2018及以上版本)实现基于DNN的多输入单输出拟合预测建模,而且直接运行程序就能看到各种超有用的图和预测评价指标。

数据准备

首先,咱得准备数据。假设我们有多个输入特征inputData和对应的输出标签outputData。在实际应用中,这些数据可能来自各种传感器、实验记录等等。

% 加载数据,这里假设数据保存在.mat文件中 load('yourData.mat'); % 划分训练集和测试集,通常80%数据用于训练,20%用于测试 trainRatio = 0.8; numSamples = size(inputData, 1); trainIndices = randperm(numSamples, round(trainRatio * numSamples)); testIndices = setdiff(1:numSamples, trainIndices); trainInput = inputData(trainIndices, :); trainOutput = outputData(trainIndices, :); testInput = inputData(testIndices, :); testOutput = outputData(testIndices, :);

这段代码先是加载数据,然后按照设定的比例把数据划分成训练集和测试集。划分的依据就是随机选取一定比例的数据作为训练集,剩下的就是测试集啦。

构建DNN模型

接下来,构建DNN模型。Matlab提供了方便的神经网络工具箱来搭建模型。

% 创建一个前馈神经网络 layers = [ sequenceInputLayer(size(trainInput, 2)) % 输入层,维度和输入数据特征数一致 fullyConnectedLayer(10) % 隐藏层,10个神经元,可以根据实际调整 reluLayer % 激活函数使用ReLU fullyConnectedLayer(1) % 输出层,单输出 regressionLayer]; % 回归层,因为是拟合预测任务 % 设置训练选项 options = trainingOptions('adam',... 'MaxEpochs', 100,... 'InitialLearnRate', 0.001,... 'ValidationData', {testInput, testOutput},... 'ValidationFrequency', 10,... 'Verbose', false,... 'Plots', 'training-progress');

这里先定义了神经网络的层次结构,输入层根据输入数据特征数确定,隐藏层选了10个神经元(这个数量可以像调参数一样,根据实验效果调整),用ReLU激活函数增加非线性,输出层是单输出对应我们的单输出任务。然后设置训练选项,用Adam优化器,最大训练100轮,初始学习率0.001,还指定了验证数据和验证频率,同时设置了是否打印训练信息和绘制训练过程图。

训练模型

有了模型和数据,那就开始训练吧。

% 训练神经网络 net = trainNetwork(trainInput, trainOutput, layers, options);

就这么简单一行代码,Matlab就会按照我们设定的模型和训练选项去训练DNN模型啦。

预测与评估

训练好模型,就得看看效果咋样。

% 进行预测 predictedOutput = predict(net, testInput); % 计算预测评价指标 mseValue = mse(predictedOutput, testOutput); rmseValue = sqrt(mseValue); maeValue = mae(predictedOutput, testOutput); fprintf('均方误差 (MSE): %.4f\n', mseValue); fprintf('均方根误差 (RMSE): %.4f\n', rmseValue); fprintf('平均绝对误差 (MAE): %.4f\n', maeValue);

预测用predict函数,然后计算了均方误差(MSE)、均方根误差(RMSE)和平均绝对误差(MAE)这些常见的预测评价指标,并且打印出来让我们直观看到模型预测的准确程度。

绘图展示

最后,咱把结果可视化,看看拟合预测图、迭代优化图和线性拟合预测图。

% 拟合预测图 figure; scatter(testOutput, predictedOutput); xlabel('实际输出'); ylabel('预测输出'); title('拟合预测图'); line([min(testOutput), max(testOutput)], [min(testOutput), max(testOutput)], 'Color', 'r', 'LineStyle', '--'); % 迭代优化图(训练过程图,由trainingOptions中的Plots选项生成) % 线性拟合预测图 figure; p = polyfit(testOutput, predictedOutput, 1); yFit = polyval(p, testOutput); plot(testOutput, yFit, 'r-', 'LineWidth', 1.5); hold on; scatter(testOutput, predictedOutput); xlabel('实际输出'); ylabel('预测输出'); title('线性拟合预测图');

拟合预测图用散点图展示实际输出和预测输出的关系,还画了条对角线作为参考。线性拟合预测图先做了个线性拟合,然后把拟合线和散点画在一起,这样能直观看到预测结果和线性关系的符合程度。而迭代优化图在训练过程中就自动生成啦,能看到训练过程中损失函数等指标的变化。

通过以上步骤,我们就完成了基于Matlab的DNN多输入单输出拟合预测建模,不仅能得到准确的预测结果,还能用各种图和指标清晰展示模型性能。大家不妨动手试试,根据自己的数据调整参数,说不定能发现更有趣的结果呢。

http://www.jsqmd.com/news/149871/

相关文章:

  • 实用指南:考研408--计算机网络--day5--介质访问控制令牌传递协议
  • 2025O型圈口碑榜单:靠谱O型圈工厂清单出炉 - 栗子测评
  • 2025噪声治理厂家 - 栗子测评
  • Visual Studio中的try -- catch
  • 在昇腾CANN开源社区,看见算力的“源头活水”
  • 【优化求解】遗传算法GA求解约束优化网络流问题【含Matlab源码 14782期】
  • Android 定制桌面布局(Launcher3)
  • Day1JavaScript书写位置
  • 从训练到推理:TensorRT镜像如何打通AI落地最后一公里?
  • GitLab私有部署场景下TensorFlow CI/CD模板
  • 2025最新!专科生毕业论文必备10个AI论文平台深度测评
  • Trace Viewer详解:逐层性能剖析
  • 阅读笔记七:测试与质量
  • “物理约束的神经网络”PINN求解偏微分方程及其在多领域的应用与机器学习对比
  • N-BEATS模型:TensorFlow时间序列基准
  • xxx
  • 深度解析:2026成都企业选GEO服务商,本地龙头与全国分支谁更胜一筹? - 奇林智媒GEO
  • Linux | 内核源码学习 - 详解
  • 大模型推理瓶颈怎么破?试试NVIDIA官方TensorRT镜像
  • Airflow调度TensorFlow训练任务最佳实践
  • 你的供应链还在“裸奔”吗?这份AI转型蓝图,AI产品经理看完都收藏
  • Leetcode 88 K 和数对的最大数目
  • 资深老鸟,经验分享-常见的性能测试面试题(附答案)
  • 一文读懂传统RAG、多模态RAG、Agentic RAG与GraphRAG
  • 12月24号
  • FEDformer频域变换:TensorFlow版本解读
  • 20251227——读后感9
  • 为什么大模型推理都选择NVIDIA TensorRT镜像?真相揭秘
  • 一文读懂AI搜索优化:成都的品牌做AI GEO需要覆盖哪些平台? - 奇林智媒GEO
  • ‌DevOps中的测试稳定性保障:熔断、降级与自愈机制‌