当前位置: 首页 > news >正文

用mRMR算法给特征排个座次,手把手教你数据瘦身

利用最大相关最小冗余mRMR算法对特征变量做特征重要性排序,实现特征选择。 通过重要性排序图,选择重要的特征变量,以期实现数据降维的目的。 程序直接替换数据就可以用,程序内有注释,方便学习和使用。 程序语言为matlab。

做机器学习项目最怕遇到高维数据,几百个特征一股脑塞进模型里,训练慢不说效果还容易翻车。这时候就得靠特征选择来救场了,今天咱们玩的这个mRMR(最大相关最小冗余)算法,能帮咱挑出那些既重要又不重复的特征。

先上核心代码(替换你的数据直接就能跑):

function selected_features = mRMR_feature_selection(X, y, num_features) % 输入参数: % X - 特征矩阵(n_samples×n_features) % y - 目标变量(n_samples×1) % num_features - 要选择的特征数量 [n_samples, n_features] = size(X); feature_set = 1:n_features; selected_features = []; % 计算每个特征与目标的互信息 mi_target = zeros(1, n_features); for i = 1:n_features mi_target(i) = mut_info(X(:,i), y); end % 首轮选择互信息最大的特征 [~, first_feature] = max(mi_target); selected_features = [selected_features first_feature]; feature_set(feature_set == first_feature) = []; % 迭代选择后续特征 for k = 2:num_features redundancy = zeros(1, length(feature_set)); relevance = mi_target(feature_set); % 计算候选特征与已选特征的冗余 for i = 1:length(feature_set) candidate = feature_set(i); sum_mi = 0; for j = selected_features sum_mi = sum_mi + mut_info(X(:,candidate), X(:,j)); end redundancy(i) = sum_mi / length(selected_features); } % 计算mRMR得分 mrmr_score = relevance - redundancy; % 选择得分最高的特征 [~, idx] = max(mrmr_score); selected_features = [selected_features feature_set(idx)]; feature_set(idx) = []; end end function mi = mut_info(x, y) % 计算两个变量的互信息 [joint_dist, ~, ~] = histcounts2(x, y, 10); joint_dist = joint_dist / sum(joint_dist(:)); marginal_x = sum(joint_dist, 2); marginal_y = sum(joint_dist, 1); mi = 0; for i = 1:size(joint_dist,1) for j = 1:size(joint_dist,2) if joint_dist(i,j) > 0 mi = mi + joint_dist(i,j) * log2(joint_dist(i,j)/(marginal_x(i)*marginal_y(j))); end end end end

代码重点解析:

  1. 互信息计算部分用了直方图分箱(histcounts2),这里把连续变量离散化成10个区间。实际操作中如果特征是分类变量,可以直接用原始类别计算。
  1. 冗余度计算时取的是与已选特征互信息的平均值,这个设计让算法更倾向于选择与已选特征差异大的候选特征。
  1. 选择过程中不断更新候选集,避免重复选择,这个动态更新机制是mRMR的核心。

可视化重要性排序:

% 假设运行完特征选择得到selected_features figure; barh(sort(mi_target(selected_features), 'descend')); xlabel('mRMR重要性得分'); set(gca,'yticklabel',feature_names(selected_features)); title('特征重要性排序');

这个横向条形图越靠右的特征越重要,建议在拐点位置(类似肘部法则)截断选择特征。比如前5个特征贡献了80%的重要性得分,后面的就可以砍掉。

避坑指南:

  • 数据需要先做归一化!特别是连续特征
  • 目标变量y如果是回归任务,需要修改互信息计算方法
  • 特征数量较多时建议分批计算,否则内存容易爆炸
  • 离散化分箱数不要超过样本量的平方根

最后说个玄学经验:用mRMR筛选后的特征再扔进随机森林跑一遍重要性,两者结果取交集,效果往往比单用某一种方法更稳。毕竟特征选择这事儿,多算法交叉验证才靠谱嘛。

http://www.jsqmd.com/news/167281/

相关文章:

  • 程序员必看!收藏这篇:知识图谱如何解决大模型的幻觉问题
  • AI大模型时代程序员生存指南:从职业转型到高薪岗位的完整路径_大龄程序员想转行大模型,应该往哪个方向转?
  • 读书笔记4-11.6
  • Markdown表格对比:Miniconda与Anaconda功能差异一览
  • PyTorch模型保存与加载:在Miniconda中进行持久化操作
  • 四轴桥板卧加编程:AB轴坐标转换宏程序与VT送出
  • 2025.10.9
  • Miniconda环境合并:将多个env整合为统一平台
  • 远程服务器资源监控:查看Miniconda容器GPU占用情况
  • Java学习。
  • Miniconda vs Anaconda:为什么选择轻量级Python镜像更高效
  • AI赋能软件测试:如何在质量保障领域真正降低人力成本
  • AdisInsight数据库的3个应用场景与5个内容模块
  • Docker save/load导出导入Miniconda镜像便于迁移
  • [线上问题排查参考 | 01]
  • 免费开源!Stable Diffusion AI 生图天花板,下载安装一款能免费部署的 AI 绘图神器
  • GitHub Pull Request流程:贡献Miniconda相关开源项目
  • 2025大模型完全指南:从原理到实战,一篇就够了,建议收藏学习!初识大模型(非常详细)
  • GitHub Issue模板设计:标准化反馈Miniconda使用问题
  • numa balancing缺陷分析
  • 制剂处方数据库【制剂组分研究】
  • 如何在实际项目中应用 MyVector 类?
  • 2025年东莞线对板连接器厂家口碑洞察报告:从技术到服务的专业选型指南 - 品致汇
  • Linux终端操作进阶:自动化脚本部署Miniconda环境
  • vector模拟实现与核心机制
  • yolov5识别demo
  • 在Miniconda中安装FastAPI构建RESTful接口
  • python基于校园学生行为大数据的精准分析管理系统
  • Python安装后无法导入模块?Miniconda-Python3.10修复sys.path
  • springboot的马术俱乐部管理系统设计与实现