当前位置: 首页 > news >正文

机器学习——决策树之回归树

概念

解决回归问题的决策树模型你就是回归树

回归树是一种基于决策树的监督学习算法,用于解决回归问题。通过递归地将特征空间划分为多个子区域,并在每个子区域内拟合一个简单的预测值(如均值),实现对连续目标变量的预测。

特点

必须是二叉树

回归树的构建过程

  1. 特征选择与分割
    遍历所有特征和可能的切分点,选择使均方误差(MSE)或平均绝对误差(MAE)最小的特征和切分点。
    分割准则公式:
    [ \min_{j, s} \left[ \min_{c_1} \sum_{x_i \in R_1(j,s)} (y_i - c_1)^2 + \min_{c_2} \sum_{x_i \in R_2(j,s)} (y_i - c_2)^2 \right] ]
    其中 ( R_1, R_2 ) 为分割后的子区域,( c_1, c_2 ) 为子区域内的预测值(通常取均值)。

  2. 递归分割
    对每个子区域重复上述分割过程,直到满足停止条件(如最大深度、最小样本数或误差减少小于阈值)。

  3. 叶子节点预测
    最终叶子节点的预测值为该区域内样本目标变量的均值。

举例:

两个核心问题:1.节点切分的依据是什么?

2.如何能进行预测?

根据这两个问题,我们讲解回归树的计算示例:

1、

1、计算最优切分点

因为只有一个变量,所以切分变量必然是x,可以考虑如下9个切分点:

[1.5,2.5,3.5,4.5,5.5,6.5,7.5,8.5,9.5]。

【原因:实际上考虑两个变量间任意一个位置为切分点均可】

<1>切分点1.5的计算

当s=1.5时,将数据分为两个部分:

第一部分:(1,5.56)

第二部分:(2,5.7)、(3,5.91)、(4,6.4)…(10,9.05)

2、计算损失

C1=5.56

C2=1/9(5.7+5.91+6.4+6.8+7.05+8.9+8.7+9+9.05)=7.5

Loss = (5.56-5.56)^2 + (5.7-7.5)^2+(5.91-7.5)^2+…+(9.05-7.5)^2 =0+15.72 =15.72

3、同理计算其他分割点的损失

容易看出,当s=6.5时,loss=1.93最小,所以第一个划分点s=6.5。

4、对于小于6.5部分

<1>切分点1.5的计算

当s=1.5时,将数据分为两个部分:

第一部分:(1,5.56)

第二部分:(2,5.7)、(3,5.91)、(4,6.4)、(5,6.8)、(6,7.05)

Loss = 0 +(5.7-6.37)^2+(5.91-6.37)^2 +…+(7.05-6.37)^2

=0+1.3087=1.3087

C1=5.56

C2=1/5(5.7+5.91+6.4+6.8+7.05)=6.37

5、可得出

容易看出:<1>当s=3.5时,loss=0.2771最小,所以第一个划分点s=3.5。

<2>当s=8.5时,loss=0.021最小,所以第二个划分点s=8.5。

6、假设只分裂我们计算的这几次

那么分段函数为:

<1>当x<=3.5时,1/3(5.56+5.7+5.91)=5.72

<2>当3.5<x<=6.5时,1/3(6.4+6.8+7.05)=6.75

<3>当6.5<x<=8.5时,1/2(8.9+8.7)=8.8

<4>当8.5<x时,1/2(9+9.05)=9.025

最终得到分段函树!

7、对于预测来说

特征x必然位于其中某个区间内,所以,即可得到回归的结果,比如说:

如果x=11,那么对应的回归值为9.025.

<1>当x<=3.5时,1/3(5.56+5.7+5.91)=5.72

<2>当3.5<x<=6.5时,1/3(6.4+6.8+7.05)=6.75

<3>当6.5<x<=8.5时,1/2(8.9+8.7)=8.8

<4>当8.5<x时,1/2(9+9.05)=9.025

8、决策树的构造:

回归树的实现示例(Python)

使用sklearn构建回归树:

from sklearn.tree import DecisionTreeRegressor from sklearn.model_selection import train_test_split # 假设 X 为特征矩阵,y 为目标变量 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2) # 初始化回归树模型 reg_tree = DecisionTreeRegressor(max_depth=3, min_samples_leaf=5) reg_tree.fit(X_train, y_train) # 预测与评估 predictions = reg_tree.predict(X_test)

回归树的参数解释

一些方法:

1.apply :返回预测每个样本的叶子的索引

2.decision_path:返回树中的决策路径

3.get_depth:获取树的深度

4.get_n_leaves:获取树的叶子节点数

5.get_params:获取此估计器的参数,即前面配置的全部参数信息

6.score:得到决策树的评判标准R2

回归树的优化方法

  • 剪枝:通过代价复杂度剪枝(CCP)减少过拟合。
  • 集成学习:结合随机森林或梯度提升树(如 XGBoost、LightGBM)提升性能。
  • 超参数调优:使用网格搜索或贝叶斯优化调整max_depthmin_samples_split等参数。

应用场景

  • 房价预测、销量预测等连续值预测任务。
  • 特征重要性分析,辅助业务决策。
http://www.jsqmd.com/news/116488/

相关文章:

  • Linly-Talker项目CI/CD流程自动化程度评估
  • Linly-Talker在机场导航服务中的多语言播报实验
  • 智能测试自动化新趋势:软件测试从业者的未来之路
  • Linly-Talker能否导出音频单独使用?资源复用建议
  • 基于图像处理的道路斑马线与行人运动检测系统研究
  • Linly-Talker在音乐教学中的节奏同步可视化尝试
  • 数据结构—优先级队列(堆)
  • Linly-Talker能否识别情感文本并调整语调?情感TTS验证
  • cesium126,230816,Ce for Ue 加载服务器上的地图(GeoServerWMS) - 下:
  • Linly-Talker如何保证用户上传肖像的安全性?
  • 大模型学习路线(二):预训练 (Pre-training)
  • 12.20 - 反转链表II
  • Linly-Talker能否接入Dialogflow实现多轮对话逻辑?
  • 大模型学习路线(三)后训练Post-training
  • Linly-Talker在汽车配置讲解中的三维空间联动设想
  • 大模型学习路线(一):Transformer架构篇
  • Linly-Talker在高校招生宣传中的个性化推送实验
  • 在上海,一份CAIE认证如何为我打开AI世界的窗:思维与能力的双重旅程
  • 连接管理艺术-底层架构的性能奥秘
  • 【第二阶段—机器学习入门】第十五章:机器学习核心概念
  • Linly-Talker如何处理专业术语发音准确性问题?
  • Linly-Talker项目维护频率与长期发展预期
  • 由南京导航失灵看人机环境系统智能
  • DAY 42 训练和测试的规范写法
  • Linly-Talker项目贡献者招募:你可以参与哪些模块?
  • Linly-Talker能否输出WebP动画或GIF片段?轻量格式支持
  • 构建软件兼容性测试全覆盖体系的最佳实践
  • Linly-Talker如何平衡生成速度与画质清晰度?
  • 基于springboot+vue3的企业人事管理系统设计与实现
  • 思考与练习(第十章 文件与数据格式化)