当前位置: 首页 > news >正文

实用指南:逻辑回归(Logistic Regression)

逻辑回归=线性回归+sigmoid函数

逻辑回归简介

逻辑回归(Logistic Regression)是一种用于解决二分类问题的统计学习方法,通过将线性回归的输出映射到[0,1]区间,表示概率。尽管名称中包括“回归”,但逻辑回归实际用于分类任务

核心公式(Sigmoid函数)

逻辑回归利用Sigmoid函数(或称Logistic函数)将线性组合映射为概率
$ P(y=1 \mid \mathbf{x}) = \sigma(\mathbf{w}^T \mathbf{x} + b) = \frac{1}{1 + e^{-(\mathbf{w}^T \mathbf{x} + b)}} $
其中:

  • $\mathbf{x}$为输入特征向量,$\mathbf{w}$为权重参数,$b$为偏置项。
  • $\sigma(\cdot)$为Sigmoid函数,输出范围(0,1)

极大似然估计

极大似然估计的基本概念

极大似然估计(Maximum Likelihood Estimation, MLE)是一种统计方法,用于从观测数据中估计参数。其核心思想是找到一组参数,使得观测数据在该参数下出现的概率最大

似然函数 $L(\theta \mid x)$ 是参数$\theta$的函数,表示在给定观测信息$x$ 时参数 $\theta$的可能性。

MLE 的目标是最大化似然函数:\hat{\theta}{\text{MLE}} = \arg\max{\theta} L(\theta \mid x)

极大似然估计的步骤

构建似然函数假设观测素材$x_1, x_2, \dots, x_n$独立同分布(i.i.d.),

似然函数为:L(\theta \mid x) = \prod_{i=1}^n f(x_i \mid \theta)

其中 $f(x_i \mid \theta)$是概率密度函数(连续变量)或概率质量函数(离散变量)。

取对数似然函数

由于连乘计算复杂,通常取对数似然函数:\ell(\theta \mid x) = \log L(\theta \mid x) = \sum_{i=1}^n \log f(x_i \mid \theta)

求导并解方程$\ell(\theta \mid x)$ 关于 $\theta$求导,并令导数为零:\frac{\partial \ell(\theta \mid x)}{\partial \theta} = 0(使得原函数取到最值)

解此方程得到$\hat{\theta}_{\text{MLE}}$


举个例子就是:

假设我有一个硬币,正常来说投到正反的概率相同,假设投出正面的概率是i,那么投出反面的概率是1-i,那么我许可很轻松算出投出4个正面和6个反面的概率是P=(i)^4(1-i)^6

如果投出正面的概率是0.5,那么投出反面的概率也是0.5,投出4个正面和6个反面的概率是P=(0.5)^4(1-0.5)^6

0.5,要求我去计算,而我在投出10枚硬币后,发现出现了四次正面和六次反面,其概率是就是但是现在投出正面的概率不知道,可能也不P=(i)^4(1-i)^6

既然事情已经发生,为了计算概率,当然要使这件事情发生的概率尽可能大,

比如抽奖10抽中了6抽,我不会认为抽中一次的概率是1%,而是认为在60%左右

这里使P=(i)^4(1-i)^6发生概率尽可能大才会使得结果更准确,

这个函数由两部分组成,当i趋近于1时(i-1)会接近0导致结果变小,

同样当i趋近于0时i会接近0,也导致结果变小,

所以求解办法一般是求导,当导数为0取到极大值


正常来说回归函数是用来算一个估计值,逻辑回归会把这个值限制在0-1之间

这里的转化会造成一部分损失

逻辑回归的损失函数

逻辑回归通常采用对数似然损失函数(Log-Likelihood Loss),也称为交叉熵损失(Cross-Entropy Loss)。其核心思想是凭借最大化似然函数来优化模型参数。

二元逻辑回归的损失函数

对于二元分类挑战(标签为0或1),损失函数定义如下:

L(y, \hat{y}) = - \frac{1}{N} \sum_{i=1}^{N} \left[ y_i \log(\hat{y}_i) + (1 - y_i) \log(1 - \hat{y}_i) \right]

其中:

  • y_i是第 i个样本的真实标签(0或1)。
  • \hat{y}_i是模型预测的概率值(即\hat{y}_i = \sigma(w^T x_i + b),其中 \sigma是sigmoid函数)。
  • N是样本数量。

损失函数的推导

逻辑回归假设数据服从伯努利分布,通过极大似然估计推导损失函数:

解释:

  • 定义sigmoid函数将线性输出映射到概率:\hat{y}_i = \sigma(z_i) = \frac{1}{1 + e^{-z_i}}, \quad z_i = w^T x_i + b
  • 似然函数为:\mathcal{L}(w, b) = \prod_{i=1}^{N} \hat{y}_i^{y_i} (1 - \hat{y}_i)^{1 - y_i}
  • 取负对数似然(转换为最小化困难):-\log \mathcal{L}(w, b) = -\sum_{i=1}^{N} \left[ y_i \log(\hat{y}_i) + (1 - y_i) \log(1 - \hat{y}_i) \right]

损失函数的作用

损失函数计算出的结果用于衡量模型预测值与真实值之间的差异。这个差异值在机器学习和深度学习中扮演着关键角色,直接影响模型的训练和优化过程。

http://www.jsqmd.com/news/53209/

相关文章:

  • CTIP 与 3D-IC 堆栈热行为仿真实践
  • Mac 安装 4K Video Downloader v5.0.0.5303-1.dmg 方法(附安装包)
  • 浮点数定点表示(Q格式)
  • TPS的另外一层含义:绝对并发用户数 - BKY007
  • P10547 [THUPC 2024 决赛] 排列游戏
  • NeurlPS 2025!多伦多大学TIRE助力3D/4D 生成精准保留主体身份
  • 笔记——OI中求逆元的几种方式(不含数学知识的讲解)
  • 2025国内公关公司排名推荐(整合权威数据源):十大机构深度对比,专业分析与选择指南
  • SpringBoot集成LangChain4j快速开发AI应用(调用阿里云Api) - 实践
  • 中美大数据产业的十年分岔路 - 智慧园区
  • acme证书申请
  • 【论文精读】DreamVideo:定制化主体与动作的视频生成技能
  • NOIP模拟赛11.27
  • Open WebUI大模型输出完成后新对话响应延迟、输出变慢问题
  • 2025年11月掘进机位移传感器,拦焦车位移传感器,推焦车位移传感器厂家最新推荐,焦化设备适配测评
  • 2025年11月辊缝位移传感器,切纸位移传感器,水坝闸门液压位移传感器厂家最新推荐,水利与造纸适配测评
  • 2025年11月起重机位移传感器,挖掘机位移传感器,压路机位移传感器厂家最新推荐,工程机械性能测评
  • Java大厂面试真题:Spring Boot微服务+Kafka消息队列+AIGC场景实战问答全解析 - 指南
  • 从被动审查到主动风控:文档抽取技术驱动合同管理范式转移
  • Python中isdigit、isdecimal、isnumeric区别详解
  • 2025年11月GEO公司推荐:全链路破局企业流量困境,AI驱动搜索优化实力全解析
  • CH584/CH585NFC调试相关
  • 租房买房必看2租房切忌“暗室”!这种房子阴气重、易生病,白送都别住!
  • 人工智能之数据分析 Matplotlib:第二章 Pyplot
  • 医疗器械渠道管理革新:数字化平台如何解决行业痛点
  • 性能验证问题汇总
  • 如何在VSCode中Debug(带有参数,name、program、$file、args、pickArgs、指定虚拟环境)
  • 深入解析:Android Cursor AI实践技巧
  • 适合应届生:零经验专业简历模板TOP4
  • C# 中的安全零拷贝