当前位置: 首页 > news >正文

【人工智能引论期末复习】 第6章 深度学习4 - RNN

一、基本概念与填空考点

  1. RNN全称:循环神经网络(Recurrent Neural Network)

  2. RNN的主要特点

    • 具有记忆能力,能处理序列数据

    • 前后输入之间存在依赖关系

  3. 与CNN和前馈网络的区别

    • CNN:局部感知、参数共享,用于图像

    • RNN:处理序列(如文本、语音、视频)

  4. RNN的两种主要结构

    • 简单循环网络(SRN / Elman Network)

    • 长短时记忆网络(LSTM)

  5. LSTM的三个门结构

    • 输入门(Input Gate)

    • 遗忘门(Forget Gate)

    • 输出门(Output Gate)

  6. GRU的两个门结构

    • 更新门(Update Gate)

    • 重置门(Reset Gate)

  7. RNN的训练算法

    • BPTT(沿时间反向传播)


二、结构与应用题型

  1. RNN的输入输出类型

    • 一对一、一对多、多对一、多对多

    • 举例:情感分类(多对一)、机器翻译(多对多)、图像描述(一对多)

  2. RNN在NLP中的应用

    • 词性标注、情感分析、机器翻译、问答系统

  3. LSTM与GRU的区别

    • LSTM:三个门,结构复杂,记忆单元独立

    • GRU:两个门,结构简单,计算更快


三、计算与推导题型

  1. RNN时间展开计算

    • 给定输入序列、初始隐状态、权重,能计算隐状态序列与输出序列

    • 示例题型见课件中“Example: All weights are 1”部分

  2. LSTM门控计算

    • 给定输入、前一状态、门控信号,能计算记忆单元更新与输出

    • 课件中LSTM示例表格是典型计算题来源

  3. 梯度消失与爆炸

    • RNN梯度消失的原因:连乘导致梯度指数衰减

    • LSTM如何缓解:通过门控机制控制信息流动


四、对比与简答题型

  1. RNN vs CNN vs 前馈网络

    • 结构差异、适用任务差异、记忆能力差异

  2. LSTM vs GRU

    • 结构差异、计算效率、适用场景

  3. BPTT vs 标准BP

    • BPTT是BP在时间维度上的展开

    • 需理解梯度如何沿时间步传播


五、图示与流程题

  1. RNN展开图

    • 能画出RNN在时间上的展开图(如课件中“Recurrent Network”图示)

  2. LSTM单元结构图

    • 能标注输入门、遗忘门、输出门、记忆单元、输入输出路径

  3. GRU结构图

    • 能标注更新门、重置门、隐状态传递路径


六、记忆与概念强化题

  1. 关键人物与模型

    • Elman Network(1990)

    • LSTM(Hochreiter & Schmidhuber,1997)

    • GRU(Cho et al.,2014)

  2. RNN的缺点与改进

    • 梯度消失 → LSTM/GRU

    • 计算效率低 → 优化结构如GRU

  3. RNN与递归神经网络(RecNN)的区别

    • RNN处理序列,RecNN处理树状结构


✅ 复习建议:

  1. 熟记RNN、LSTM、GRU的结构名称与门控机制

  2. 掌握序列计算题型(如课件中线性权重为1的示例)

  3. 理解BPTT与梯度问题的关系

  4. 能画出RNN、LSTM的结构示意图

  5. 熟悉RNN在NLP中的典型应用场景


题目2:LSTM门控信号计算(选择题型)

题目:
LSTM中,输入门、遗忘门、输出门的激活函数通常为( )函数,输出值范围在( )之间,用于模拟门的( )状态。
A. Sigmoid,[0,1],开/关
B. Tanh,[-1,1],正/负
C. ReLU,[0,∞],激活/抑制
D. Softmax,[0,1],概率分布

答案:A



🔤填空题集

  1. RNN全称是循环神经网络,主要用于处理序列数据

  2. RNN中用于训练的时间反向传播算法简称BPTT

  3. LSTM的三个门分别是输入门、遗忘门、输出门

  4. GRU的两个门分别是更新门、重置门

  5. RNN容易出现梯度消失问题,LSTM通过门控机制缓解该问题。

  6. Elman Network是简单循环网络(SRN)的一种。

  7. RNN在时间维度上展开后,可看作是一个深度网络

  8. 在机器翻译任务中,RNN通常采用多对多结构。

  9. LSTM中遗忘门的作用是控制是否遗忘上一时刻记忆

  10. GRU相比LSTM的优点是结构简单、计算速度快


简答题集

  1. 简述RNN与CNN的主要区别。

    • RNN适用于序列数据,具有记忆能力;CNN适用于图像数据,具有局部感知和参数共享特性。

  2. 为什么RNN会出现梯度消失问题?LSTM是如何缓解的?

    • RNN梯度在时间步上连乘,导致指数衰减。LSTM引入门控机制和记忆单元,可选择性地遗忘和记忆,减轻梯度衰减。

  3. 描述LSTM中“遗忘门”的作用。

    • 遗忘门决定从上一记忆单元中保留多少信息到当前记忆单元,通过Sigmoid输出[0,1]之间的值控制遗忘程度。

  4. GRU与LSTM相比,有哪些结构上的简化?

    • GRU将输入门与遗忘门合并为更新门,取消独立记忆单元,将记忆与隐状态合并,结构更简洁。

  5. 举例说明RNN在自然语言处理中的一个应用,并描述其输入输出结构。

    • 如情感分类:输入为词序列(多对一),输出为情感标签(积极/消极)。

  6. 画出简单RNN在三个时间步上展开的示意图,并标注输入、隐状态、输出。

    • 参考课件中“Recurrent Network”展开图。


如果你还需要RNN/LSTM/GRU的结构图示复习更多计算变形题,我可继续整理。是否需要?

需要

以下是针对RNN/LSTM/GRU的结构图示复习要点更多计算变形题,适合用于图文结合复习与计算巩固:


🖼️RNN/LSTM/GRU 结构图示复习要点

一、简单RNN(Elman Network)时间展开图

text

时间展开示意图(三个时间步): x1 x2 x3 | | | v v v RNN RNN RNN | | | v v v h1 ---> h2 ---> h3 | | | v v v y1 y2 y3 说明: - h_t = f(W_i * x_t + W_h * h_{t-1} + b_h) - y_t = g(W_o * h_t + b_o) - 箭头表示隐状态传递

二、LSTM单元内部结构图

text

LSTM 单元结构: 输入: x_t (当前输入) h_{t-1} (前一隐状态) C_{t-1} (前一记忆) 门控信号: i_t = σ(W_i · [h_{t-1}, x_t] + b_i) [输入门] f_t = σ(W_f · [h_{t-1}, x_t] + b_f) [遗忘门] o_t = σ(W_o · [h_{t-1}, x_t] + b_o) [输出门] 记忆更新: C̃_t = tanh(W_c · [h_{t-1}, x_t] + b_c) [候选记忆] C_t = f_t ⊙ C_{t-1} + i_t ⊙ C̃_t [新记忆] 输出: h_t = o_t ⊙ tanh(C_t) [新隐状态] 符号说明: σ: Sigmoid ⊙: 逐元素乘 tanh: 双曲正切

三、GRU单元内部结构图

text

GRU 单元结构: 输入: x_t (当前输入) h_{t-1} (前一隐状态) 门控信号: z_t = σ(W_z · [h_{t-1}, x_t] + b_z) [更新门] r_t = σ(W_r · [h_{t-1}, x_t] + b_r) [重置门] 候选状态: h̃_t = tanh(W_h · [r_t ⊙ h_{t-1}, x_t] + b_h) 输出: h_t = (1 - z_t) ⊙ h_{t-1} + z_t ⊙ h̃_t





复习建议

  1. 画图记忆:动手画出RNN、LSTM、GRU的结构图,标注输入输出与门控。

  2. 计算熟练:多做门控信号、状态更新的计算题,尤其是带Sigmoid/tanh的近似计算。

  3. 对比理解:总结RNN、LSTM、GRU的异同,特别是如何解决梯度问题。

  4. 题型覆盖:填空题、计算题、简答题都要练习,尤其是结合序列数据的应用题。

http://www.jsqmd.com/news/244286/

相关文章:

  • 深度学习毕设选题推荐:基于python卷积神经网络识别花卉基于卷积神经网络识别花卉
  • 电鱼智能 AM3354 驱动巡检履带机器人的高可靠运动底盘控制
  • 别再说“零基础学不了网安”!电脑小白也能入门的4阶段路线
  • 接入京东关键词API的核心利弊分析
  • 苹果向谷歌借脑:Siri终于要变聪明了,但谁才是真正赢家?
  • 机器人主控去 X86 化:电鱼智能 RK3588 提供 8 核高算力平替方案
  • Python代码+提示词访问大模型
  • Java多态详解,零基础入门到精通,收藏这篇就够了
  • 现代农业赋能下的农产品高质量发展
  • Go 里的端口复用从原理到生产可用代码(SO_REUSEPORT / SO_REUSEADDR)
  • Rust 交叉编译:MacOS ====> Linux (musl 静态编译)
  • JAVA常用源码编辑工具有哪些?_java编辑器,零基础入门到精通,收藏这篇就够了
  • 使用Ubuntu搭建Java部署环境_ubuntu安装java环境,零基础入门到精通,收藏这篇就够了
  • 人工造问卷 VS 宏智树 AI:告别 “无效调研”,学术问卷设计原来可以这么简单
  • 永磁同步电机反步控制实战手记
  • JAVA实战:学生选课管理系统_java学生选课管理系统,零基础入门到精通,收藏这篇就够了
  • 【毕业设计】基于深度学习卷积神经网络训练识别橘子是否新鲜基于python_CNN深度学习卷积神经网络训练识别橘子是否新鲜
  • 宏智树 AI 数据分析:文科生也能玩转硬核实证,论文说服力翻倍!
  • Hadoop Formats 在 Flink 里复用 Hadoop InputFormat(flink-hadoop-compatibility)
  • 宏智树 AI:期刊论文投稿通关密码!从选题到见刊的智能加速器
  • 深度学习毕设项目:基于python_CNN深度学习训练识别橘子是否新鲜基于python_CNN深度学习卷积神经网络训练识别橘子是否新鲜
  • 零代码开发平台有哪些?
  • 宏智树 AI:课程论文写作 “开挂神器”!告别凑字数,轻松搞定高分作业
  • 【课程设计/毕业设计】基于卷积神经网络训练识别橘子是否新鲜基于python_CNN深度学习卷积神经网络训练识别橘子是否新鲜
  • 【2026必看】AI Agent完全指南:从零掌握大模型核心架构,建议收藏学习
  • 家庭食谱管理系统 Recipes 怎么搭?用服务器自建一个“全家共享”的菜谱库
  • HG_REPMGR autofailvoer自动故障转移
  • 2026年网络安全学习路线,零基础入门到精通,看这篇就够了!赶紧收藏!
  • 【必看收藏】RAG分块策略全解析:从入门到精通,解决大模型企业应用痛点
  • 【2026年最新整理】网络安全学习路线,入门到入坟,史上最全网络安全学习路线整理