从0开始深度学习(6)——Pytorch动态图机制(前向传播、反向传播)

news/2024/9/28 8:11:01 标签: 深度学习, pytorch, 人工智能

PyTorch 的动态计算图机制是其核心特性之一,它使得深度学习模型的开发更加灵活和高效。

0 计算图

计算图(Computation Graph)是一种用于表示数学表达式或程序流程的图形结构,可以将复杂的表达式分解成一系列简单的操作,并以节点和边的形式展示这些操作及其之间的关系,能够清晰地展示计算过程中的依赖关系

  • 节点(Nodes): 表示变量或常量,也可以表示操作(如加法、乘法等)。
  • 边(Edges) :表示数据流的方向,即一个操作的结果如何作为输入传递给下一个操作。

举例说明

假设我们有如下的表达式:
x = a + b x=a+b x=a+b
y = c ∗ d y=c*d y=cd
z = x + y z=x+y z=x+y
在这里插入图片描述

其中 a , b , c , d a,b,c,d a,b,c,d是输入变量, z z z是输出变量。

假设令 a = 1 , b = 2 , c = 3 , d = 4 a=1,b=2,c=3,d=4 a=1,b=2,c=3,d=4,则可以根据上面的计算图,计算出 z z z,计算过程如下:
x = a + b = 1 + 2 = 3 x=a+b=1+2=3 x=a+b=1+2=3
y = c ∗ d = 3 ∗ 4 = 12 y=c*d=3*4=12 y=cd=34=12
z = x + y = 12 + 3 = 5 z=x+y=12+3=5 z=x+y=12+3=5

1 前向传播、反向传播

但是在机器学习中,计算图不仅展示了计算路径,还为计算梯度提供了基础,这里涉及到前向传播和反向传播

1.1 前向传播(计算输出)

根据当前的模型参数计算网络的输出,前向传播的输出作用是:

  • 评估模型性能: 通过比较网络的预测值与实际值,可以计算损失函数的值,从而评估模型当前的性能。
  • 准备反向传播: 前向传播计算出的中间结果(例如每个隐藏层的输出)是反向传播中计算梯度所必需的。上面的计算过程就是前向传播。
    在这里插入图片描述

1.2 反向传播(计算梯度)

目的是计算损失函数关于每个模型参数的梯度。这些梯度信息用于更新模型参数,使模型在下一次迭代中表现得更好,关于梯度是什么,在从0开始深度学习(2)——自动微分解释了梯度的概念和计算过程。
在这里插入图片描述

现在依然以上面的例子举例,假设我么们有一个损失函数 L L L,并且 L L L关于 z z z的梯度已知为 ∂ L ∂ z = 1 \frac{\partial L}{\partial z}=1 zL=1(通常都这样设置,且适用于多种函数),目标是计算 a , b , c , d a,b,c,d a,b,c,d关于 L L L的梯度,反着计算。
在这里插入图片描述

1 静态计算图

静态图是通过先定义后运行的方式,先搭建图,然后再输入数据进行计算,典型代表是Tensorflow 1.0 版本,Tensorflow名字的来源就是因为张量Tensor在预先定义的图中流动(Flow)
在这里插入图片描述

2 动态计算图

动态图是指计算图的运算和搭建同时运行,也就是可以先计算前面的节点的值,再根据这些值搭建后面的图,如下图所示:
在这里插入图片描述

2.1核心概念

2.1.1 张量

参考从0开始深度学习(1)—— 代码实现线性代数中的概念解释

2.1.2 自动微分

pytorch框架中借助自动微分机制来实现动态计算图,意味着计算图是在运行时动态构建的,它使得计算复杂模型的梯度变得非常方便。

  • 计算图在每次前向传播时重新构建。这意味着每个操作都会记录下来,并在反向传播时按需计算梯度。
  • 每个张量(Tensor)都有一个 .grad 属性来存储梯度,以及一个 .grad_fn 属性来记录创建该张量的操作。

关键属性:

  1. data:包含tensor的实际数据
  2. grad:存储tensor的梯度。在开始训练前,我们会使用zero_grad()把梯度清零,第一次反向传播后, x.grad会包含当前损失函数关于x的梯度,如果第二次反向传播前不清零,则新的梯度会累加x.grad,即包含两次反向传播的梯度之和
  3. grad_fn:记录了创建tensor的操作,表明该tensor是通过何种前向传播计算出来的,例如x是通过加法计算出来的,则x.grad_fn指向一个加法操作的函数对象

2.2 举例说明

依然以上述例子为例,我先举一个静态图的例子,是在TensorFlow 1.x 中,需要提前定义好整个计算图,然后在会话中执行:

import tensorflow as tf

# 定义输入和参数
a = tf.placeholder(tf.float32, shape=[])
b = tf.placeholder(tf.float32, shape=[])
c = tf.placeholder(tf.float32, shape=[])
d = tf.placeholder(tf.float32, shape=[])

# 前向传播,此处无法查看,只能在Session中查看
x = a + b
y = c * d
z = x + y

# 定义损失函数
L = z

# 定义梯度
grad_a, grad_b, grad_c, grad_d = tf.gradients(L, [a, b, c, d])

# 创建会话
with tf.Session() as sess:
    # 前向传播
    print("Starting forward pass...")
    x_val, y_val, z_val = sess.run([x, y, z], feed_dict={a: 1.0, b: 2.0, c: 3.0, d: 4.0})
    print(f"x: {x_val}, grad_fn: N/A")
    print(f"y: {y_val}, grad_fn: N/A")
    print(f"z: {z_val}, grad_fn: N/A")

    # 打印前向传播的结果
    print(f"x: {x_val}")  # 3
    print(f"y: {y_val}")  # 12
    print(f"z: {z_val}")  # 15

    # 反向传播
    print("Starting backward pass...")
    grad_a_val, grad_b_val, grad_c_val, grad_d_val = sess.run([grad_a, grad_b, grad_c, grad_d], feed_dict={a: 1.0, b: 2.0, c: 3.0, d: 4.0})

    # 打印梯度
    print(f"a.grad: {grad_a_val}")  # 1
    print(f"b.grad: {grad_b_val}")  # 1
    print(f"c.grad: {grad_c_val}")  # 4
    print(f"d.grad: {grad_d_val}")  # 3

接下来举一个动态图的例子
pytorch动态图例子:

import torch

# 定义输入和参数
a = torch.tensor([1.0], requires_grad=True)
b = torch.tensor([2.0], requires_grad=True)
c = torch.tensor([3.0], requires_grad=True)
d = torch.tensor([4.0], requires_grad=True)

# 前向传播,在定义操作中,就可以查看梯度和操作,不像静态图中,必须在Session中才能查看
print("Starting forward pass...")
x = a + b
print(f"x: {x.item()}, grad_fn: {x.grad_fn}")
# 输出结果:x: 3.0, grad_fn: <AddBackward0 object at 0x000002113E68B790>

y = c * d
print(f"y: {y.item()}, grad_fn: {y.grad_fn}")
# 输出结果:y: 12.0, grad_fn: <MulBackward0 object at 0x000002113D43C070>

z = x + y
print(f"z: {z.item()}, grad_fn: {z.grad_fn}")
# z: 15.0, grad_fn: <AddBackward0 object at 0x000002113E68B790>

# 打印前向传播的结果
print(f"x: {x.item()}")  # 3
print(f"y: {y.item()}")  # 12
print(f"z: {z.item()}")  # 15
'''
输出结果:
x: 3.0
y: 12.0
z: 15.0
'''

# 假设损失函数 L = z
L = z

# 反向传播
print("Starting backward pass...")
L.backward()

# 打印梯度
print(f"a.grad: {a.grad.item()}")  # 1
print(f"b.grad: {b.grad.item()}")  # 1
print(f"c.grad: {c.grad.item()}")  # 4
print(f"d.grad: {d.grad.item()}")  # 3
'''
输出结果:.
a.grad: 1.0
b.grad: 1.0
c.grad: 4.0
d.grad: 3.0
'''

3 利用动态图机制,修改流程

我们这里希望根据 a a a的值来决定计算流程,详情看注释

import torch

# 定义输入和参数
a = torch.tensor([1.0], requires_grad=True)
b = torch.tensor([2.0], requires_grad=True)

# 采用简洁的代码,可以动态的修改计算流程,控制更灵活
if a.item() > 0:
    x = a + b
    print(f"x: {x.item()}")  # 3
else:
    x = a - b

# 前向传播
y = x * 2
print(f"y: {y.item()}")  # 6

# 反向传播
y.backward()

# 打印梯度
print(f"a.grad: {a.grad.item()}")  # 2
print(f"b.grad: {b.grad.item()}")  # 2

如果是在静态图中需要通过控制流来决定,与动态图相比,操作更复杂,不直观

# 条件分支
x = tf.cond(a > 0, lambda: a + b, lambda: a - b)

http://www.niftyadmin.cn/n/5680704.html

相关文章

MAC-Win11虚拟机双VPN环境内网穿透解决思路

MAC-Win11虚拟机双VPN环境内网穿透解决思路 背景新的问题解决方案问题定位解决方法其他 背景 日常工作需要同时在mac上连接两个不同公司的vpn&#xff0c;下文简称&#xff1a;公司A -> vpn1&#xff1b;公司B -> vpn2。 对于公司B&#xff0c;需要在开发工作中&#x…

LLM | Ollama WebUI 安装使用(pip 版)

Open WebUI (Formerly Ollama WebUI) 也可以通过 docker 来安装使用 1. 详细步骤 1.1 安装 Open WebUI # 官方建议使用 python3.11&#xff08;2024.09.27&#xff09;&#xff0c;conda 的使用参考其他文章 conda create -n open-webui python3.11 conda activate open-web…

Unity XR 环境检测

需求&#xff1a; 检测环境是XR还是手机 代码&#xff1a; using UnityEngine.XR;public class EnvmentUtility {/// <summary>/// 是否是XR环境/// </summary>/// <returns>如果是XR&#xff0c;返回true&#xff0c;否则false</returns>public sta…

SpringBoot开发——整合ShardingSphere实现数据库字段加解密

文章目录 1、什么是ShardingSphere2、SPringBoot整合ShardingSphere2.1 依赖引入2.2 配置ShardingSphere2.3 数据表准备2.4 实现加解密2.4.1 实体类定义2.4.2 数据访问层2.4.3 服务层2.4.4 控制层2.5 测试加解密功能3、小结1、什么是ShardingSphere ShardingSphere是Apache旗下…

「安装」 Windows下安装CUDA和Pytorch

「安装」 Windows下安装CUDA和Pytorch 文章目录 「安装」 Windows下安装CUDA和PytorchMac、Linux、云端Windows安装CUDA安装miniconda安装PyTorch测试总结 其他 Mac、Linux、云端 Mac、Linux、云端安装Miniconda和Pytorch的方法参考其他资料。 Windows 下面进行Windows下安装…

AI学习指南深度学习篇-丢弃法Python实践

AI学习指南深度学习篇-丢弃法Python实践 引言 在深度学习的领域中&#xff0c;丢弃法&#xff08;Dropout&#xff09;是一种有效的防止过拟合的随机正则化技术。过拟合是指模型在训练集上表现良好&#xff0c;但在测试集或未见过的数据上表现较差的现象。丢弃法通过随机地“…

【大数据】大数据运维方案浅析总结

1. 引言 在大数据时代&#xff0c;如何高效管理和维护大规模数据平台&#xff0c;成为许多企业面临的重要挑战。本文将对市面上一些流行的大数据运维管理方案进行全面分析&#xff0c;包括Cloudera的CDH和CDP、Hortonworks的HDP、Apache的Ambari、国产开源平台Datasophon&#…

第五部分:4---Linux闹钟机制

闹钟机制&#xff1a; Linux 的闹钟机制为用户提供了一种设置和管理闹钟的方式。用户通过系统调用设置闹钟&#xff0c;操作系统负责在指定时间后处理这些闹钟。 闹钟结构体和链表&#xff1a; 操作系统为每个闹钟创建一个结构体对象&#xff0c;这个对象包含有关闹钟的信息&…