运城家具封边胶厂家 经网络 — PyTorch 教程 2.1.+cu128 文档
经网络#创建时间:217 年 3 月 24 日 | 后新:225 年 12 月 3 日 | 后验证:224 年 11 月 5 日运城家具封边胶厂家
可以使用 torch.nn 包来构建经网络。
现在您已经对 autograd 有了初步了解,nn 依赖于 autograd 来定义模型并进行区分。个 nn.Module 包含层,以及个返回 output 的 forward(input) 法。
例如,看这个对数字图像进行分类的网络
convnet#
这是个简单的前馈网络。它接收输入,依次通过几个层,后给出输出。
经网络的典型训练过程如下
定义个具有可学习参数(或权重)的经网络
遍历数据集中的输入运城家具封边胶厂家
通过网络处理输入
计损失(输出距离正确值有多远)
将梯度反向传播到网络的参数中
新网络的权重,通常使用简单的新规则:weight = weight - learning_rate * gradient
定义网络#我们来定义这个网络
您只需要定义 forward 函数,而 backward 函数(其中计梯度)将通过 autograd 自动为您定义。您可以在 forward 函数中使用任何 Tensor 操作。
模型的可学习参数由 net.parameters() 返回
让我们尝试个随机的 32x32 输入。注意:该网络(LeNet)的预期输入大小为 32x32。要在此网络上使用 MNIST 数据集运城家具封边胶厂家,请将数据集中的图像大小调整为 32x32。
清所有参数的梯度缓冲区,并使用随机梯度进行反向传播
在继续之前,让我们回顾下您到目前为止看到的所有类。
回顾torch.Tensor - 个支持 backward() 等自动微分操作的*多维数组*。还*保存着*相对于 Tensor 的*梯度*。
nn.Module - 经网络模块。*封装参数的便捷式*,并提供将参数移动到 GPU、出、加载等辅助。
nn.Parameter - 种 Tensor,当被分配为 Module 的属时,它会被*自动注册为个参数*。
autograd.Function - 实现*自动微分操作的前向和后向定义*。每个 Tensor 操作至少创建个 Function 节点,该节点连接到创建 Tensor 的函数,并*编码其历史*。
到目前为止,我们已经涵盖了定义经网络
处理输入并调用 backward运城家具封边胶厂家
仍未完成计损失
新网络的权重
损失函数#损失函数接受 (输出, 目标) 对输入,并计个值来估计输出与目标的差距。
在 nn 包下有几种不同的损失函数。个简单的损失是:nn.MSELoss,它计输出和目标之间的均误差。
例如
现在,如果您沿着 loss 的反向传播向,通过其 .grad_fn 属,万能胶生产厂家您将看到个如下的计图
因此,当我们调用 loss.backward() 时,整个图将相对于经网络参数进行微分,并且图中所有 requires_grad=True 的 Tensor 将累积其 .grad Tensor 作为梯度。
为便于说明,让我们向后追踪几个步骤
反向传播#要反向传播误差,我们只需要调用 loss.backward()。但是,您需要清现有的梯度,否则梯度将累积到现有梯度上。
现在,我们将调用 loss.backward(),并查看反向传播之前和之后的 conv1 偏置梯度。
现在,我们已经了解了如何使用损失函数。
奥力斯 保温护角专用胶批发 联系人:王经理 手机:13903175735(微信同号) 地址:河北省任丘市北辛庄乡南代河工业区
稍后阅读
唯剩下的就是学习
新权重#实践中简单的新规则是随机梯度下降 (SGD)
我们可以用简单的 Python 代码来实现它
然而,当您使用经网络时,您可能希望使用各种不同的新规则,如 SGD、Nesterov-SGD、Adam、RMSProp 等。为了实现这点,我们构建了个小型包:torch.optim,它实现了所有这些法。使用它非常简单
脚本总运行时间:( 分钟 .162 秒)
相关词条:玻璃棉毡 塑料挤出机 预应力钢绞线 铁皮保温 万能胶生产厂家1.本网站以及本平台支持关于《新广告法》实施的“极限词“用语属“违词”的规定,并在网站的各个栏目、产品主图、详情页等描述中规避“违禁词”。
2.本店欢迎所有用户指出有“违禁词”“广告法”出现的地方,并积极配合修改。
3.凡用户访问本网页,均表示默认详情页的描述,不支持任何以极限化“违禁词”“广告法”为借口理由投诉违反《新广告法》,以此来变相勒索商家索要赔偿的违法恶意行为。
