pdf文档 深度学习与PyTorch入门实战 - 28. 激活函数与GPU加速

452.22 KB 11 页 0 评论
语言 格式 评分
中文(简体)
.pdf
3
摘要
文档介绍了PyTorch中的激活函数及其实现,包括Softplus、Sigmoid、SELU和LeakyReLU等,并展示了GPU加速的配置方法。内容还涉及GPU性能监控,包括NVIDIA GeForce GT的使用情况和内存占用情况,urthermore展示了神经网络训练时的GPU配置代码示例。
AI总结
《深度学习与PyTorch入门实战 - 28. 激活函数与GPU加速》 本文档主要介绍了PyTorch中的激活函数及其实现,并展示了如何利用GPU加速深度学习训练过程。以下是核心内容的总结: 1. **激活函数**: - **Sigmoid**:将输入映射到(0,1)范围,ften用于二分类问题。 - **Softplus**:一个平滑的激活函数,定义为 \( \text{Softplus}(z) = \log(1 + \exp(\beta z)) \)。 - **ReLU(Rectified Linear Unit)**:定义为 \( f(z) = \max(0, z) \),_compute梯度вария damit موثوق ما هو موثوق به. - **SELU(Scaled Exponential Linear Unit)**:定义为 \( \text{SELU}(z) = \gamma (\max(0,z) + \min(0, \alpha (\exp(z) - 1))) \),其中参数 \(\alpha = 1.67326\) 和 \(\gamma = 1.0507\),具有自归一化效果。 2. **GPU加速**: - 通过将模型和数据迁移到GPU上实现加速。代码示例如下: ```python device = torch.device('cuda:0') net = MLP() optimizer = optim.SGD(net.parameters(), lr=learning_rate) criterion = nn.CrossEntropyLoss() for epoch in range(epochs): for batch_idx, (data, target) in enumerate(train_loader): data = data.view(-1, ) data, target = data.to(device), target.to(device) optimizer.zero_grad() outputs = net(data) loss = criterion(outputs, target) loss.backward() optimizer.step() ``` - GPU性能监控显示NVIDIA GeForce GT 130%的利用率,Dedicated GPU内存使用为4.0 GB,Shared GPU内存使用为3.9 GB。 3. **模型结构**: - 示例模型使用了多层感知机(MLP),其中包含多个全连接层(nn.Linear)和激活函数(如LeakyReLU)。 此外,文档还简要提到了系统资源监控信息,包括网络连接状态、显存使用情况及驱动信息。
P1
P2
P3
P4
P5
P6
P7
下载文档到本地,方便使用
- 可预览页数已用完,剩余 4 页请下载阅读 -
文档评分
请文明评论,理性发言.