Python全系列 教程
3567个小节阅读:5931.2k
目录
鸿蒙应用开发
C语言快速入门
JAVA全系列 教程
面向对象的程序设计语言
Python全系列 教程
Python3.x版本,未来主流的版本
人工智能 教程
顺势而为,AI创新未来
大厂算法 教程
算法,程序员自我提升必经之路
C++ 教程
一门通用计算机编程语言
微服务 教程
目前业界流行的框架组合
web前端全系列 教程
通向WEB技术世界的钥匙
大数据全系列 教程
站在云端操控万千数据
AIGC全能工具班
A A
White Night
xxxxxxxxxx
import torch.nn.functional as F
from torch import nn,optim
# 构建神经网络类
class Net(nn.Module):
def __init__(self,input_feature,num_hidden,outputs):
super(Net,self).__init__()
# 从输入层到隐层的线性加权
self.hidden = nn.Linear(in_features=input_feature,out_features=num_hidden)
# 从隐层到输出层的线性加权
self.out = nn.Linear(in_features=num_hidden,out_features=outputs)
def forward(self,x): # 前向传播
temp1 = F.relu(self.hidden(x))# 从输入层到隐层,添加relu函数
temp2 = self.out(temp1) # 从隐层到输出层的线性加权
results = F.softmax(temp2) # 对线性加权结果使用Softmax函数
return results
xxxxxxxxxx
criterion = nn.CrossEntropyLoss() # 交叉熵损失函数
# 随机梯度下降法优化器
optimizer = optim.SGD(net.parameters(),lr=0.02)
1.多分类的损失函数使用的是:
A nn.MSELoss()
B nn.CrossEntropyLoss()
C softmax()
D relu()
2.判断本机是否存在CUDA加速,使用的代码是:
A torch.cuda
B forward(self,x)
C torch.cuda.is_available()
D cuda()
1=>B 2=>C