首页
博客
源码
资源
博客
源码
写文章
发布博客
发布资源
登录
X
pytorch
相关资讯
热门
最新
后端
01-01 08:00
后端
pytorch常用损失函数criterion
pytorch常用损失函数criterion,监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。L1损失函数调用函数:nn.L1Loss复制代码计算output和target之差的绝对值torch.nn.L1Loss(reduction='mean')复制代码L2损失函数MSELoss---回归问题调用函数:nn.MSELoss复
2578
01-01 08:00
Pytorch训练过程出现nan的解决方式
Pytorch训练过程出现nan的解决方式,今天使用shuffleNetV2+,使用自己的数据集,遇到了loss是nan的情况,而且top1精确率出现断崖式上升,这显示是不正常的。在网上查了下解决方案。我的问题是出在学习率上了。我自己做的样本数据集比较小,就三类,每类大概三百多张,初始学习率是0.5。后来设置为0.1就解决了。按照解决方案上写的。出现nan的情况还有以下几种:学习率太大,但是样本数
500
后端
01-01 08:00
后端
pytorch中的优化器optimizer.param_groups用法
pytorch中的优化器optimizer.param_groups用法,pytorch中的优化器optimizer.param_groups用法这篇文章主要介绍了pytorch中的优化器optimizer.param_groups用法,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教optimizer.param_groups:是长度为2的list,其中的元素是2个
397
后端
01-01 08:00
后端
pytorch中的各种乘法
pytorch中的各种乘法,那么多相乘,讲实话我到现在也没仔细梳理过,所以现在搞一下子。首先声明一个向量和一个二维矩阵importtorchvec=torch.arange(4)mtx=torch.arange(12).reshape(4,3)print(vec,mtx,sep='\n')复制代码输出结果:>>tensor([0,1,2,3])tensor([[0,1,2],[3,4,5],[6,
392
后端
01-01 08:00
后端
pytorch常用优化器optimizer
pytorch常用优化器optimizer,常用十种优化器torch.optim.SGD随机梯度下降算法(动量momentum可选)torch.optim.ASGD平均随机梯度下降算法torch.optim.Rprop弹性反向传播---适用于full-batch,不适用于mini-batchtorch.optim.Adagrad自适应优化方法---自适应的为各个参数分配不同的学习率,学习率的变化,
364
后端
01-01 08:00
后端
Pytorch - TORCH.NN.INIT 参数初始化的操作
Pytorch - TORCH.NN.INIT 参数初始化的操作,这篇文章主要介绍了Pytorch-TORCH.NN.INIT参数初始化的操作,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧路径:https://pytorch.org/docs/master/nn.init.html#nn-init-doc初始化函数:torch.nn.init1234567891011121314
353
后端
01-01 08:00
后端
pytorch 实现L2和L1正则化regularization的操作
pytorch 实现L2和L1正则化regularization的操作,这篇文章主要介绍了pytorch实现L2和L1正则化regularization的操作,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧1.torch.optim优化器实现L2正则化torch.optim集成了很多优化器,如SGD,Adadelta,Adam,Adagrad,RMSprop等,这些优化器自带的一个
336
后端
01-01 08:00
后端
Pytorch中的学习率衰减及其用法详解
Pytorch中的学习率衰减及其用法详解,Pytorch中的学习率衰减及其用法详解这篇文章主要介绍了Pytorch中的学习率衰减及其用法详解,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教Pytorch学习率衰减及其用法学习率衰减是一个非常有效的炼丹技巧之一,在神经网络的训练过程中,当accuracy出现震荡或loss不再下降时,进行适当的学习率衰减是一个行之有效的
278
后端
01-01 08:00
后端
Pytorch——torch.nn.Sequential()详解
Pytorch——torch.nn.Sequential()详解 ,官方文档nn.SequentialAsequentialcontainer.Moduleswillbeaddedtoitintheordertheyarepassedintheconstructor.Alternatively,anordereddictofmodulescanalsobepassedin.翻译:一个有序的容器,神
275
后端
01-01 08:00
后端
pytorch 计算Parameter和FLOP的操作
pytorch 计算Parameter和FLOP的操作,这篇文章主要介绍了pytorch计算Parameter和FLOP的操作,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧深度学习中,模型训练完后,查看模型的参数量和浮点计算量,在此记录下:1THOP在pytorch中有现成的包thop用于计算参数数量和FLOP,首先安装thop:1pipinstallthop注意安装thop时可
257
«
1
2
3
4
5
6
7
»