温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

pytorch梯度裁剪的原理是什么

发布时间:2021-12-16 09:14:41 来源:亿速云 阅读:199 作者:iii 栏目:大数据

本篇内容主要讲解“pytorch梯度裁剪的原理是什么”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“pytorch梯度裁剪的原理是什么”吧!

既然在BP过程中会产生梯度消失/爆炸(就是偏导无限接近0,导致长时记忆无法更新),那么最简单粗暴的方法,设定阈值,当梯度小于/大于阈值时,更新的梯度为阈值,如下图所示:

1、梯度裁剪原理

pytorch梯度裁剪的原理是什么

优点:简单粗暴
缺点:很难找到满意的阈值

2、nn.utils.clip_grad_norm(parameters, max_norm, norm_type=2)

这个函数是根据参数的范数来衡量的

Parameters:


    • parameters (Iterable[Variable]) – 一个基于变量的迭代器,会进行归一化(原文:an iterable of Variables that will have gradients normalized)

    • max_norm (float or int) – 梯度的最大范数

    • norm_type(float or int) – 规定范数的类型,默认为L2

Returns:参数的总体范数(作为单个向量来看)

到此,相信大家对“pytorch梯度裁剪的原理是什么”有了更深的了解,不妨来实际操作一番吧!这里是亿速云网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI