温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

如何进行PyTorch的GPU使用

发布时间:2021-12-04 18:15:30 来源:亿速云 阅读:277 作者:柒染 栏目:大数据

这期内容当中小编将会给大家带来有关如何进行PyTorch的GPU使用,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。

GPU如何使用

一般我们只有一个GPU,所以使用GPU训练需要输入:

        device = torch.device("cuda:0")      # 声明用到的是第0块GPU

        model = Model(input_size, output_size)      # Model是网络名,一般是类名。实例化Model

        model = model.to(device)      # 将实例化的model送入GPU中。

上面这一步将model送入了GPU,我们还需要把输入数据、真值也送入GPU中,于是也必须有:

        inputs, labels = inputs.to(device), labels.to(device)

注意:

    在pytorch里,inputs.to(device)和inputs.cuda()效果是一样的。

    在pytorch里, 对于tensor,b=a.to(device)和a.to(device)是不一样的,前者会让b进入GPU,而后者并不会让a进入GPU。

                            对于model,b=a.to(device)和a.to(device)是一样的,b和a都会进入GPU。

上述就是小编为大家分享的如何进行PyTorch的GPU使用了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注亿速云行业资讯频道。

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI