这篇文章主要为大家展示了“PyTorch如何实现对应点相乘、矩阵相乘”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“PyTorch如何实现对应点相乘、矩阵相乘”这篇文章吧。
一,对应点相乘,x.mul(y) ,即点乘操作,点乘不求和操作,又可以叫作Hadamard product;点乘再求和,即为卷积
data = [[1,2], [3,4], [5, 6]]
tensor = torch.FloatTensor(data)
tensor
Out[27]:
tensor([[ 1., 2.],
[ 3., 4.],
[ 5., 6.]])
tensor.mul(tensor)
Out[28]:
tensor([[ 1., 4.],
[ 9., 16.],
[ 25., 36.]])
二,矩阵相乘,x.mm(y) , 矩阵大小需满足: (i, n)x(n, j)
tensor
Out[31]:
tensor([[ 1., 2.],
[ 3., 4.],
[ 5., 6.]])
tensor.mm(tensor.t()) # t()是转置
Out[30]:
tensor([[ 5., 11., 17.],
[ 11., 25., 39.],
[ 17., 39., 61.]])
以上是“PyTorch如何实现对应点相乘、矩阵相乘”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!
亿速云「云服务器」,即开即用、新一代英特尔至强铂金CPU、三副本存储NVMe SSD云盘,价格低至29元/月。点击查看>>
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。