大橙子网站建设,新征程启航
为企业提供网站建设、域名注册、服务器等服务
这篇文章主要为大家展示了“PyTorch如何实现对应点相乘、矩阵相乘”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“PyTorch如何实现对应点相乘、矩阵相乘”这篇文章吧。
成都创新互联是一家专注于成都网站建设、成都网站制作与策划设计,界首网站建设哪家好?成都创新互联做网站,专注于网站建设10余年,网设计领域的专业建站公司;建站业务涵盖:界首等地区。界首做网站价格咨询:13518219792一,对应点相乘,x.mul(y) ,即点乘操作,点乘不求和操作,又可以叫作Hadamard product;点乘再求和,即为卷积
data = [[1,2], [3,4], [5, 6]] tensor = torch.FloatTensor(data) tensor Out[27]: tensor([[ 1., 2.], [ 3., 4.], [ 5., 6.]]) tensor.mul(tensor) Out[28]: tensor([[ 1., 4.], [ 9., 16.], [ 25., 36.]])
二,矩阵相乘,x.mm(y) , 矩阵大小需满足: (i, n)x(n, j)
tensor Out[31]: tensor([[ 1., 2.], [ 3., 4.], [ 5., 6.]]) tensor.mm(tensor.t()) # t()是转置 Out[30]: tensor([[ 5., 11., 17.], [ 11., 25., 39.], [ 17., 39., 61.]])
以上是“PyTorch如何实现对应点相乘、矩阵相乘”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注创新互联行业资讯频道!