pytorch tensor内所有元素相乘实例

目录
  • tensor内所有元素相乘
  • tensor乘法运算汇总与解析
    • 元素一一相乘
    • 向量点乘
    • 矩阵乘法
    • vector 与 matrix 相乘
    • matrix 与 vector 相乘
    • 带有batch_size 的 broad cast乘法

tensor内所有元素相乘

a = torch.Tensor([1,2,3])
print(torch.prod(a))

输出

tensor(6.)

tensor乘法运算汇总与解析

元素一一相乘

该操作又称作 “哈达玛积”, 简单来说就是 tensor 元素逐个相乘。这个操作,是通过 * 也就是常规的乘号操作符定义的操作结果。torch.mul 是等价的。

import torch
def element_by_element():
    
    x = torch.tensor([1, 2, 3])
    y = torch.tensor([4, 5, 6])
    
    return x * y, torch.mul(x, y)
element_by_element()
(tensor([ 4, 10, 18]), tensor([ 4, 10, 18]))

这个操作是可以 broad cast 的。

def element_by_element_broadcast():
    
    x = torch.tensor([1, 2, 3])
    y = 2
    
    return x * y
element_by_element_broadcast()
tensor([2, 4, 6])

向量点乘

torch.matmul: If both tensors are 1-dimensional, the dot product (scalar) is returned.

如果都是1维的,返回的就是 dot product 结果

def vec_dot_product():
    
    x = torch.tensor([1, 2, 3])
    y = torch.tensor([4, 5, 6])
    
    return torch.matmul(x, y)
vec_dot_product()
tensor(32)

矩阵乘法

torch.matmul: If both arguments are 2-dimensional, the matrix-matrix product is returned.

如果都是2维,那么就是矩阵乘法的结果返回。与 torch.mm 是等价的,torch.mm 仅仅能处理的是矩阵乘法。

def matrix_multiple():
    
    x = torch.tensor([
        [1, 2, 3],
        [4, 5, 6]
    ])
    y = torch.tensor([
        [7, 8],
        [9, 10],
        [11, 12]
    ])
    
    return torch.matmul(x, y), torch.mm(x, y)
matrix_multiple()
(tensor([[ 58,  64],
         [139, 154]]), tensor([[ 58,  64],
         [139, 154]]))

vector 与 matrix 相乘

torch.matmul: If the first argument is 1-dimensional and the second argument is 2-dimensional, a 1 is prepended to its dimension for the purpose of the matrix multiply. After the matrix multiply, the prepended dimension is removed.

如果第一个是 vector, 第二个是 matrix, 会在 vector 中增加一个维度。也就是 vector 变成了 与 matrix 相乘之后,变成 , 在结果中将 维 再去掉。

def vec_matrix():
    x = torch.tensor([1, 2, 3])
    y = torch.tensor([
        [7, 8],
        [9, 10],
        [11, 12]
    ])
    
    return torch.matmul(x, y)
vec_matrix()
tensor([58, 64])

matrix 与 vector 相乘

同样的道理, vector会被扩充一个维度。

def matrix_vec():
    x = torch.tensor([
        [1, 2, 3],
        [4, 5, 6]
    ])
    y = torch.tensor([
        7, 8, 9
    ])
    
    return torch.matmul(x, y)
matrix_vec()
tensor([ 50, 122])

带有batch_size 的 broad cast乘法

def batched_matrix_broadcasted_vector():
    x = torch.tensor([
        [
            [1, 2], [3, 4]
        ],
        [
            [5, 6], [7, 8]
        ]
    ])
    
    print(f"x shape: {x.size()} \n {x}")
    y = torch.tensor([1, 3])
    
    return torch.matmul(x, y)
batched_matrix_broadcasted_vector()
x shape: torch.Size([2, 2, 2]) 
 tensor([[[1, 2],
         [3, 4]],
        [[5, 6],
         [7, 8]]])
tensor([[ 7, 15],
        [23, 31]])
batched matrix x batched matrix
def batched_matrix_batched_matrix():
    x = torch.tensor([
        [
            [1, 2, 1], [3, 4, 4]
        ],
        [
            [5, 6, 2], [7, 8, 0]
        ]
    ])
    
    y = torch.tensor([
        [
            [1, 2], 
            [3, 4], 
            [5, 6]
        ],
        [
            [7, 8], 
            [9, 10], 
            [1, 2]
        ]
    ])
    
    print(f"x shape: {x.size()} \n y shape: {y.size()}")
    return torch.matmul(x, y)
xy = batched_matrix_batched_matrix()
print(f"xy shape: {xy.size()} \n {xy}")
x shape: torch.Size([2, 2, 3]) 
 y shape: torch.Size([2, 3, 2])
xy shape: torch.Size([2, 2, 2]) 
 tensor([[[ 12,  16],
         [ 35,  46]],
        [[ 91, 104],
         [121, 136]]])

上面的效果与 torch.bmm 是一样的。matmul 比 bmm 功能更加强大,但是 bmm 的语义非常明确, bmm 处理的只能是 3维的。

def batched_matrix_batched_matrix_bmm():
    x = torch.tensor([
        [
            [1, 2, 1], [3, 4, 4]
        ],
        [
            [5, 6, 2], [7, 8, 0]
        ]
    ])
    
    y = torch.tensor([
        [
            [1, 2], 
            [3, 4], 
            [5, 6]
        ],
        [
            [7, 8], 
            [9, 10], 
            [1, 2]
        ]
    ])
    
    print(f"x shape: {x.size()} \n y shape: {y.size()}")
    return torch.bmm(x, y)
xy = batched_matrix_batched_matrix()
print(f"xy shape: {xy.size()} \n {xy}")
x shape: torch.Size([2, 2, 3]) 
 y shape: torch.Size([2, 3, 2])
xy shape: torch.Size([2, 2, 2]) 
 tensor([[[ 12,  16],
         [ 35,  46]],
        [[ 91, 104],
         [121, 136]]])
tensordot
def tesnordot():
    x = torch.tensor([
        [1, 2, 1], 
        [3, 4, 4]])
    y = torch.tensor([
        [7, 8], 
        [9, 10], 
        [1, 2]])
    print(f"x shape: {x.size()}, y shape: {y.size()}")
    return torch.tensordot(x, y, dims=([0], [1]))
tesnordot()
x shape: torch.Size([2, 3]), y shape: torch.Size([3, 2])
tensor([[31, 39,  7],
        [46, 58, 10],
        [39, 49,  9]])

以上为个人经验,希望能给大家一个参考,也希望大家多多支持我们。

(0)

相关推荐

  • PyTorch中Tensor的数据类型和运算的使用

    在使用Tensor时,我们首先要掌握如何使用Tensor来定义不同数据类型的变量.Tensor时张量的英文,表示多维矩阵,和numpy对应,PyTorch中的Tensor可以和numpy的ndarray相互转换,唯一不同的是PyTorch可以在GPU上运行,而numpy的ndarray只能在cpu上运行. 常用的不同数据类型的Tensor,有32位的浮点型torch.FloatTensor,   64位浮点型 torch.DoubleTensor,   16位整形torch.ShortTenso

  • 详解torch.Tensor的4种乘法

    torch.Tensor有4种常见的乘法:*, torch.mul, torch.mm, torch.matmul. 本文抛砖引玉,简单叙述一下这4种乘法的区别,具体使用还是要参照官方文档. 点乘 a与b做*乘法,原则是如果a与b的size不同,则以某种方式将a或b进行复制,使得复制后的a和b的size相同,然后再将a和b做element-wise的乘法. 下面以*标量和*一维向量为例展示上述过程. * 标量 Tensor与标量k做*乘法的结果是Tensor的每个元素乘以k(相当于把k复制成与l

  • Pytorch Tensor基本数学运算详解

    1. 加法运算 示例代码: import torch # 这两个Tensor加减乘除会对b自动进行Broadcasting a = torch.rand(3, 4) b = torch.rand(4) c1 = a + b c2 = torch.add(a, b) print(c1.shape, c2.shape) print(torch.all(torch.eq(c1, c2))) 输出结果: torch.Size([3, 4]) torch.Size([3, 4]) tensor(1, dt

  • PyTorch 对应点相乘、矩阵相乘实例

    一,对应点相乘,x.mul(y) ,即点乘操作,点乘不求和操作,又可以叫作Hadamard product:点乘再求和,即为卷积 data = [[1,2], [3,4], [5, 6]] tensor = torch.FloatTensor(data) tensor Out[27]: tensor([[ 1., 2.], [ 3., 4.], [ 5., 6.]]) tensor.mul(tensor) Out[28]: tensor([[ 1., 4.], [ 9., 16.], [ 25.

  • pytorch tensor内所有元素相乘实例

    目录 tensor内所有元素相乘 tensor乘法运算汇总与解析 元素一一相乘 向量点乘 矩阵乘法 vector 与 matrix 相乘 matrix 与 vector 相乘 带有batch_size 的 broad cast乘法 tensor内所有元素相乘 a = torch.Tensor([1,2,3]) print(torch.prod(a)) 输出 tensor(6.) tensor乘法运算汇总与解析 元素一一相乘 该操作又称作 “哈达玛积”, 简单来说就是 tensor 元素逐个相乘.

  • Pytorch Tensor的统计属性实例讲解

    1. 范数 示例代码: import torch a = torch.full([8], 1) b = a.reshape([2, 4]) c = a.reshape([2, 2, 2]) # 求L1范数(所有元素绝对值求和) print(a.norm(1), b.norm(1), c.norm(1)) # 求L2范数(所有元素的平方和再开根号) print(a.norm(2), b.norm(2), c.norm(2)) # 在b的1号维度上求L1范数 print(b.norm(1, dim=

  • python计算列表内各元素的个数实例

    如下所示: list = [1,2,3,4,5,6,7,5,4,3,2,12] set = set(list) dict = {} for item in set: dict.update({item:list.count(item)}) 以上这篇python计算列表内各元素的个数实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持我们.

  • pytorch: tensor类型的构建与相互转换实例

    Summary 主要包括以下三种途径: 使用独立的函数: 使用torch.type()函数: 使用type_as(tesnor)将张量转换为给定类型的张量. 使用独立函数 import torch tensor = torch.randn(3, 5) print(tensor) # torch.long() 将tensor投射为long类型 long_tensor = tensor.long() print(long_tensor) # torch.half()将tensor投射为半精度浮点类型

  • 在Pytorch中使用Mask R-CNN进行实例分割操作

    在这篇文章中,我们将讨论mask R-CNN背后的一些理论,以及如何在PyTorch中使用预训练的mask R-CNN模型. 1.语义分割.目标检测和实例分割 之前已经介绍过: 1.语义分割:在语义分割中,我们分配一个类标签(例如.狗.猫.人.背景等)对图像中的每个像素. 2.目标检测:在目标检测中,我们将类标签分配给包含对象的包围框. 一个非常自然的想法是把两者结合起来.我们只想在一个对象周围识别一个包围框,并且找到包围框中的哪些像素属于对象. 换句话说,我们想要一个掩码,它指示(使用颜色或灰

  • 浅谈keras中的Merge层(实现层的相加、相减、相乘实例)

    [题目]keras中的Merge层(实现层的相加.相减.相乘) 详情请参考: Merge层 一.层相加 keras.layers.Add() 添加输入列表的图层. 该层接收一个相同shape列表张量,并返回它们的和,shape不变. Example import keras input1 = keras.layers.Input(shape=(16,)) x1 = keras.layers.Dense(8, activation='relu')(input1) input2 = keras.la

  • JavaScript移除数组内重复元素的方法

    本文实例讲述了JavaScript移除数组内重复元素的方法.分享给大家供大家参考.具体分析如下: 这段JS代码用于从数组中移除重复的元素,比如: ['apple', 'orange', 'peach', 'apple', 'strawberry', 'orange'] 去重后返回:s ['apple', 'orange', 'peach', 'strawberry'] 复制代码 代码如下: function removeDuplicates(arr) {     var temp = {};  

  • JavaScript获取表单内所有元素值的方法

    本文实例讲述了JavaScript获取表单内所有元素值的方法.分享给大家供大家参考.具体如下: 下面的JS代码可以遍历指定表单中的所有元素,并输出元素的值 <!DOCTYPE html> <html> <body> <form id="frm1" action="form_action.aspx"> First name: <input type="text" name="fname

  • JS显示下拉列表框内全部元素的方法

    本文实例讲述了JS显示下拉列表框内全部元素的方法.分享给大家供大家参考.具体如下: 下面的JS代码可以通过alert框显示指定下拉列表的全部元素 <!DOCTYPE html> <html> <head> <script> function getOptions() { var x=document.getElementById("mySelect"); var txt="All options: "; var i;

随机推荐