pytorch常用函数之torch.randn()解读

目录
  • pytorch常用函数torch.randn()
  • pytorch torch.chunk(tensor, chunks, dim)
  • 总结

pytorch常用函数torch.randn()

torch.randn(*sizes, out=None) → Tensor

功能:从标准正态分布(均值为0,方差为1)中抽取的一组随机数。返回一个张量

  • sizes (int…) - 整数序列,定义输出张量的形状
  • out (Tensor, optinal) - 结果张量

eg:

random = torch.randn(2, 3)
out:  0.5419 0.1594 -0.0413
        -2.7937 0.9534 0.4561

pytorch torch.chunk(tensor, chunks, dim)

说明:在给定的维度上讲张量进行分块。

参数:

  • tensor(Tensor) -- 待分块的输入张量
  • chunks(int) -- 分块的个数
  • dim(int) -- 维度,沿着此维度进行分块
>>> x = torch.randn(3, 3)
>>> x
tensor([[ 1.0103,  2.3358, -1.9236],
        [-0.3890,  0.6594,  0.6664],
        [ 0.5240, -1.4193,  0.1681]])
>>> torch.chunk(x, 3, dim=0)
(tensor([[ 1.0103,  2.3358, -1.9236]]), tensor([[-0.3890,  0.6594,  0.6664]]), tensor([[ 0.5240, -1.4193,  0.1681]]))
>>> torch.chunk(x, 3, dim=1)
(tensor([[ 1.0103],
        [-0.3890],
        [ 0.5240]]), tensor([[ 2.3358],
        [ 0.6594],
        [-1.4193]]), tensor([[-1.9236],
        [ 0.6664],
        [ 0.1681]]))
>>> torch.chunk(x, 2, dim=1)
(tensor([[ 1.0103,  2.3358],
        [-0.3890,  0.6594],
        [ 0.5240, -1.4193]]), tensor([[-1.9236],
        [ 0.6664],
        [ 0.1681]]))

总结

以上为个人经验,希望能给大家一个参考,也希望大家多多支持我们。

(0)

相关推荐

  • Pytorch中torch.repeat_interleave()函数使用及说明

    目录 torch.repeat_interleave()函数解析 1.函数说明 2. 函数原型 3. 函数功能 4. 输入参数 5. 注意 6. 代码例子 7. 与torch.repeat()函数区别 总结 torch.repeat_interleave()函数解析 1.函数说明 官网:torch.repeat_interleave(),函数说明如下图所示: 2. 函数原型 torch.repeat_interleave(input, repeats, dim=None) → Tensor 3.

  • pytorch常用函数定义及resnet模型修改实例

    目录 模型定义常用函数 利用nn.Parameter()设计新的层 nn.Sequential nn.ModuleList() nn.ModuleDict() nn.Flatten 模型修改案例 修改模型层 添加外部输入 模型定义常用函数 利用nn.Parameter()设计新的层 import torch from torch import nn class MyLinear(nn.Module): def __init__(self, in_features, out_features):

  • PyTorch之torch.randn()如何创建正态分布随机数

    目录 torch.randn()如何创建正态分布随机数 torch之随机数生成方式 1. 均匀分布 2. 标准正态分布 3.离散正态分布 4.线性间距向量 总结 torch.randn()如何创建正态分布随机数 torch.randn(*size)从均值为0,方差为1的正态分布中获取随机数 [sample] In [1]: import torch In [2]: torch.randn(3) Out[2]: tensor([1.7896, 0.7974, 0.7416]) In [3]: to

  • pytorch常用函数之torch.randn()解读

    目录 pytorch常用函数torch.randn() pytorch torch.chunk(tensor, chunks, dim) 总结 pytorch常用函数torch.randn() torch.randn(*sizes, out=None) → Tensor 功能:从标准正态分布(均值为0,方差为1)中抽取的一组随机数.返回一个张量 sizes (int…) - 整数序列,定义输出张量的形状 out (Tensor, optinal) - 结果张量 eg: random = torc

  • pytorch 常用函数 max ,eq说明

    max找出tensor 的行或者列最大的值: 找出每行的最大值: import torch outputs=torch.FloatTensor([[1],[2],[3]]) print(torch.max(outputs.data,1)) 输出: (tensor([ 1., 2., 3.]), tensor([ 0, 0, 0])) 找出每列的最大值: import torch outputs=torch.FloatTensor([[1],[2],[3]]) print(torch.max(ou

  • pytorch中函数tensor.numpy()的数据类型解析

    目录 函数tensor.numpy()的数据类型 tensor数据和numpy数据转换中注意的一个问题 函数tensor.numpy()的数据类型 今天写代码的时候,要统计一下标签数据里出现的类别总数和要分类的分类数是不是一致的. 我的做法是把tensor类型的数据转变成list,然后用Counter函数做统计. 代码如下: from collections import Counter List_counter = Counter(List1) #List1就是待统计的数据,是一维的列表.生成

  • Pytorch中的modle.train,model.eval,with torch.no_grad解读

    目录 modle.train,model.eval,with torch.no_grad解读 model.eval()与torch.no_grad()的作用 model.eval() torch.no_grad() 异同 总结 modle.train,model.eval,with torch.no_grad解读 1. 最近在学习pytorch过程中遇到了几个问题 不理解为什么在训练和测试函数中model.eval(),和model.train()的区别,经查阅后做如下整理 一般情况下,我们训练

  • pytorch AvgPool2d函数使用详解

    我就废话不多说了,直接上代码吧! import torch import torch.nn as nn import torch.nn.functional as F from torch.autograd import Variable import numpy as np input = Variable(torch.Tensor([[[1, 3, 3, 4, 5, 6, 7], [1, 2, 3, 4, 5, 6, 7]], [[1, 3, 3, 4, 5, 6, 7], [1, 2, 3

  • pytorch 常用线性函数详解

    Pytorch的线性函数主要封装了Blas和Lapack,其用法和接口都与之类似. 常用的线性函数如下: 函数 功能 trace 对角线元素之和(矩阵的迹) diag 对角线元素 triu/tril 矩阵的上三角/下三角,可指定偏移量 mm/bmm 矩阵乘法,batch的矩阵乘法 t 转置 dot/cross 内积/外积 inverse 求逆矩阵 svd 奇异值分解 注意:矩阵的转置会使存储空间不连续,需调用它的.contiguous方法转为连续. 例如: import torch as t b

  • Pytorch mask_select 函数的用法详解

    非常简单的函数,但是官网的介绍令人(令我)迷惑,所以稍加解释. mask_select会将满足mask(掩码.遮罩等等,随便翻译)的指示,将满足条件的点选出来. 根据掩码张量mask中的二元值,取输入张量中的指定项( mask为一个 ByteTensor),将取值返回到一个新的1D张量, 张量 mask须跟input张量有相同数量的元素数目,但形状或维度不需要相同 x = torch.randn(3, 4) x 1.2045 2.4084 0.4001 1.1372 0.5596 1.5677

  • 对pytorch的函数中的group参数的作用介绍

    1.当设置group=1时: conv = nn.Conv2d(in_channels=6, out_channels=6, kernel_size=1, groups=1) conv.weight.data.size() 返回: torch.Size([6, 6, 1, 1]) 另一个例子: conv = nn.Conv2d(in_channels=6, out_channels=3, kernel_size=1, groups=1) conv.weight.data.size() 返回: t

随机推荐