pytorch中[..., 0]的用法说明
在看程序的时候看到了x[…, 0]的语句不是很理解,后来自己做实验略微了解,以此记录方便自己查看。
b=torch.Tensor([[[[10,2],[4,5],[7,8]],[[1,2],[4,5],[7,8]]]]) print(b.size()) (1, 2, 3, 2) print(b[…,0]) tensor([[[10., 4., 7.], [ 1., 4., 7.]]]) print(b[…,0].size()) (1, 2, 3) print(b[…,2]) Traceback (most recent call last): File “”, line 1, in IndexError: index 2 is out of bounds for dimension 3 with size 2
print(b[0,…]) tensor([[[10., 2.], [ 4., 5.], [ 7., 8.]], [[ 1., 2.], [ 4., 5.], [ 7., 8.]]]) print(b[0,…].size()) (2, 3, 2)
print(b[0,…,0].size()) (2, 3) print(b[0,…,0]) tensor([[10., 4., 7.], [ 1., 4., 7.]])
[…, 0]表示抽取tensor b的第4根轴上的第一列数字组成tensor,[0, …]表示抽取tensor b的第一根轴上的第一列数字组成tensor,[0, …, 0]表示抽取b的第一根和第四根轴上的第一列数字组成tensor。
还发现一个现象
print(b[…,0:]) tensor([[[[10., 2.], [ 4., 5.], [ 7., 8.]], [[ 1., 2.], [ 4., 5.], [ 7., 8.]]]])
print(b[…,1:]) tensor([[[[2.], [5.], [8.]], [[2.], [5.], [8.]]]])
print(b[…,2:]) tensor([], size=(1, 2, 3, 0))
补充:PyTorch中[..., 0]的使用案例
1. 示例1
import torch a = torch.rand((17, 24, 8)) b = a[..., 0] c = a[:, :, 0] print(b == c)
结果为True
2. 示例2
import torch a = torch.rand((64, 17, 24, 8)) b = a[..., 0] c = a[:, :, :, 0] print(b == c)
结果为True
3. 结论
可以看出[…, 0]相当于[:, :, … :, 0]
以上为个人经验,希望能给大家一个参考,也希望大家多多支持我们。
相关推荐
-
pytorch中的nn.ZeroPad2d()零填充函数实例详解
在卷积神经网络中,有使用设置padding的参数,配合卷积步长,可以使得卷积后的特征图尺寸大小不发生改变,那么在手动实现图片或特征图的边界零填充时,常用的函数是nn.ZeroPad2d(),可以指定tensor的四个方向上的填充,比如左边添加1dim.右边添加2dim.上边添加3dim.下边添加4dim,即指定paddin参数为(1,2,3,4),本文中代码设置的是(3,4,5,6)如下: import torch.nn as nn import cv2 import torchvision f
-
基于python及pytorch中乘法的使用详解
numpy中的乘法 A = np.array([[1, 2, 3], [2, 3, 4]]) B = np.array([[1, 0, 1], [2, 1, -1]]) C = np.array([[1, 0], [0, 1], [-1, 0]]) A * B : # 对应位置相乘 np.array([[ 1, 0, 3], [ 4, 3, -4]]) A.dot(B) : # 矩阵乘法 ValueError: shapes (2,3) and (2,3) not aligned: 3 (dim
-
PyTorch安装与基本使用详解
什么要学习PyTorch? 有的人总是选择,选择的人最多的框架,来作为自己的初学框架,比如Tensorflow,但是大多论文的实现都是基于PyTorch的,如果我们要深入论文的细节,就必须选择学习入门PyTorch 安装PyTorch 一行命令即可 官网 pip install torch===1.6.0 torchvision===0.7.0 - https://download.pytorch.org/whl/torch_stable.html 时间较久,耐心等待 测试自己是否安装成功 运行
-
pytorch中[..., 0]的用法说明
在看程序的时候看到了x[-, 0]的语句不是很理解,后来自己做实验略微了解,以此记录方便自己查看. b=torch.Tensor([[[[10,2],[4,5],[7,8]],[[1,2],[4,5],[7,8]]]]) print(b.size()) (1, 2, 3, 2) print(b[-,0]) tensor([[[10., 4., 7.], [ 1., 4., 7.]]]) print(b[-,0].size()) (1, 2, 3) print(b[-,2]) Traceback
-
PyTorch中permute的用法详解
permute(dims) 将tensor的维度换位. 参数:参数是一系列的整数,代表原来张量的维度.比如三维就有0,1,2这些dimension. 例: import torch import numpy as np a=np.array([[[1,2,3],[4,5,6]]]) unpermuted=torch.tensor(a) print(unpermuted.size()) # --> torch.Size([1, 2, 3]) permuted=unpermuted.permute(
-
Pytorch 中retain_graph的用法详解
用法分析 在查看SRGAN源码时有如下损失函数,其中设置了retain_graph=True,其作用是什么? ############################ # (1) Update D network: maximize D(x)-1-D(G(z)) ########################### real_img = Variable(target) if torch.cuda.is_available(): real_img = real_img.cuda() z = V
-
基于pytorch中的Sequential用法说明
class torch.nn.Sequential(* args) 一个时序容器.Modules 会以他们传入的顺序被添加到容器中.当然,也可以传入一个OrderedDict. 为了更容易的理解如何使用Sequential, 下面给出了一个例子: # Example of using Sequential model = nn.Sequential( nn.Conv2d(1,20,5), nn.ReLU(), nn.Conv2d(20,64,5), nn.ReLU() ) # Example o
-
pytorch中的weight-initilzation用法
pytorch中的权值初始化 官方论坛对weight-initilzation的讨论 torch.nn.Module.apply(fn) torch.nn.Module.apply(fn) # 递归的调用weights_init函数,遍历nn.Module的submodule作为参数 # 常用来对模型的参数进行初始化 # fn是对参数进行初始化的函数的句柄,fn以nn.Module或者自己定义的nn.Module的子类作为参数 # fn (Module -> None) – function t
-
pytorch中index_select()的用法详解
pytorch中index_select()的用法 index_select(input, dim, index) 功能:在指定的维度dim上选取数据,不如选取某些行,列 参数介绍 第一个参数input是要索引查找的对象 第二个参数dim是要查找的维度,因为通常情况下我们使用的都是二维张量,所以可以简单的记忆: 0代表行,1代表列 第三个参数index是你要索引的序列,它是一个tensor对象 刚开始学习pytorch,遇到了index_select(),一开始不太明白几个参数的意思,后来查了一
-
基于PyTorch中view的用法说明
相当于numpy中resize()的功能,但是用法可能不太一样. 我的理解是: 把原先tensor中的数据按照行优先的顺序排成一个一维的数据(这里应该是因为要求地址是连续存储的),然后按照参数组合成其他维度的tensor. 比如说是不管你原先的数据是[[[1,2,3],[4,5,6]]]还是[1,2,3,4,5,6],因为它们排成一维向量都是6个元素,所以只要view后面的参数一致,得到的结果都是一样的. 比如, a=torch.Tensor([[[1,2,3],[4,5,6]]]) b=tor
-
pytorch中permute()函数用法补充说明(矩阵维度变化过程)
目录 一.前言 二.举例解释 1.permute(0,1,2) 2.permute(0,1,2) ⇒ permute(0,2,1) 3.permute(0,2,1) ⇒ permute(1,0,2) 4.permute(1,0,2) ⇒ permute(0,2,1) 三.写在最后 一.前言 之前写了篇torch中permute()函数用法文章,在详细的说一下permute函数里维度变化的详细过程 非常感谢@m0_46225327对本文案例更加细节补充 注意: 本文是这篇torch中permute
-
pytorch中permute()函数用法实例详解
目录 前言 三维情况 变化一:不改变任何参数 变化二:1与2交换 变化三:0与1交换 变化四:0与2交换 变化五:0与1交换,1与2交换 变化六:0与1交换,0与2交换 总结 前言 本文只讨论二维三维中的permute用法 最近的Attention学习中的一个permute函数让我不理解 这个光说太抽象 我就结合代码与图片解释一下 首先创建一个三维数组小实例 import torch x = torch.linspace(1, 30, steps=30).view(3,2,5) # 设置一个三维
-
pytorch中Parameter函数用法示例
目录 用法介绍 代码介绍 用法介绍 pytorch中的Parameter函数可以对某个张量进行参数化.它可以将不可训练的张量转化为可训练的参数类型,同时将转化后的张量绑定到模型可训练参数的列表中,当更新模型的参数时一并将其更新. torch.nn.parameter.Parameter data (Tensor):表示需要参数化的张量 requires_grad (bool, optional):表示是否该张量是否需要梯度,默认值为True 代码介绍 pytorch中的Parameter函数具
随机推荐
- PHP实现自动发送邮件功能代码(qq 邮箱)
- 整理比较全的Access SQL注入参考
- Linux中文本处理工具之sort命令详解
- asp 图片正则 替换,替换前检查图片是不是本地地址的方法
- 用Python实现QQ游戏大家来找茬辅助工具
- MySQL时间字段究竟使用INT还是DateTime的说明
- php json_encode值中大括号与花括号区别
- windows下配置php5.5开发环境及开发扩展
- PHP 将数组打乱 shuffle函数的用法及简单实例
- Laravel 5框架学习之向视图传送数据(进阶篇)
- js编写的treeview使用方法
- php实现把数组按指定的个数分隔
- [js高手之路]HTML标签解释成DOM节点的实现方法
- Java中包装类介绍与其注意事项
- PHP Ajax中文乱码问题解决方法
- 使用Electron构建React+Webpack桌面应用的方法
- Android实现图片滚动和页签控件功能的实现代码
- LayerClose弹窗关闭刷新方法
- AngularJS实现的鼠标拖动画矩形框示例【可兼容IE8】
- 使用laravel根据用户类型来显示或隐藏字段