tf.nn.conv2d与tf.layers.conv2d的区别及说明

目录
  • tf.nn.conv2d与tf.layers.conv2d的区别
    • tf.nn.conv2d
    • tf.layers.conv2d
  • tf.nn.conv2d和tf.layers.conv2d的学习
  • 总结

tf.nn.conv2d与tf.layers.conv2d的区别

在写CNN中注意到tensorflow目前有tf.nn.conv2d和tf.layers.conv2d这两个很相似的API.

tf.nn.conv2d, 需要自行传入初始化好的filter(四个维度),在初始化filter或者说Weights中,已经手动选择了初始化方案,一般用的是tf.truncated_normal。另外tf.nn.conv2d中激活函数需要另外写。

而在tf.layers.conv2d中,只要写入n和size,参数列表中kernel_initializer默认是None, 不清楚这里的参数是如何初始化的? tf.layers.conv2d中,激活函数是一个参数,不需要另外调用。

问过大神,大神答曰:一般推荐使用tf.layers.下面的函数,用起来方便。但是在tf2.0里,tf.layers.下面的API也都被遗弃了,tf2.0推荐使用keras.layers下面的API。

tf.nn.conv2d

tf.layers.conv2d

tf.nn.conv2d和tf.layers.conv2d的学习

看了很多tensorflow卷积的例子,有的用了tf.nn.conv2d,有的用了tf.layers.conv2d,那么这两个究竟有啥不同呢?

tf.layers.conv2d(inputs, filters, kernel_size, strides=(1,1),

                       padding='valid', data_format='channels_last',
                    dilation_rate=(1,1), activation=None,
                    use_bias=True, kernel_initializer=None,
                    bias_initializer=init_ops.zeros_initializer(),
                    kernel_regularizer=None,
                    bias_regularizer=None,
                    activity_regularizer=None, trainable=True,
                    name=None, reuse=None)

tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, data_format=None, name=None)

对于卷积来说,作用是一样的。tf.layers.conv2d 使用tf.nn.convolution作为后端。

一个参数要注意一下:

  • filter:是一个4维张量,其type必须和输入一样,
[filter_height, filter_width, in_channels, out_channels]
  • filters:一个整数,输出空间的维度,也就是卷积核的数量。

tf.layers.conv2d参数丰富,一般用于从头训练一个模型。

tf.nn.conv2d,一般在下载预训练好的模型时使用。

所以,喜欢哪个就用哪个咯。

总结

以上为个人经验,希望能给大家一个参考,也希望大家多多支持我们。

(0)

相关推荐

  • 对tensorflow中tf.nn.conv1d和layers.conv1d的区别详解

    在用tensorflow做一维的卷积神经网络的时候会遇到tf.nn.conv1d和layers.conv1d这两个函数,但是这两个函数有什么区别呢,通过计算得到一些规律. 1.关于tf.nn.conv1d的解释,以下是Tensor Flow中关于tf.nn.conv1d的API注解: Computes a 1-D convolution given 3-D input and filter tensors. Given an input tensor of shape [batch, in_wi

  • 基于Keras中Conv1D和Conv2D的区别说明

    如有错误,欢迎斧正. 我的答案是,在Conv2D输入通道为1的情况下,二者是没有区别或者说是可以相互转化的.首先,二者调用的最后的代码都是后端代码(以TensorFlow为例,在tensorflow_backend.py里面可以找到): x = tf.nn.convolution( input=x, filter=kernel, dilation_rate=(dilation_rate,), strides=(strides,), padding=padding, data_format=tf_

  • TensorFlow tf.nn.conv2d实现卷积的方式

    实验环境:tensorflow版本1.2.0,python2.7 介绍 惯例先展示函数: tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None) 除去name参数用以指定该操作的name,与方法有关的一共五个参数: input: 指需要做卷积的输入图像,它要求是一个Tensor,具有[batch, in_height, in_width, in_channels]这样的shape,具体含义是[

  • tf.nn.conv2d与tf.layers.conv2d的区别及说明

    目录 tf.nn.conv2d与tf.layers.conv2d的区别 tf.nn.conv2d tf.layers.conv2d tf.nn.conv2d和tf.layers.conv2d的学习 总结 tf.nn.conv2d与tf.layers.conv2d的区别 在写CNN中注意到tensorflow目前有tf.nn.conv2d和tf.layers.conv2d这两个很相似的API. tf.nn.conv2d, 需要自行传入初始化好的filter(四个维度),在初始化filter或者说W

  • TensorFlow tf.nn.max_pool实现池化操作方式

    max pooling是CNN当中的最大值池化操作,其实用法和卷积很类似 有些地方可以从卷积去参考[TensorFlow] tf.nn.conv2d实现卷积的方式 tf.nn.max_pool(value, ksize, strides, padding, name=None) 参数是四个,和卷积很类似: 第一个参数value:需要池化的输入,一般池化层接在卷积层后面,所以输入通常是feature map,依然是[batch, height, width, channels]这样的shape 第

  • Tensorflow tf.nn.atrous_conv2d如何实现空洞卷积的

    实验环境:tensorflow版本1.2.0,python2.7 介绍 关于空洞卷积的理论可以查看以下链接,这里我们不详细讲理论: 1.Long J, Shelhamer E, Darrell T, et al. Fully convolutional networks for semantic segmentation[C]. Computer Vision and Pattern Recognition, 2015. 2.Yu, Fisher, and Vladlen Koltun. "Mu

  • TensorFlow tf.nn.conv2d_transpose是怎样实现反卷积的

    今天来介绍一下Tensorflow里面的反卷积操作,网上反卷积的用法的介绍比较少,希望这篇教程可以帮助到各位 反卷积出自这篇论文:Deconvolutional Networks,有兴趣的同学自行了解 首先无论你如何理解反卷积,请时刻记住一点,反卷积操作是卷积的反向 如果你随时都记住上面强调的重点,那你基本就理解一大半了,接下来通过一些函数的介绍为大家强化这个观念 conv2d_transpose(value, filter, output_shape, strides, padding="SA

  • Tensorflow tf.nn.depthwise_conv2d如何实现深度卷积的

    实验环境:tensorflow版本1.2.0,python2.7 介绍 depthwise_conv2d来源于深度可分离卷积: Xception: Deep Learning with Depthwise Separable Convolutions tf.nn.depthwise_conv2d(input,filter,strides,padding,rate=None,name=None,data_format=None) 除去name参数用以指定该操作的name,data_format指定

  • keras.layers.Conv2D()函数参数用法及说明

    目录 tf.keras.layers.Conv2D() 函数 Conv2D (二维卷积层) 参数 tf.keras.layers.conv2D学习 总结 tf.keras.layers.Conv2D() 函数 Conv2D (二维卷积层) 这一层创建了一个卷积核,它与这一层的输入卷积以产生一个输出张量 当使用此层作为模型的第一层时,提供关键字参数 input_shape (整数元组,不包括样本轴,不需要写batch_size) def __init__(self, filters,      

  • 关于tf.nn.dynamic_rnn返回值详解

    函数原型 tf.nn.dynamic_rnn( cell, inputs, sequence_length=None, initial_state=None, dtype=None, parallel_iterations=None, swap_memory=False, time_major=False, scope=None ) 实例讲解: import tensorflow as tf import numpy as np n_steps = 2 n_inputs = 3 n_neuron

  • python循环神经网络RNN函数tf.nn.dynamic_rnn使用

    目录 学习前言 tf.nn.dynamic_rnn的定义 tf.nn.dynamic_rnn的使用举例 单层实验 多层实验 学习前言 已经完成了RNN网络的构建,但是我们对于RNN网络还有许多疑问,特别是tf.nn.dynamic_rnn函数,其具体的应用方式我们并不熟悉,查询了一下资料,我心里的想法是这样的. tf.nn.dynamic_rnn的定义 tf.nn.dynamic_rnn( cell, inputs, sequence_length=None, initial_state=Non

随机推荐