解决tensorflow 释放图,删除变量问题
问题,在一个程序内构建好了一个图,运行完之后想重新使用这个图进行计算,或者想同时在train完的时候做test,就会提示***变量已存在。
解决办法:
待一个图运行完之后加上tf.reset_default_graph来重置默认的图。
补充知识:tensorflow 张量插入或者删除的办法
我就废话不多说了,大家还是直接看代码吧~
part1 = new_enc_in[:, 0:3 ] part2 = new_enc_in[:, 3:] ###part_new 要插入的张量 new_enc_in = tf.concat([part1, part_new, part2], 1) ##得到的张量里part_new为新插入列 ##如果要删除,则修改part2的范围 part1 = new_enc_in[:, 0:3] part2 = new_enc_in[:, 4:] new_enc_in = tf.concat([part1, part2], 1) ###原张量的第四列被删除
以上这篇解决tensorflow 释放图,删除变量问题就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持我们。
相关推荐
-
解决tensorflow读取本地MNITS_data失败的原因
MNITS_data 下载保存在本地,一定不要解压!不要解压!不要解压!因为input_data读取的是压缩包 >>>import tensorflow as tf >>>from tensorflow.examples.tutorials.mnist import input_data >>>input_data.read_data_stes("/home/wd/MNIST_data",one_hot=True) WARNING:
-
基于Tensorflow读取MNIST数据集时网络超时的解决方式
最近在学习TensorFlow,比较烦人的是使用tensorflow.examples.tutorials.mnist.input_data读取数据 from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets('/temp/mnist_data/') X = mnist.test.images.reshape(-1, n_steps, n_inputs) y = mnis
-
keras做CNN的训练误差loss的下降操作
采用二值判断如果确认是噪声,用该点上面一个灰度进行替换. 噪声点处理:对原点周围的八个点进行扫描,比较.当该点像素值与周围8个点的值小于N时,此点为噪点 . 处理后的文件大小只有原文件小的三分之一,前后的图片内容肉眼几乎无法察觉. 但是这样处理后图片放入CNN中在其他条件不变的情况下,模型loss无法下降,二分类图片,loss一直在8-9之间.准确率维持在0.5,同时,测试集的训练误差持续下降,但是准确率也在0.5徘徊.大概真是需要误差,让优化方法从局部最优跳出来. 使用的activation
-
浅谈keras中loss与val_loss的关系
loss函数如何接受输入值 keras封装的比较厉害,官网给的例子写的云里雾里, 在stackoverflow找到了答案 You can wrap the loss function as a inner function and pass your input tensor to it (as commonly done when passing additional arguments to the loss function). def custom_loss_wrapper(input_
-
解决tensorflow 释放图,删除变量问题
问题,在一个程序内构建好了一个图,运行完之后想重新使用这个图进行计算,或者想同时在train完的时候做test,就会提示***变量已存在. 解决办法: 待一个图运行完之后加上tf.reset_default_graph来重置默认的图. 补充知识:tensorflow 张量插入或者删除的办法 我就废话不多说了,大家还是直接看代码吧~ part1 = new_enc_in[:, 0:3 ] part2 = new_enc_in[:, 3:] ###part_new 要插入的张量 new_enc_in
-
解决tensorflow由于未初始化变量而导致的错误问题
我写的这个程序 import tensorflow as tf sess=tf.InteractiveSession() x=tf.Variable([1.0,2.0]) a=tf.constant([3.0,3.0]) x.initializer.run() sun=tf.div(x,a) print(sub.eval()) sess.close() 出现了如下所示的错误: 原因是倒数第二行的sub没有初始化,倒数第三行应该是初始化sub的,但是打错了,成了sun,这样后面出现的sub就相当于
-
解决Tensorflow 内存泄露问题
使用tensorflow进行编程时,经常遇到操作不当,带来的内存泄露问题,这里有一个可以帮助debug问题所在方法: https://stackoverflow.com/questions/51175837/tensorflow-runs-out-of-memory-while-computing-how-to-find-memory-leaks/51183870#51183870 使用tf.Graph.finalize()把运算图变成只读的,从而对图的修改都会报错,从而找到内存泄露的定点. 目
-
解决TensorFlow训练内存不断增长,进程被杀死问题
TensorFlow训练时,遇到内存不断增长,最终导致内存不足,进程被杀死. 在这里我不准备对造成这一现象的所有原因进行探讨,只是记录一下我在项目中遇到的这一问题,下面将对我遇到的内存不断增长的原因进行分析. 在TensorFlow中构造图,是将一些op作为节点加入图中,在run之前,是需要构造好一个图的,所以在run的时候,如果run图中不存在的节点,TensorFlow就会将节点加入图中,随着不断的迭代,造成内存不断的增长,从而导致内存不足. 下面举一个很容易发现这个问题的例子: impor
-
详解TensorFlow查看ckpt中变量的几种方法
查看TensorFlow中checkpoint内变量的几种方法 查看ckpt中变量的方法有三种: 在有model的情况下,使用tf.train.Saver进行restore 使用tf.train.NewCheckpointReader直接读取ckpt文件,这种方法不需要model. 使用tools里的freeze_graph来读取ckpt 注意: 如果模型保存为.ckpt的文件,则使用该文件就可以查看.ckpt文件里的变量.ckpt路径为 model.ckpt 如果模型保存为.ckpt-xxx-
-
解决tensorflow模型参数保存和加载的问题
终于找到bug原因!记一下:还是不熟悉平台的原因造成的! Q:为什么会出现两个模型对象在同一个文件中一起运行,当直接读取他们分开运行时训练出来的模型会出错,而且总是有一个正确,一个读取错误? 而 直接在同一个文件又训练又重新加载模型预测不出错,而且更诡异的是此时用分文件里的对象加载模型不会出错? model.py,里面含有 ModelV 和 ModelP,另外还有 modelP.py 和 modelV.py 分别只含有 ModelP 和 ModeV 这两个对象,先使用 modelP.py 和 m
-
解决Tensorflow安装成功,但在导入时报错的问题
在Mac上按照官网教程安装成功tensor flow后,但在程序中导入时,仍然报错,包括但不限于以下两个错误.对于这种错误,原因主要在于Mac内默认的python库比较老了,即便通过pip命令安装了新的包,python也会默认导入默认位置的包.这时候需要做的就是删除,有冲突的包,对于以下两个错误,就是分别时numpy和six两个包冲突了. 可以在python命令行环境下,通过numpy.version和six.version两个命令查看当前版本,如果与预期的不一致,就可以删掉. 可以通过nump
-
解决Tensorflow占用GPU显存问题
我使用Pytorch进行模型训练时发现真正模型本身对于显存的占用并不明显,但是对应的转换为tensorflow后(权重也进行了转换),发现Python-tensorflow在使用时默认吃掉所有显存,并且不手动终结程序的话显存并不释放(我有两个序贯的模型,前面一个跑完后并不释放占用显存)(https://github.com/tensorflow/tensorflow/issues/1727),这一点对于后续的工作有很大的影响. 后面发现python-tensorflow限制显存有两种方法: 1.
-
如何解决tensorflow恢复模型的特定值时出错
模型的恢复 对于的模型的恢复来说,需要首先恢复模型的整个图文件,之后从图文件中读取相应的节点信息. 存储的模型文件包括四个子文件,如下: 现在假如我想恢复模型中的某个节点信息: 需要注意的是在使用saver.restore恢复权值的时候,参数的设置需要万分注意: # 先加载图文件 saver = tf.train.import_meta_graph("./model/save_model.meta") graph = tf.get_default_graph() # 其中的一个节点 a
随机推荐
- SQLserver2008使用表达式递归查询
- Oracle 多行记录合并/连接/聚合字符串的几种方法
- 为大家经常为md5加密过的常用admin,admin888,0000密码
- Python的Flask站点中集成xhEditor文本编辑器的教程
- asp实现计算两个时间内的工作日的函数
- C#中IEnumerable、ICollection、IList、List之间的区别
- Android学习教程之悬浮窗菜单制作(9)
- MySQL 5.7.9 服务无法启动-“NET HELPMSG 3534”的解决方法
- JavaScript使表单中的内容显示在屏幕上的方法
- 详解基于java的Socket聊天程序——初始设计(附demo)
- 对联怎么贴 如何分左右(对联的正确贴法)
- jQuery插件开发精品教程(让你的jQuery更上一个台阶)
- 优化RequireJS项目的相关技巧总结
- 理解Java的序列化与反序列化
- js读写(删除)Cookie实例详解
- EditText属性深入解析
- Android中的Dalvik和ART详解及区别分析
- 快速搞懂Android口令加密(一)
- 让网站自动生成章节目录索引的多个js代码
- Python高级特性切片(Slice)操作详解