使用Keras中的ImageDataGenerator进行批次读图方式

ImageDataGenerator位于keras.preprocessing.image模块当中,可用于做数据增强,或者仅仅用于一个批次一个批次的读进图片数据.一开始以为ImageDataGenerator是用来做数据增强的,但我的目的只是想一个batch一个batch的读进图片而已,所以一开始没用它,后来发现它是有这个功能的,而且使用起来很方便.

ImageDataGenerator类包含了如下参数:(keras中文教程)

ImageDataGenerator(featurewise_center=False, #布尔值。将输入数据的均值设置为 0,逐特征进行
 samplewise_center=False, #布尔值。将每个样本的均值设置为 0
 featurewise_std_normalization=False, #布尔值。将输入除以数据标准差,逐特征进行
 samplewise_std_normalization=False, #布尔值。将每个输入除以其标准差
 zca_whitening=False, #是否进行ZAC白化
 zca_epsilon=1e-06, #ZCA 白化的 epsilon 值
 rotation_range=0, #整数。随机旋转的度数范围
 width_shift_range=0.0,
 height_shift_range=0.0,
 brightness_range=None,
 shear_range=0.0, #浮点数。剪切强度(以弧度逆时针方向剪切角度)
 zoom_range=0.0, #浮点数 或 [lower, upper]。随机缩放范围。如果是浮点数,[lower, upper] = [1-zoom_range, 1+zoom_range]。
 channel_shift_range=0.0, #浮点数。随机通道转换的范围
 fill_mode='nearest', #输入边界以外的点的模式填充
 cval=0.0, #当 fill_mode = "constant",边界点的填充值
 horizontal_flip=False, #随机水平翻转
 vertical_flip=False, #随机垂直翻
 rescale=None, #默认为 None。如果是 None 或 0,不进行缩放,否则将数据乘以所提供的值(在应用任何其他转换之前)
 preprocessing_function=None, #应用于每个输入的函数。这个函数会在任何其他改变之前运行。这个函数需要一个参数:一张图像(秩为 3 的 Numpy 张量),并且应该输出一个同尺寸的 Numpy 张量。
 data_format=None, #图像数据格式,{"channels_first", "channels_last"} 之一
 validation_split=0.0,
 dtype=None) #生成数组使用的数据类型

虽然包含了很多参数,但实际应用时用到的并不会很多,假设我的目的只是一个batch一个batch的读进图片,那么,我在实例化对象的时候什么参数都不需要设置,然后再调用ImageDataGenerator类的成员函数flow_from_directory()就可以从目录中读图.

我放图片的目录如下图,在train文件夹中包含了两个子文件夹,然后在两个子文件夹里面分别包含了猫和狗的图片.

先看看flow_from_directory()的参数.需要注意的是,第一个参数directory不是图片的路径,而是子文件夹的路径,还有就是第四个参数classes,它填写是子文件夹的名称,比如此处的为['cat', 'dog'],然后该函数就会自动把两个子文件夹看成是2个类别,cat文件夹里面所有图片的标签都为0,dog文件夹里面所有图片的标签都为1.而且可以通过设置第5个参数class_mode把标签设置为ont-hot形式(默认的categorical就是one-hot 形式).可以看出,这个函数有多方便,直接把标签和原图对应起来了.

def flow_from_directory(self,
 directory, #子文件夹所在的目录
 target_size=(256, 256), #输出的图片的尺寸
 color_mode='rgb', #单通道还是三通道
 classes=None, #类别,有多少个子文件夹就有多少个类别,填写的是子文件夹的名称
 class_mode='categorical', #通常默认,表示标签采用one-hot形式,
 batch_size=32,
 shuffle=True, #是否随机打乱顺序
 seed=None,
 save_to_dir=None, #把图片保存,输入的是路径
 save_prefix='', #图像前缀名,
 save_format='png', #图像后缀名
 follow_links=False,
 subset=None,
 interpolation='nearest')

接下来看一个例子,部分代码.

from tensorflow.keras.preprocessing.image import ImageDataGenerator #我是直接装tensorflow,然后使用里面的keras的,

#实例化对象datagen
datagen=ImageDataGenerator() 

#读训练集图片
train_generator = datagen.flow_from_directory(
 '/home/hky/folder/kaggle/DataGenerator/train',
 classes=['cat','dog'],
 target_size=(227, 227),
 class_mode='categorical',
 batch_size=batch_size)

#读验证集图片
validation_generator = datagen.flow_from_directory(
 '/home/hky/folder/kaggle/DataGenerator/validation',
 classes=['cat','dog'],
 target_size=(227, 227),
 class_mode='categorical',
 batch_size=batch_size)

'''开始训练'''
#steps_per_epoch是为了判断是否完成了一个epoch,这里我训练集有20000张图片,然后batch_size=16,所以是10000/16
#同样,validation_steps=2496/16是因为我的验证集有2496张图片
model.fit_generator(generator=train_generator,steps_per_epoch=20000/16,epochs=10,validation_data=validation_generator,validation_steps=2496/16)

下面是完整代码,实现了一个AlexNet模型.

import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.preprocessing import image
from tensorflow.keras.callbacks import EarlyStopping
from tensorflow.keras import optimizers
from tensorflow.keras.preprocessing.image import ImageDataGenerator
import numpy as np
import cv2
import yaml
from tensorflow.keras.models import model_from_yaml

batch_size = 16

''' 搭建模型'''
l=tf.keras.layers
model=Sequential()

#第一层卷积和池化
model.add(l.Conv2D(filters=96,kernel_size=(11,11),strides=(4,4),padding='valid',input_shape=(227,227,3),activation='relu'))
model.add(l.BatchNormalization())
model.add(l.MaxPooling2D(pool_size=(3,3),strides=(2,2),padding='valid'))

#第二层卷积和池化
model.add(l.Conv2D(256,(5,5),(1,1),padding='same',activation='relu'))
model.add(l.BatchNormalization())
model.add(l.MaxPooling2D((3,3),(2,2),padding='valid'))

#第三层卷积
model.add(l.Conv2D(384,(3,3),(1,1),'same',activation='relu'))

#第四层卷积
model.add(l.Conv2D(384,(3,3),(1,1),'same',activation='relu'))

#第五层卷积和池化
model.add(l.Conv2D(256,(3,3),(1,1),'same',activation='relu'))
model.add(l.MaxPooling2D((3,3),(2,2),'valid'))

#全连接层
model.add(l.Flatten())
model.add(l.Dense(4096,activation='relu'))
model.add(l.Dropout(0.5))

model.add(l.Dense(4096,activation='relu'))
model.add(l.Dropout(0.5))

model.add(l.Dense(1000,activation='relu'))
model.add(l.Dropout(0.5))

#输出层
model.add(l.Dense(2,activation='softmax'))
model.compile(optimizer='sgd',loss='categorical_crossentropy',metrics=['accuracy'])

'''导入图片数据'''
#利用ImageDataGenerator生成一个batch一个batch的数据

datagen=ImageDataGenerator(samplewise_center=True,rescale=1.0/255) #samplewise_center:使输入数据的每个样本均值为0,rescale:归一化
train_generator = datagen.flow_from_directory(
 '/home/hky/folder/kaggle/DataGenerator/train',
 classes=['cat','dog'],
 target_size=(227, 227),
 class_mode='categorical',
 batch_size=batch_size)

validation_generator = datagen.flow_from_directory(
 '/home/hky/folder/kaggle/DataGenerator/validation',
 classes=['cat','dog'],
 target_size=(227, 227),
 class_mode='categorical',
 batch_size=batch_size)

'''开始训练'''
model.fit_generator(generator=train_generator,steps_per_epoch=20000/16,epochs=10,validation_data=validation_generator,validation_steps=2496/16)

yaml_string = model.to_yaml() # 保存模型结构到yaml文件
open('./model_architecture.yaml', 'w').write(yaml_string)
model.save_weights('./AlexNet_model.h5') #保存模型参数

'''导入模型'''
#model = model_from_yaml(open('./model_architecture.yaml').read())
#model.load_weights('./AlexNet_model.h5')

'''随便输入一张图片测试一下'''
imgs=[]
img=cv2.imread('/home/hky/folder/kaggle/test/120.jpg')
img=cv2.resize(img,(227,227))
imgs.append(img)
a=np.array(imgs)

result=model.predict(a)
idx=np.argmax(result)

if idx==0:
 print('the image is cat\n')
else:
 print('the image is dog\n')

cv2.imshow("image",img)
cv2.waitKey(0)

以上这篇使用Keras中的ImageDataGenerator进行批次读图方式就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持我们。

(0)

相关推荐

  • keras-siamese用自己的数据集实现详解

    Siamese网络不做过多介绍,思想并不难,输入两个图像,输出这两张图像的相似度,两个输入的网络结构是相同的,参数共享. 主要发现很多代码都是基于mnist数据集的,下面说一下怎么用自己的数据集实现siamese网络. 首先,先整理数据集,相同的类放到同一个文件夹下,如下图所示: 接下来,将pairs及对应的label写到csv中,代码如下: import os import random import csv #图片所在的路径 path = '/Users/mac/Desktop/wxd/fl

  • keras 读取多标签图像数据方式

    我所接触的多标签数据,主要包括两类: 1.一张图片属于多个标签,比如,data:一件蓝色的上衣图片.jpg,label:蓝色,上衣.其中label包括两类标签,label1第一类:上衣,裤子,外套.label2第二类,蓝色,黑色,红色.这样两个输出label1,label2都是是分类,我们可以直接把label1和label2整合为一个label,直接编码,比如[蓝色,上衣]编码为[011011].这样模型的输出也只需要一个输出.实现了多分类. 2.一张图片属于多个标签,但是几个标签不全是分类.比

  • keras实现多种分类网络的方式

    Keras应该是最简单的一种深度学习框架了,入门非常的简单. 简单记录一下keras实现多种分类网络:如AlexNet.Vgg.ResNet 采用kaggle猫狗大战的数据作为数据集. 由于AlexNet采用的是LRN标准化,Keras没有内置函数实现,这里用batchNormalization代替 收件建立一个model.py的文件,里面存放着alexnet,vgg两种模型,直接导入就可以了 #coding=utf-8 from keras.models import Sequential f

  • Keras 使用 Lambda层详解

    我就废话不多说了,大家还是直接看代码吧! from tensorflow.python.keras.models import Sequential, Model from tensorflow.python.keras.layers import Dense, Flatten, Conv2D, MaxPool2D, Dropout, Conv2DTranspose, Lambda, Input, Reshape, Add, Multiply from tensorflow.python.ker

  • 使用Keras中的ImageDataGenerator进行批次读图方式

    ImageDataGenerator位于keras.preprocessing.image模块当中,可用于做数据增强,或者仅仅用于一个批次一个批次的读进图片数据.一开始以为ImageDataGenerator是用来做数据增强的,但我的目的只是想一个batch一个batch的读进图片而已,所以一开始没用它,后来发现它是有这个功能的,而且使用起来很方便. ImageDataGenerator类包含了如下参数:(keras中文教程) ImageDataGenerator(featurewise_cen

  • 在vue中使用eacharts创建graph关系图方式

    目录 使用eacharts创建graph关系图 vue中关系图组件 1.Graph.vue 2.GraphDemo.vue 使用eacharts创建graph关系图 在最近的工作中遇到了这个问题一开始遇到遇到问题且网上现在的教程不那么详细于是想着自己写一个来记录一下. 首先想使用echarts先下载echarts包命令如下 npm install echarts --save 然后将eacharts引入到项目中,推荐在main.js引入. import * as echarts from 'ec

  • Keras中 ImageDataGenerator函数的参数用法

    一.Keras ImageDataGenerator参数 from keras.preprocessing.image import ImageDataGenerator keras.preprocessing.image.ImageDataGenerator(featurewise_center=False, samplewise_center=False, featurewise_std_normalization = False, samplewise_std_normalization

  • 关于keras中keras.layers.merge的用法说明

    旧版本中: from keras.layers import merge merge6 = merge([layer1,layer2], mode = 'concat', concat_axis = 3) 新版本中: from keras.layers.merge import concatenate merge = concatenate([layer1, layer2], axis=3) 补充知识:keras输入数据的方法:model.fit和model.fit_generator 1.第一

  • 在keras中model.fit_generator()和model.fit()的区别说明

    首先Keras中的fit()函数传入的x_train和y_train是被完整的加载进内存的,当然用起来很方便,但是如果我们数据量很大,那么是不可能将所有数据载入内存的,必将导致内存泄漏,这时候我们可以用fit_generator函数来进行训练. keras中文文档 fit fit(x=None, y=None, batch_size=None, epochs=1, verbose=1, callbacks=None, validation_split=0.0, validation_data=N

  • Keras中的两种模型:Sequential和Model用法

    在Keras中有两种深度学习的模型:序列模型(Sequential)和通用模型(Model).差异在于不同的拓扑结构. 序列模型 Sequential 序列模型各层之间是依次顺序的线性关系,模型结构通过一个列表来制定. from keras.models import Sequential from keras.layers import Dense, Activation layers = [Dense(32, input_shape = (784,)), Activation('relu')

  • keras和tensorflow使用fit_generator 批次训练操作

    fit_generator 是 keras 提供的用来进行批次训练的函数,使用方法如下: model.fit_generator(generator, steps_per_epoch=None, epochs=1, verbose=1, callbacks=None, validation_data=None, validation_steps=None, class_weight=None, max_queue_size=10, workers=1, use_multiprocessing=F

  • 在keras中获取某一层上的feature map实例

    在深度学习中,如果我们想获得某一个层上的feature map,就像下面的图这样,怎么做呢? 我们的代码是使用keras写的VGG16网络,网络结构如图: 那么我们随便抽取一层的数据吧,就拿第四层的pooling以后的结果作为输出吧,参考上面的网络结构,得到的结果维度应该是[1,56,56,128]的尺度. 怎么做呢? 首先通过keras构建模型: model = VGG16(include_top=True, weights='imagenet') 然后设置输入和输出为:原始的输入和该层对应的

  • 解决在keras中使用model.save()函数保存模型失败的问题

    我使用的是anaconda安装的环境,其中有一个是h5py,自动安装的是2.7.0的版本,这个版本会导致保存模型时python奔溃. conda install h5py==2.8.0 将h5py更新一个版本即可解决这个问题. 补充知识:Django安装提示错误 使用sudo pip install ......的时候出现下面一段代码: The directory '/Users/XX/Library/Caches/pip' or its parent directory is not owne

  • keras中模型训练class_weight,sample_weight区别说明

    keras 中fit(self, x=None, y=None, batch_size=None, epochs=1, verbose=1, callbacks=None, validation_split=0.0, validation_data=None, shuffle=True, class_weight=None, sample_weight=None, initial_epoch=0, steps_per_epoch=None, validation_steps=None) 官方文档

随机推荐