代码分析
上接分类2.
from keras import optimizers
model.compile(loss='binary_crossentropy',
optimizer=optimizers.RMSprop(lr=1e-4),
metrics=['acc'])
要用sigmoid做二分类的问题,还是老生常谈的rmsprop优化器,二元交叉熵作为损失函数。
同样,我们的下一步就是来做数据的处理。
from keras.preprocessing.image import ImageDataGenerator
train_datagen = ImageDataGenerator(rescale=1./255)
test_datagen = ImageDataGenerator(rescale=1./255)
train_generator = train_datagen.flow_from_directory(
train_dir,
target_size=(150, 150),
batch_size=20,
class_mode='binary')
validation_generator = test_datagen.flow_from_directory(
validation_dir,
target_size=(150, 150),
batch_size=20,
class_mode='binary')
这一段代码的主要作用就是把图片处理为适合学习的张量模式,keras自带的模块有一个generator类可以帮助我们方便的完成这个步骤。首先,导入这个模块之后将所有图像乘以1/255,是为了将像素值固定在0到1的区间,然后很清楚的看到了将训练集和验证集调整为150*150的尺寸,批量为20,标签从上面看就应该使用binary。
generator的含义是生成器,这个生成的对象可以用for in语句来一起使用。
接下来要做的工作就是利用生成器的加工后数据完成模型的拟合了。
history = model.fit_generator(
train_generator,
steps_per_epoch=100,
epochs=30,
validation_data=validation_generator,
validation_steps=50)
其中 steps_per_epoch=100意思就是训练过程中2000个数据,批量大小为20,就需要100次,下面的50也是同理。
最后一步就是直观的把图画出来。
import matplotlib.pyplot as plt
acc = history.history['acc']
val_acc = history.history['val_acc']
loss = history.history['loss']
val_loss = history.history['val_loss']
epochs = range(len(acc))
plt.plot(epochs, acc, 'bo', label='Training acc')
plt.plot(epochs, val_acc, 'b', label='Validation acc')
plt.title('Training and validation accuracy')
plt.legend()
plt.figure()
plt.plot(epochs, loss, 'bo', label='Training loss')
plt.plot(epochs, val_loss, 'b', label='Validation loss')
plt.title('Training and validation loss')
plt.legend()
plt.show()
可以看到训练的结果不尽如人意,精度也就70左右,还面领着过拟合的问题。余下的后面再分析。