如何解决keras数据耗尽时的数据增强
为什么此代码不起作用,它直接取自《用Python进行深度学习》这本书。.我收到错误消息:
“警告:tensorflow:您的输入用完了数据;正在中断训练。请确保您的数据集或生成器可以生成至少steps_per_epoch * epochs
个批次(在这种情况下为50个批次)。您可能需要使用构建数据集时使用repeat()函数。”
以下是相关代码的片段:
train_datagen = ImageDataGenerator(
rescale=1./255,rotation_range=40,width_shift_range=0.2,height_shift_range=0.2,shear_range=0.2,zoom_range=0.2,horizontal_flip=True,)
test_datagen = ImageDataGenerator(rescale=1./255)
train_generator = train_datagen.flow_from_directory(
train_dir,target_size=(150,150),batch_size=32,class_mode='binary')
validation_generator = test_datagen.flow_from_directory(
validation_dir,class_mode='binary')
history = model.fit_generator(
train_generator,steps_per_epoch=100,epochs=100,validation_data=validation_generator,validation_steps=50)
我不明白为什么它要我在书中使用时更改批处理大小或steps_per_epoch。
解决方法
您可以尝试以下操作:
steps_per_epoch=train_generator.n//train_generator.batch_size
并且:
validation_steps=validation_generator.n//validation_generator.batch_size
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。