如何解决如何获取使用ImageDataGenerator为双输入CNN模型构建的数据集的标签?
有人获得一对图像作为输入并使用ImageDataGenerator提供图像批处理时,有人可以帮助我获得validation_set的标签吗?
GEN = ImageDataGenerator(rescale = 1./255)
def two_inputs(generator,X1,X2,batch_size,img_height,img_width):
U = generator.flow_from_directory(X1,target_size=(img_height,img_width),batch_size=batch_size,shuffle= False,class_mode='binary',seed=1221)
V = generator.flow_from_directory(X2,seed=1221)
while True:
X1i = U.next()
X2i = V.next()
yield [X1i[0],X2i[0]],X2i[1] # Yield both images and their mutual label
在以下情况下,我可以通过preds = base_model.predict_generator(val_flow)
获得预测,其中val_flow
是:
val_flow = two_inputs(generator= GEN,X1 = val_05_dirs,X2 = val_06_dirs,batch_size = batch_size,img_height=img_height,img_width=img_width
)
我需要使用fpr
获取tpr
和fpr,tpr,_ = metrics.roc_curve(LABELS,preds)
。
因此,我试图获取访问LABELS
,val_flow
文件夹的完整two val_05_dirs
的{{1}}。
预先感谢
解决方法
我创建了一个简单的代码示例。您可以修改此示例以适合您的用例。
代码:
GEN = tf.keras.preprocessing.image.ImageDataGenerator(rescale = 1./255)
folder_path = r'C:\Users\Aniket\.keras\datasets\flower_photos'
def two_inputs(generator,X1,X2,batch_size,img_height,img_width):
U = generator.flow_from_directory(X1,target_size=(img_height,img_width),batch_size=batch_size,shuffle= False,class_mode='binary',seed=1221)
V = generator.flow_from_directory(X2,seed=1221)
while True:
X1i = U.next()
X2i = V.next()
yield [X1i[0],X2i[0]],X2i[1] # Yield both images and their mutual label
custom_gen = two_inputs(GEN,folder_path,1000,256,256)
在这里,我的flower_photos
目录包含5个子目录,这些子目录的名称作为图像的标签。
输出:
Found 3670 images belonging to 5 classes.
现在遍历生成器。
代码:
val_labels = []
for image,labels in custom_gen:
val_labels += list(labels.astype('int32'))
break
注意:循环将无限运行,因为此生成器会无限地从您的数据生成增强图像。
如果您不希望这样做,则循环仅在以下时间运行:
no_of_times = total_samples / batch_size
确保您的批次大小可被样本总数整除,否则您将在列表末尾添加重复的标签。
您获得的标签将是整数。 如果需要映射,可以使用以下方法获取:
mapping = U.class_indices
mapping
输出:
{'daisy': 0,'dandelion': 1,'roses': 2,'sunflowers': 3,'tulips': 4}
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。