如何解决使用Keras的Python面具检测神经网络
所以这是我第一次真正尝试使用keras的神经网络。我一直在尝试进行分类,以决定是否有人戴着口罩。下面我提供了我的模型。我获得了约87%的训练准确率和85%的验证准确率。使用自己的图像,它的性能也很好。我为两个类别的每个类别创建了约600张图像的数据集。但是我有一些疑问。
- 正确吗?有任何建议的改进吗?正如我所说的,这是我的第一个神经网络项目,我真的不知道我做错了什么(我很可能做了)
- 我将如何实现这一点来预测相机的进给,而不仅仅是图像。我是否可以从例如opencv中获取框架并进行预测?任何评论和/或帮助都将受到高度赞赏
这是我的模特
from keras.layers import Dense,Input,Dropout,GlobalAveragePooling2D,Flatten,Conv2D,BatchNormalization,Activation,MaxPooling2D
from keras.models import Model,Sequential
from tensorflow.keras.callbacks import TensorBoard
from tensorflow.keras.preprocessing.image import ImageDataGenerator
from tensorflow.keras.optimizers import RMSprop
from sklearn.model_selection import train_test_split
NAME = "mask-detection"
tensorboard = TensorBoard(log_dir="logs/{}".format(NAME))
train_datagen = ImageDataGenerator(rescale=1 / 255)
test_datagen = ImageDataGenerator(rescale=1. / 255)
train_generator = train_datagen.flow_from_directory(
'data/train',target_size=(100,100),batch_size=32,class_mode='categorical',color_mode = "grayscale"
)
label_map = (train_generator.class_indices)
validation_generator = test_datagen.flow_from_directory(
'data/test',color_mode = "grayscale"
)
model=Sequential()
model.add(Conv2D(100,(3,3),padding='same',input_shape=(100,100,1)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Conv2D(100,))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Flatten())
model.add(Dropout(0.5))
model.add(Dense(50,activation='relu'))
model.add(Dense(2,activation='softmax'))
model.compile(
optimizer=RMSprop(lr=0.0001),loss="binary_crossentropy",metrics=["accuracy"])
model.fit(train_generator,epochs=20,callbacks=[tensorboard])
model.evaluate(validation_generator)
model.save('saved_model/model')
model.summary()
print(label_map)
因此,我可以预测imgs
import numpy as np
from keras.preprocessing import image
model = tf.keras.models.load_model('saved_model/model')
predictions = ["Mask","No Mask"]
def predict_mask(img):
x = image.load_img(img,color_mode="grayscale",100))
x = image.img_to_array(x)
x = np.expand_dims(x,axis= 0)
x = np.array(x).astype("float32")/255
x = x.reshape([1,1])
classes = model.predict(x)
return predictions[np.argmax(classes)]
img = "test.png"
print(predict_mask(img))
解决方法
您可以执行许多操作。如果要使用现有模型,则建议您使用keras回调ReduceLROnPlateau和ModelCheckpoint。首先,您可以使用可调的学习率。进行设置以监视验证丢失。下面的代码中显示了一种典型用法,如果验证损失未能在某个时期降低,则学习率将降低50%。这使您可以最初使用较大的学习率,并在以后的时期自动降低学习率。第二个功能使您能够以最小的验证损失保存模型。下面的代码显示了典型的应用程序。这些回调的文档为here.。在训练后加载此模型以进行预测。如果您想获得更好的结果,建议您尝试转学。 here.文档中提供了许多模型,我更喜欢使用MobileNet模型,因为它只有400万个可训练参数,而VGG16只有1.4亿个,并且在大多数情况下都差不多。下面的代码显示了典型用法。
rlrp=tf.keras.callbacks.ReduceLROnPlateau(
monitor='val_loss',factor=0.5,patience=1,verbose=0,mode='auto',min_delta=0.0001,cooldown=0,min_lr=0)
checkpoint_filepath = '/tmp/checkpoint'
mcp=tf.keras.callbacks.ModelCheckpoint(filepath=checkpoint_filepath,monitor='val_loss',save_best_only=True,save_weights_only=False,save_freq='epoch',options=None)
callbacks=[rlrp,mcp]
mobile = tf.keras.applications.mobilenet.MobileNet( include_top=False,input_shape=(image_size,image_size,3),pooling='max',weights='imagenet',alpha=1,depth_multiplier=1,dropout=.5)
x=mobile.layers[-1].output
x=keras.layers.BatchNormalization(axis=-1,momentum=0.99,epsilon=0.001 )(x)
predictions=Dense (2,activation='softmax')(x)
model = Model(inputs=mobile.input,outputs=predictions)
for layer in model.layers:
layer.trainable=True
model.compile(Adamax(lr=.05),loss='categorical_crossentropy',metrics=['accuracy'])
data=model.fit(x=train_generator,epochs=20,verbose=1,callbacks=callbacks,validation_data=validation_generator,shuffle=True)
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。