如何解决如何使用KERAS获得DNN的最后一层的值?
我刚刚开始使用Keras训练简单的DNN,而我正在努力设置自己的自定义损失函数,这是模型的代码:
X_train = train_dataframe.to_numpy()[:,0:4]
Y_train = train_dataframe.to_numpy()[:,4]
model = Sequential()
model.add(Dense(1000,input_shape=(4,),activation='relu'))
model.add(Dense(1000,activation='relu'))
model.add(Dense(Y_train.shape[0],activation='linear',activity_regularizer=regularizers.l1(0.02)))
def custom_loss(y_true,y_pred):
mse_loss = tf.keras.losses.mean_squared_error(y_true,np.ones((450,4)) * y_pred)
return mse_loss + y_pred
model.compile("adam",custom_loss(X_train,model.layers[2].output),metrics=["accuracy"])
model.fit(X_train,Y_train,epochs=5,batch_size=1)
我将简要解释。我得到了一个训练样本集,包含450个样本,每个样本有4个特征作为输入,并且将(450,1)数值矢量解析为训练样本。
现在,我想要获得的是一种LASSO回归,方法是在最后一层应用活动正则化器,然后构建我的自定义损失函数,在其中将MSE放在y_true(这是输入)y_pred(不是)之间输出,但将输出层值与(450,4)矩阵进行简单的乘法运算(因为简单性用1填充)。
我的问题是运行脚本时出现此错误:
ValueError: Dimensions must be equal,but are 4 and 450 for 'mul' (op: 'Mul') with input shapes:
[450,4],[?,450].
这也许是因为我做model.layers[2].output
时没有很好地提取输出层的值。那么如何使用Keras正确地做到这一点?
解决方法
我认为您犯了2个严重错误
-
不要因为.compile keras中的损失而争论不休,对此就足够了:
model.compile(损失= custom_loss,优化程序=“ adam”,指标= [“准确性”])
-
第二,如果要在最后一层应用乘积,然后为此创建一个custum层,请不要在损失函数内执行此操作,损失函数的作用只是找出预测值与真实值相差多远
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。