如何解决解释BAGAN while语句的结构很困难
cnn.add(Conv2D(256,(3,3),padding='same',strides=(1,1),use_bias=True))
cnn.add(LeakyReLU())
cnn.add(Dropout(0.3))
while cnn.output_shape[-1] > min_latent_res:
cnn.add(Conv2D(256,strides=(2,2),use_bias=True))
cnn.add(LeakyReLU())
cnn.add(Dropout(0.3))
cnn.add(Conv2D(256,use_bias=True))
cnn.add(LeakyReLU())
cnn.add(Dropout(0.3))
cnn.add(Flatten())
这是BAGAN代码的一部分。我不知道我是否不熟悉Keras或对深度学习了解不多,但是我无法理解上面的结构。
当min_latent_res小于输出通道(= output_shape [-1])并通过while语句时,是否可以通过while语句中的卷积来逃避循环?通道数不保持在256个吗?
如果以上解释正确,为什么while语句存在?
谢谢。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。