如何解决使用 Keras Tuner 对迁移学习模型进行超参数优化
我想使用 Keras Tuner 对我的迁移学习模型执行超参数优化。我不知道该怎么做,因为我有两个训练阶段,
- 冻结整个网络,只训练最后一层以收敛到新的类和
- 解冻并训练网络。
在this paper和this paper中,提出了一种使用迁移学习进行超参数优化的方法,称为共享超参数优化。他们指出,在两个阶段之间共享一组超参数会导致最佳结果。但是,我不明白“一组超参数”的具体含义以及是否可以使用 Keras Tuner(他们使用 GPyOpt)来实现这一点。
对于理解此概念的任何帮助或有关如何为迁移学习模型执行超参数优化的任何其他想法/经验表示感谢!
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。