如何解决AMD和Intel机器之间的优化差异
通过比较AMD和Intel机器上的结果,我认识到了不同机器学习算法优化的一些奇怪行为。我使用了像statsmodels,pmdarima,scikit-learn之类的python库以及类似的库及其依赖项。所有优化都可以在virtualenvs中运行,可以使用python 3.6.9或3.8.2,也可以使用相同版本的所有已使用的库。
在这里您可以找到我用于优化的机器的概述:
- AMD0:x86_64 | 8个AMD FX(tm)-8350八核处理器,Ubuntu 20.04.1 LTS
- Intel0:x86_64 | 20 x Intel(R)Xeon(R)CPU E5-2650 v3 @ 2.30GHz,Ubuntu 18.04.1 LTS
- Intel1:x86_64 | 20 x Intel(R)Xeon(R)CPU E5-2650 v3 @ 2.30GHz,Ubuntu 18.04.4 LTS
- Intel2:x86_64 | 4个Intel(R)Core(TM)i7-6700K CPU @ 4.00GHz,Ubuntu 18.04.4 LTS
- Intel3:x86_64 | 56 x Intel(R)Xeon(R)Gold 6132 CPU @ 2.60GHz,Ubuntu 18.04.4 LTS
- Intel4:x86_64 | 8个Intel(R)Core(TM)i7-4790 CPU @ 3.60GHz,Ubuntu 20.04.1 LTS
我进行了不同的优化,只想向您展示一个示例。如您在示例中也看到的那样,AMD和Intel之间不同结果的奇怪行为仅发生在某些参数配置上,而不是所有参数配置上。
下图显示了不同机器上相同SARIMAX参数配置的均方根误差的结果:
你们中的任何人是否经历过类似的行为或对此有解释?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。