如何解决增加迭代次数是否会影响log-lik,AIC等?
每当我尝试在其他优化器的帮助下解决自己的glmer
模型之一中的收敛性问题时,我都会使用新的优化器重复整个模型优化过程。也就是说,我使用新的优化程序重新运行了到目前为止计算出的所有模型,并再次与anova ()
进行了比较。之所以这样做,是因为据我所知,对于一个相同的模型,不同的优化器可能会导致AIC和对数比率的差异,从而使使用不同优化器的两个模型之间的比较存在问题。
在最近的分析中,我使用optCtrl=list(maxfun=100000)
增加了迭代次数,以避免收敛错误。我现在想知道这是否还会导致同一模型的AIC / log-lik等差异?比较两个在包含optCtrl=list(maxfun=100000)
参数方面不同的模型是否同样有问题?
我实际上认为增加迭代次数只会导致更长的计算时间(而不是不同的结果),但是我无法在线进行验证。任何提示/解释表示赞赏。
解决方法
据我所知,你应该没事。只要模型适合相同数量的观测值,您就应该能够使用AIC进行比较。希望其他人可以评论AIC本身的计算的细微差别,但我只是将一堆具有相同公式和数据集以及最大迭代次数不同的模型拟合在一起,每次都获得AIC。它没有根据迭代而变化。迭代只是模型拟合过程为使似然最大化所需的时间,对于复杂模型而言,这可能很棘手。一旦模型适合并收敛于答案,迭代次数就不会改变模型本身。
如果您查看此问题,则最上面的答案会很好地说明AIC:https://stats.stackexchange.com/questions/232465/how-to-compare-models-on-the-basis-of-aic
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。