如何解决使用 r 线性回归的 rsquared
在 r 中进行多重回归分析,我运行了两个不同的模型
模型 1。
lm(response ~ explanatorynumeric + explanatorycategorical,dataset)
模型 2。
lm(response ~ explanatorynumeric + explanatorycategorical + 0,dataset)
向模型添加 +0
是对 datacamp 课程的推荐。这表明 r
在存在解释变量时不估计截距。除了 +0
两个模型是相等的。
模型 1 和模型 2 的 predicts()
完全相同。
但是,模型 2 的 rsquared
(大约 0.8)比模型 1(大约 0.37)大得多。
我不明白为什么每个模型中的 rsquared 之间会有如此大的差异。
如果这对你们中的任何一个人有意义,我会很感激的解释。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。