如何解决QR 分解和线性回归
我正在阅读 QR 分解,我只是对 QR 分解和线性回归的结果有疑问。
假设我有 2 个矩阵 A (4x1) 和 B(4x2),我想找到 x(2x1) 使得:Bx = A。 首先,我使用 qr 分解找到 x 然后,我使用 lm find x
而且我发现两者的结果是不同的。 我想知道这是否正常?基于最小二乘误差,线性回归是否是更好的方法?
A=matrix(c(1,2,3,4),4,1)
B=matrix(c(2,7,9),1)
x = qr.coef(qr(A),B)
x
A%*%x
B
lm(B~A)
结果:
> A=matrix(c(1,1)
> B=matrix(c(2,1)
> x = qr.coef(qr(A),B)
> x
[,1]
[1,] 2.233333
> A%*%x
[,] 2.233333
[2,] 4.466667
[3,] 6.700000
[4,] 8.933333
> B
[,] 2
[2,] 4
[3,] 7
[4,] 9
>
> lm(B~A)
Call:
lm(formula = B ~ A)
Coefficients:
(Intercept) A
-0.5 2.4
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。