lsqr#
- scipy.sparse.linalg.lsqr(A, b, damp=0.0, atol=1e-06, btol=1e-06, conlim=100000000.0, iter_lim=None, show=False, calc_var=False, x0=None)[源代码][源代码]#
找到一个大型、稀疏的线性方程组的最小二乘解。
该函数解决
Ax = b
或min ||Ax - b||^2
或min ||Ax - b||^2 + d^2 ||x - x0||^2
。矩阵 A 可以是方阵或矩形(超定或欠定),并且可以有任意秩。
1. Unsymmetric equations -- solve Ax = b 2. Linear least squares -- solve Ax = b in the least-squares sense 3. Damped least squares -- solve ( A )*x = ( b ) ( damp*I ) ( damp*x0 ) in the least-squares sense
- 参数:
- A{稀疏矩阵, ndarray, 线性算子}
m-by-n 矩阵的表示。或者,
A
可以是一个线性算子,它可以使用例如scipy.sparse.linalg.LinearOperator
生成Ax
和A^T x
。- barray_like, 形状 (m,)
右侧向量
b
。- 阻尼浮动
阻尼系数。默认值为 0。
- atol, btolfloat, 可选
停止容差。
lsqr
继续迭代,直到某个后向误差估计小于依赖于 atol 和 btol 的某个量。设r = b - Ax
为当前近似解x
的残差向量。如果Ax = b
看起来是一致的,lsqr
在norm(r) <= atol * norm(A) * norm(x) + btol * norm(b)
时终止。否则,lsqr
在norm(A^H r) <= atol * norm(A) * norm(r)
时终止。如果两个容差都是 1.0e-6(默认值),最终的norm(r)
应该精确到大约 6 位数字。(最终的x
通常会有较少的正确数字,取决于cond(A)
和 LAMBDA 的大小。)如果 atol 或 btol 为 None,将使用默认值 1.0e-6。理想情况下,它们应该是A
和b
中条目的相对误差的估计值。例如,如果A
的条目有 7 个正确数字,设置atol = 1e-7
。这防止算法在输入数据的不确定性之外进行不必要的工作。- conlimfloat, 可选
另一个停止容差。如果对
cond(A)
的估计超过 conlim,则 lsqr 终止。对于兼容系统Ax = b
,conlim 可以大到 1.0e+12(例如)。对于最小二乘问题,conlim 应小于 1.0e+8。通过设置atol = btol = conlim = zero
可以获得最大精度,但迭代次数可能会过多。默认值为 1e8。- iter_limint, 可选
显式限制迭代次数(出于安全考虑)。
- 显示bool, 可选
显示迭代日志。默认为 False。
- calc_varbool, 可选
是否估计
(A'A + damp^2*I)^{-1}
的对角线。- x0类似数组,形状 (n,),可选
x 的初始猜测值,如果为 None,则使用零。默认为 None。
Added in version 1.0.0.
- 返回:
- x浮点数 ndarray
最终解决方案。
- istop整数
给出终止的原因。1 表示 x 是 Ax = b 的近似解。2 表示 x 近似解决了最小二乘问题。
- itn整数
终止时的迭代次数。
- r1norm浮动
norm(r)
,其中r = b - Ax
。- r2norm浮动
sqrt( norm(r)^2 + damp^2 * norm(x - x0)^2 )
. 如果damp == 0
,则等于 r1norm。- anorm浮动
Abar = [[A]; [damp*I]]
的 Frobenius 范数估计。- acond浮动
cond(Abar)
的估计。- arnorm浮动
norm(A'@r - damp^2*(x - x0))
的估计值。- xnorm浮动
norm(x)
- 变量浮点数 ndarray
如果
calc_var
为 True,则估计(A'A)^{-1}
(如果damp == 0
)或更一般地估计(A'A + damp^2*I)^{-1}
的所有对角线。如果 A 具有满列秩或damp > 0
,则这是定义明确的。(不确定如果rank(A) < n
且damp = 0
时 var 的含义。)
注释
LSQR 使用迭代方法来近似求解。达到一定精度所需的迭代次数很大程度上取决于问题的规模。因此,应尽可能避免 A 的行或列的不良缩放。
例如,在问题1中,解不受行缩放的影响。如果A的一行与其他行相比非常小或大,则( A b )的相应行应向上或向下缩放。
在问题1和问题2中,解x可以通过列缩放轻松恢复。除非有更好的信息,否则A的非零列应缩放,使它们都具有相同的欧几里得范数(例如,1.0)。
在问题3中,如果阻尼不为零,则没有重新缩放的自由。然而,阻尼值的分配应在注意A的缩放之后进行。
参数 damp 旨在通过防止真实解变得非常大来帮助正则化病态系统。另一个正则化辅助由参数 acond 提供,它可用于在计算解变得非常大之前终止迭代。
如果已知某个初始估计值
x0
并且damp == 0
,可以按如下方式进行:计算残差向量
r0 = b - A@x0
。使用 LSQR 求解系统
A@dx = r0
。添加修正 dx 以获得最终解
x = x0 + dx
。
这要求
x0
在调用 LSQR 之前和之后都可用。为了判断其好处,假设 LSQR 需要 k1 次迭代来求解 A@x = b,需要 k2 次迭代来求解 A@dx = r0。如果 x0 是“好的”,norm(r0) 将小于 norm(b)。如果对每个系统使用相同的停止容差 atol 和 btol,k1 和 k2 将相似,但最终解 x0 + dx 应该更精确。减少总工作的唯一方法是增加第二个系统的停止容差。如果某个值 btol 适合 A@x = b,那么更大的值 btol*norm(b)/norm(r0) 应该适合 A@dx = r0。预处理是减少迭代次数的另一种方法。如果能够高效地求解一个相关系统
M@x = b
,其中 M 以某种有益的方式近似 A(例如,M - A 的秩较低或其元素相对于 A 的元素较小),那么 LSQR 可能会在系统A@M(inverse)@z = b
上更快地收敛,之后可以通过求解 M@x = z 来恢复 x。如果A是对称的,不应使用LSQR!
替代方案是对称共轭梯度法(cg)和/或 SYMMLQ。SYMMLQ 是应用于任何对称 A 的对称 cg 的实现,并且比 LSQR 收敛更快。如果 A 是正定的,还有其他实现的对称 cg,它们在每次迭代中需要的计算量略少于 SYMMLQ(但将采取相同数量的迭代)。
参考文献
[1]C. C. Paige and M. A. Saunders (1982a). “LSQR: An algorithm for sparse linear equations and sparse least squares”, ACM TOMS 8(1), 43-71.
[2]C. C. Paige and M. A. Saunders (1982b). “Algorithm 583. LSQR: Sparse linear equations and least squares problems”, ACM TOMS 8(2), 195-209.
[3]M. A. Saunders (1995). “Solution of sparse rectangular systems using LSQR and CRAIG”, BIT 35, 588-604.
示例
>>> import numpy as np >>> from scipy.sparse import csc_matrix >>> from scipy.sparse.linalg import lsqr >>> A = csc_matrix([[1., 0.], [1., 1.], [0., 1.]], dtype=float)
第一个例子有一个平凡的解
[0, 0]
>>> b = np.array([0., 0., 0.], dtype=float) >>> x, istop, itn, normr = lsqr(A, b)[:4] >>> istop 0 >>> x array([ 0., 0.])
返回的停止代码 istop=0 表示找到了一个零向量作为解。返回的解 x 确实包含
[0., 0.]
。下一个示例有一个非平凡解:>>> b = np.array([1., 0., -1.], dtype=float) >>> x, istop, itn, r1norm = lsqr(A, b)[:4] >>> istop 1 >>> x array([ 1., -1.]) >>> itn 1 >>> r1norm 4.440892098500627e-16
如 istop=1 所示,
lsqr
找到了一个符合容差限制的解。给出的解[1., -1.]
显然解决了方程。剩余的返回值包括关于迭代次数(itn=1)和已解方程左右两边剩余差异的信息。最后一个例子展示了当方程无解时的行为:>>> b = np.array([1., 0.01, -1.], dtype=float) >>> x, istop, itn, r1norm = lsqr(A, b)[:4] >>> istop 2 >>> x array([ 1.00333333, -0.99666667]) >>> A.dot(x)-b array([ 0.00333333, -0.00333333, 0.00333333]) >>> r1norm 0.005773502691896255
istop 表示系统不一致,因此 x 更接近于相应最小二乘问题的近似解。r1norm 包含找到的最小残差的范数。