scipy.sparse.linalg.

lsqr#

scipy.sparse.linalg.lsqr(A, b, damp=0.0, atol=1e-06, btol=1e-06, conlim=100000000.0, iter_lim=None, show=False, calc_var=False, x0=None)[源代码][源代码]#

找到一个大型、稀疏的线性方程组的最小二乘解。

该函数解决 Ax = bmin ||Ax - b||^2min ||Ax - b||^2 + d^2 ||x - x0||^2

矩阵 A 可以是方阵或矩形(超定或欠定),并且可以有任意秩。

1. Unsymmetric equations --    solve  Ax = b

2. Linear least squares  --    solve  Ax = b
                               in the least-squares sense

3. Damped least squares  --    solve  (   A    )*x = (    b    )
                                      ( damp*I )     ( damp*x0 )
                               in the least-squares sense
参数:
A{稀疏矩阵, ndarray, 线性算子}

m-by-n 矩阵的表示。或者,A 可以是一个线性算子,它可以使用例如 scipy.sparse.linalg.LinearOperator 生成 AxA^T x

barray_like, 形状 (m,)

右侧向量 b

阻尼浮动

阻尼系数。默认值为 0。

atol, btolfloat, 可选

停止容差。lsqr 继续迭代,直到某个后向误差估计小于依赖于 atol 和 btol 的某个量。设 r = b - Ax 为当前近似解 x 的残差向量。如果 Ax = b 看起来是一致的,lsqrnorm(r) <= atol * norm(A) * norm(x) + btol * norm(b) 时终止。否则,lsqrnorm(A^H r) <= atol * norm(A) * norm(r) 时终止。如果两个容差都是 1.0e-6(默认值),最终的 norm(r) 应该精确到大约 6 位数字。(最终的 x 通常会有较少的正确数字,取决于 cond(A) 和 LAMBDA 的大小。)如果 atolbtol 为 None,将使用默认值 1.0e-6。理想情况下,它们应该是 Ab 中条目的相对误差的估计值。例如,如果 A 的条目有 7 个正确数字,设置 atol = 1e-7。这防止算法在输入数据的不确定性之外进行不必要的工作。

conlimfloat, 可选

另一个停止容差。如果对 cond(A) 的估计超过 conlim,则 lsqr 终止。对于兼容系统 Ax = bconlim 可以大到 1.0e+12(例如)。对于最小二乘问题,conlim 应小于 1.0e+8。通过设置 atol = btol = conlim = zero 可以获得最大精度,但迭代次数可能会过多。默认值为 1e8。

iter_limint, 可选

显式限制迭代次数(出于安全考虑)。

显示bool, 可选

显示迭代日志。默认为 False。

calc_varbool, 可选

是否估计 (A'A + damp^2*I)^{-1} 的对角线。

x0类似数组,形状 (n,),可选

x 的初始猜测值,如果为 None,则使用零。默认为 None。

Added in version 1.0.0.

返回:
x浮点数 ndarray

最终解决方案。

istop整数

给出终止的原因。1 表示 x 是 Ax = b 的近似解。2 表示 x 近似解决了最小二乘问题。

itn整数

终止时的迭代次数。

r1norm浮动

norm(r),其中 r = b - Ax

r2norm浮动

sqrt( norm(r)^2  +  damp^2 * norm(x - x0)^2 ). 如果 damp == 0,则等于 r1norm

anorm浮动

Abar = [[A]; [damp*I]] 的 Frobenius 范数估计。

acond浮动

cond(Abar) 的估计。

arnorm浮动

norm(A'@r - damp^2*(x - x0)) 的估计值。

xnorm浮动

norm(x)

变量浮点数 ndarray

如果 calc_var 为 True,则估计 (A'A)^{-1} (如果 damp == 0)或更一般地估计 (A'A + damp^2*I)^{-1} 的所有对角线。如果 A 具有满列秩或 damp > 0,则这是定义明确的。(不确定如果 rank(A) < ndamp = 0 时 var 的含义。)

注释

LSQR 使用迭代方法来近似求解。达到一定精度所需的迭代次数很大程度上取决于问题的规模。因此,应尽可能避免 A 的行或列的不良缩放。

例如,在问题1中,解不受行缩放的影响。如果A的一行与其他行相比非常小或大,则( A b )的相应行应向上或向下缩放。

在问题1和问题2中,解x可以通过列缩放轻松恢复。除非有更好的信息,否则A的非零列应缩放,使它们都具有相同的欧几里得范数(例如,1.0)。

在问题3中,如果阻尼不为零,则没有重新缩放的自由。然而,阻尼值的分配应在注意A的缩放之后进行。

参数 damp 旨在通过防止真实解变得非常大来帮助正则化病态系统。另一个正则化辅助由参数 acond 提供,它可用于在计算解变得非常大之前终止迭代。

如果已知某个初始估计值 x0 并且 damp == 0,可以按如下方式进行:

  1. 计算残差向量 r0 = b - A@x0

  2. 使用 LSQR 求解系统 A@dx = r0

  3. 添加修正 dx 以获得最终解 x = x0 + dx

这要求 x0 在调用 LSQR 之前和之后都可用。为了判断其好处,假设 LSQR 需要 k1 次迭代来求解 A@x = b,需要 k2 次迭代来求解 A@dx = r0。如果 x0 是“好的”,norm(r0) 将小于 norm(b)。如果对每个系统使用相同的停止容差 atol 和 btol,k1 和 k2 将相似,但最终解 x0 + dx 应该更精确。减少总工作的唯一方法是增加第二个系统的停止容差。如果某个值 btol 适合 A@x = b,那么更大的值 btol*norm(b)/norm(r0) 应该适合 A@dx = r0。

预处理是减少迭代次数的另一种方法。如果能够高效地求解一个相关系统 M@x = b,其中 M 以某种有益的方式近似 A(例如,M - A 的秩较低或其元素相对于 A 的元素较小),那么 LSQR 可能会在系统 A@M(inverse)@z = b 上更快地收敛,之后可以通过求解 M@x = z 来恢复 x。

如果A是对称的,不应使用LSQR!

替代方案是对称共轭梯度法(cg)和/或 SYMMLQ。SYMMLQ 是应用于任何对称 A 的对称 cg 的实现,并且比 LSQR 收敛更快。如果 A 是正定的,还有其他实现的对称 cg,它们在每次迭代中需要的计算量略少于 SYMMLQ(但将采取相同数量的迭代)。

参考文献

[1]

C. C. Paige and M. A. Saunders (1982a). “LSQR: An algorithm for sparse linear equations and sparse least squares”, ACM TOMS 8(1), 43-71.

[2]

C. C. Paige and M. A. Saunders (1982b). “Algorithm 583. LSQR: Sparse linear equations and least squares problems”, ACM TOMS 8(2), 195-209.

[3]

M. A. Saunders (1995). “Solution of sparse rectangular systems using LSQR and CRAIG”, BIT 35, 588-604.

示例

>>> import numpy as np
>>> from scipy.sparse import csc_matrix
>>> from scipy.sparse.linalg import lsqr
>>> A = csc_matrix([[1., 0.], [1., 1.], [0., 1.]], dtype=float)

第一个例子有一个平凡的解 [0, 0]

>>> b = np.array([0., 0., 0.], dtype=float)
>>> x, istop, itn, normr = lsqr(A, b)[:4]
>>> istop
0
>>> x
array([ 0.,  0.])

返回的停止代码 istop=0 表示找到了一个零向量作为解。返回的解 x 确实包含 [0., 0.]。下一个示例有一个非平凡解:

>>> b = np.array([1., 0., -1.], dtype=float)
>>> x, istop, itn, r1norm = lsqr(A, b)[:4]
>>> istop
1
>>> x
array([ 1., -1.])
>>> itn
1
>>> r1norm
4.440892098500627e-16

istop=1 所示,lsqr 找到了一个符合容差限制的解。给出的解 [1., -1.] 显然解决了方程。剩余的返回值包括关于迭代次数(itn=1)和已解方程左右两边剩余差异的信息。最后一个例子展示了当方程无解时的行为:

>>> b = np.array([1., 0.01, -1.], dtype=float)
>>> x, istop, itn, r1norm = lsqr(A, b)[:4]
>>> istop
2
>>> x
array([ 1.00333333, -0.99666667])
>>> A.dot(x)-b
array([ 0.00333333, -0.00333333,  0.00333333])
>>> r1norm
0.005773502691896255

istop 表示系统不一致,因此 x 更接近于相应最小二乘问题的近似解。r1norm 包含找到的最小残差的范数。