scipy.sparse.linalg.

lgmres#

scipy.sparse.linalg.lgmres(A, b, x0=None, *, rtol=1e-05, atol=0.0, maxiter=1000, M=None, callback=None, inner_m=30, outer_k=3, outer_v=None, store_outer_Av=True, prepend_outer_v=False)[源代码][源代码]#

使用LGMRES算法求解矩阵方程。

LGMRES 算法 [1] [2] 旨在避免重启 GMRES 中的一些收敛问题,并且通常在更少的迭代次数内收敛。

参数:
A{稀疏矩阵, ndarray, 线性算子}

线性系统的实数或复数 N×N 矩阵。或者,A 可以是一个线性算子,它可以通过例如 scipy.sparse.linalg.LinearOperator 生成 Ax

bndarray

线性系统的右侧。形状为 (N,) 或 (N,1)。

x0ndarray

解决方案的初始猜测。

rtol, atolfloat, 可选

收敛测试的参数。为了收敛,norm(b - A @ x) <= max(rtol*norm(b), atol) 应该被满足。默认值为 rtol=1e-5atol 的默认值为 0.0

maxiterint, 可选

最大迭代次数。即使未达到指定的容差,迭代也将在 maxiter 步后停止。

M{稀疏矩阵, ndarray, 线性算子}, 可选

A 的预处理器。预处理器应近似 A 的逆。有效的预处理显著提高了收敛速度,这意味着达到给定误差容限所需的迭代次数更少。

回调函数, 可选

用户提供的函数,在每次迭代后调用。它被调用为 callback(xk),其中 xk 是当前的解向量。

inner_mint, 可选

每次外循环中的内部GMRES迭代次数。

outer_kint, 可选

在内部 GMRES 迭代之间传递的向量数量。根据 [1],良好的值在 1…3 范围内。然而,请注意,如果您想使用这些额外的向量来加速解决多个类似问题,较大的值可能会带来好处。

outer_v元组列表,可选

包含向量和相应矩阵-向量乘积的元组 (v, Av) 的列表,用于增强Krylov子空间,并在内部GMRES迭代之间传递。如果矩阵-向量乘积需要重新计算,元素 Av 可以是 None。此参数由 lgmres 原地修改,并且可以在解决相似问题时用于在算法中传递“猜测”向量。

store_outer_Avbool, 可选

LGMRES 是否还应在 outer_v 列表中存储 A@v 以及向量 v。默认值为 True。

prepend_outer_vbool, 可选

是否在Krylov迭代之前放置outer_v增强向量。在标准的LGMRES中,prepend_outer_v=False。

返回:
xndarray

融合的解决方案。

信息整数

提供收敛信息:

  • 0 : 成功退出

  • >0 : 未达到容差收敛,迭代次数

  • <0 : 非法输入或中断

注释

LGMRES算法 [1] [2] 旨在避免由于交替残差向量导致的重启GMRES中的收敛减慢。通常,它在某些衡量标准下经常优于具有相似内存需求的GMRES(m),或者至少不会差太多。

该算法的另一个优点是,您可以在 outer_v 参数中提供 ‘猜测’ 向量,这些向量可以增强Krylov子空间。如果解接近这些向量的跨度,算法会更快收敛。如果需要连续求解几个非常相似的矩阵,例如在非线性步骤中雅可比矩阵变化不大的Newton-Krylov迭代中,这会非常有用。

参考文献

[1] (1,2,3)

A.H. Baker 和 E.R. Jessup 和 T. Manteuffel, “一种加速重启 GMRES 收敛的技术”, SIAM J. Matrix Anal. Appl. 26, 962 (2005).

[2] (1,2)

A.H. Baker, “关于改进重启GMRES线性求解器性能”, 博士论文, 科罗拉多大学 (2003).

示例

>>> import numpy as np
>>> from scipy.sparse import csc_matrix
>>> from scipy.sparse.linalg import lgmres
>>> A = csc_matrix([[3, 2, 0], [1, -1, 0], [0, 5, 1]], dtype=float)
>>> b = np.array([2, 4, -1], dtype=float)
>>> x, exitCode = lgmres(A, b, atol=1e-5)
>>> print(exitCode)            # 0 indicates successful convergence
0
>>> np.allclose(A.dot(x), b)
True