scipy.optimize.
安德森#
- scipy.optimize.anderson(F, xin, iter=None, alpha=None, w0=0.01, M=5, verbose=False, maxiter=None, f_tol=None, f_rtol=None, x_tol=None, x_rtol=None, tol_norm=None, line_search='armijo', callback=None, **kw)#
使用(扩展的)Anderson混合方法找到函数的根。
雅可比矩阵是在由最后 M 个向量张成的空间中形成一个 ‘最佳’ 解。因此,只需要进行 MxM 矩阵的求逆和 MxN 矩阵的乘法。[Ey]
- 参数:
- Ffunction(x) -> f
要查找其根的函数;应接受并返回类似数组的对象。
- xinarray_like
解决方案的初步猜测
- alphafloat, 可选
雅可比矩阵的初始猜测是 (-1/alpha)。
- Mfloat, 可选
保留的先前向量数量。默认为5。
- w0float, 可选
用于数值稳定性的正则化参数。与单位相比,良好的数值约为0.01。
- iterint, 可选
要进行的迭代次数。如果省略(默认),则进行尽可能多的迭代以满足容差要求。
- 详细bool, 可选
在每次迭代时将状态打印到标准输出。
- maxiterint, 可选
最大迭代次数。如果需要更多次数才能达到收敛,则会引发
NoConvergence
。- f_tolfloat, 可选
残差的绝对容差(在最大范数中)。如果省略,默认值为 6e-6。
- f_rtolfloat, 可选
残差的相对容差。如果省略,则不使用。
- x_tolfloat, 可选
绝对最小步长,由雅可比近似确定。如果步长小于此值,则优化成功终止。如果省略,则不使用。
- x_rtolfloat, 可选
相对最小步长。如果省略,则不使用。
- tol_normfunction(vector) -> 标量, 可选
用于收敛检查的范数。默认是最大范数。
- line_search{None, ‘armijo’ (默认), ‘wolfe’}, 可选
使用哪种类型的线搜索来确定由雅可比近似给出的方向中的步长。默认为 ‘armijo’。
- 回调函数, 可选
可选的回调函数。它在每次迭代时被调用,形式为
callback(x, f)
,其中 x 是当前的解,f 是对应的残差。
- 返回:
- solndarray
一个数组(与 x0 类型相同的数组),包含最终的解。
- Raises:
- NoConvergence
当未找到解决方案时。
参见
root
多变量函数根查找算法的接口。特别参见
method='anderson'
。
参考文献
[Ey]Eyert, J. Comp. Phys., 124, 271 (1996).
示例
以下函数定义了一个非线性方程组
>>> def fun(x): ... return [x[0] + 0.5 * (x[0] - x[1])**3 - 1.0, ... 0.5 * (x[1] - x[0])**3 + x[1]]
解决方案可以如下获得。
>>> from scipy import optimize >>> sol = optimize.anderson(fun, [0, 0]) >>> sol array([0.84116588, 0.15883789])