scipy.optimize.

diagbroyden#

scipy.optimize.diagbroyden(F, xin, iter=None, alpha=None, verbose=False, maxiter=None, f_tol=None, f_rtol=None, x_tol=None, x_rtol=None, tol_norm=None, line_search='armijo', callback=None, **kw)#

使用对角Broyden Jacobian近似法寻找函数的根。

雅可比近似是通过保留Broyden矩阵的对角线,从前几次迭代中推导出来的。

警告

该算法可能对特定问题有用,但它是否有效可能很大程度上取决于问题本身。

参数:
Ffunction(x) -> f

要查找其根的函数;应接受并返回类似数组的对象。

xinarray_like

解决方案的初步猜测

alphafloat, 可选

雅可比矩阵的初始猜测是 (-1/alpha)。

iterint, 可选

要进行的迭代次数。如果省略(默认),则进行尽可能多的迭代以满足容差要求。

详细bool, 可选

在每次迭代时将状态打印到标准输出。

maxiterint, 可选

最大迭代次数。如果需要更多次数才能达到收敛,则会引发 NoConvergence

f_tolfloat, 可选

残差的绝对容差(在最大范数中)。如果省略,默认值为 6e-6。

f_rtolfloat, 可选

残差的相对容差。如果省略,则不使用。

x_tolfloat, 可选

绝对最小步长,由雅可比近似确定。如果步长小于此值,则优化成功终止。如果省略,则不使用。

x_rtolfloat, 可选

相对最小步长。如果省略,则不使用。

tol_normfunction(vector) -> 标量, 可选

用于收敛检查的范数。默认是最大范数。

line_search{None, ‘armijo’ (默认), ‘wolfe’}, 可选

使用哪种类型的线搜索来确定由雅可比近似给出的方向中的步长。默认为 ‘armijo’。

回调函数, 可选

可选的回调函数。它在每次迭代时被调用,形式为 callback(x, f),其中 x 是当前的解,f 是对应的残差。

返回:
solndarray

一个数组(与 x0 类型相同的数组),包含最终的解。

Raises:
NoConvergence

当未找到解决方案时。

参见

root

多变量函数根查找算法的接口。特别参见 method='diagbroyden'

示例

以下函数定义了一个非线性方程组

>>> def fun(x):
...     return [x[0]  + 0.5 * (x[0] - x[1])**3 - 1.0,
...             0.5 * (x[1] - x[0])**3 + x[1]]

解决方案可以如下获得。

>>> from scipy import optimize
>>> sol = optimize.diagbroyden(fun, [0, 0])
>>> sol
array([0.84116403, 0.15883384])