优化和求根 (scipy.optimize)#

SciPy optimize 提供了用于最小化(或最大化)目标函数的函数,可能受到约束。它包括用于非线性问题的求解器(支持局部和全局优化算法)、线性规划、约束和非线性最小二乘法、根查找和曲线拟合。

常见的函数和对象,在不同的求解器之间共享,包括:

show_options([solver, method, disp])

显示优化求解器的附加选项的文档。

OptimizeResult

表示优化结果。

OptimizeWarning

优化#

标量函数优化#

minimize_scalar(fun[, bracket, bounds, ...])

局部最小化单变量标量函数。

minimize_scalar 函数支持以下方法:

局部(多变量)优化#

minimize(fun, x0[, args, method, jac, hess, ...])

最小化一个或多个变量的标量函数。

minimize 函数支持以下方法:

约束条件作为单个对象或以下类的对象列表传递给 minimize 函数:

NonlinearConstraint(fun, lb, ub[, jac, ...])

变量的非线性约束。

LinearConstraint(A[, lb, ub, keep_feasible])

变量上的线性约束。

简单边界约束是单独处理的,并且有一个专门的类来处理它们:

Bounds([lb, ub, keep_feasible])

变量的边界约束。

实现 HessianUpdateStrategy 接口的拟牛顿策略可以用于在 minimize 函数中近似 Hessian 矩阵(仅适用于 ‘trust-constr’ 方法)。实现此接口的可用拟牛顿方法有:

BFGS([exception_strategy, min_curvature, ...])

Broyden-Fletcher-Goldfarb-Shanno (BFGS) 海森矩阵更新策略。

SR1([min_denominator, init_scale])

对称秩-1 Hessian 更新策略。

全局优化#

basinhopping(func, x0[, niter, T, stepsize, ...])

使用 basin-hopping 算法找到函数的全局最小值。

brute(func, ranges[, args, Ns, full_output, ...])

通过暴力方法在给定范围内最小化一个函数。

differential_evolution(func, bounds[, args, ...])

找到多元函数的全局最小值。

shgo(func, bounds[, args, constraints, n, ...])

使用SHG优化找到函数的全局最小值。

dual_annealing(func, bounds[, args, ...])

使用双退火法找到函数的全局最小值。

direct(func, bounds, *[, args, eps, maxfun, ...])

使用DIRECT算法找到函数的全局最小值。

最小二乘法和曲线拟合#

非线性最小二乘#

least_squares(fun, x0[, jac, bounds, ...])

求解带有变量边界约束的非线性最小二乘问题。

线性最小二乘法#

nnls(A, b[, maxiter, atol])

求解 argmin_x || Ax - b ||_2 对于 x>=0

lsq_linear(A, b[, bounds, method, tol, ...])

求解带有变量边界约束的线性最小二乘问题。

isotonic_regression(y, *[, weights, increasing])

非参数保序回归。

曲线拟合#

curve_fit(f, xdata, ydata[, p0, sigma, ...])

使用非线性最小二乘法来拟合一个函数 f 到数据上。

根查找#

标量函数#

root_scalar(f[, args, method, bracket, ...])

找到一个标量函数的根。

brentq(f, a, b[, args, xtol, rtol, maxiter, ...])

使用 Brent 方法在区间内查找函数的根。

brenth(f, a, b[, args, xtol, rtol, maxiter, ...])

使用Brent方法与双曲线外推法在区间内寻找函数的根。

ridder(f, a, b[, args, xtol, rtol, maxiter, ...])

使用Ridder方法在区间内寻找函数的根。

bisect(f, a, b[, args, xtol, rtol, maxiter, ...])

使用二分法在区间内寻找函数的根。

newton(func, x0[, fprime, args, tol, ...])

使用牛顿-拉夫森(或割线法或哈雷法)方法求解实数或复数函数的根。

toms748(f, a, b[, args, k, xtol, rtol, ...])

使用 TOMS 算法 748 方法寻找根。

RootResults(root, iterations, ...)

表示根查找结果。

root_scalar 函数支持以下方法:

下表列出了各种情况及相应的方法,以及每次迭代(和每次函数评估)的成功收敛到单根(*)的*渐近*收敛率。二分法是最慢的,每次函数评估增加一位精度,但保证收敛。其他括号方法最终都会在每次函数评估时将精确位数增加约50%。基于导数的方法,都是基于`newton`构建的,如果初始值接近根,可以非常快速地收敛。它们也可以应用于定义在(复平面的某个子集)上的函数。

f 的定义域

括号?

导数?

求解器

收敛

fprime

fprime2

保证?

费率(*)

R

N/A

N/A

  • bisection

  • brentq

  • brenth

  • 骑士

  • toms748

  • 1 “线性”

  • >=1, <= 1.62

  • >=1, <= 1.62

  • 2.0 (1.41)

  • 2.7 (1.65)

RC

割线

1.62 (1.62)

RC

牛顿

2.00 (1.41)

RC

哈雷

3.00 (1.44)

参见

scipy.optimize.cython_optimize – 根查找函数的类型化 Cython 版本

定点查找:

fixed_point(func, x0[, args, xtol, maxiter, ...])

找到函数的固定点。

多维#

root(fun, x0[, args, method, jac, tol, ...])

找到一个向量函数的根。

root 函数支持以下方法:

线性规划 / MILP#

milp(c, *[, integrality, bounds, ...])

混合整数线性规划

linprog(c[, A_ub, b_ub, A_eq, b_eq, bounds, ...])

线性规划:在满足线性等式和不等式约束的条件下,最小化线性目标函数。

linprog 函数支持以下方法:

单纯形法、内点法和改进单纯形法支持回调函数,例如:

linprog_verbose_callback(res)

一个演示 linprog 回调接口的示例回调函数。

分配问题#

linear_sum_assignment

解决线性和分配问题。

quadratic_assignment(A, B[, method, options])

近似求解二次分配问题和图匹配问题。

quadratic_assignment 函数支持以下方法:

实用工具#

有限差分近似#

approx_fprime(xk, f[, epsilon])

标量或向量值函数的导数的有限差分近似。

check_grad(func, grad, x0, *args[, epsilon, ...])

通过将其与梯度的(前向)有限差分近似进行比较,检查梯度函数的正确性。

Hessian 近似#

LbfgsInvHessProduct(*args, **kwargs)

用于 L-BFGS 近似逆 Hessian 的线性算子。

HessianUpdateStrategy()

用于实现 Hessian 更新策略的接口。

基准问题#

rosen(x)

Rosenbrock 函数。

rosen_der(x)

Rosenbrock 函数的导数(即梯度)。

rosen_hess(x)

Rosenbrock 函数的海森矩阵。

rosen_hess_prod(x, p)

Rosenbrock 函数的 Hessian 矩阵与向量的乘积。

旧版功能#

以下函数不推荐在新脚本中使用;所有这些方法都可以通过上述接口提供的更新、更一致的接口访问。

优化#

通用多变量方法:

fmin(func, x0[, args, xtol, ftol, maxiter, ...])

使用下坡单纯形算法最小化一个函数。

fmin_powell(func, x0[, args, xtol, ftol, ...])

使用修正的Powell方法最小化一个函数。

fmin_cg(f, x0[, fprime, args, gtol, norm, ...])

使用非线性共轭梯度算法最小化一个函数。

fmin_bfgs(f, x0[, fprime, args, gtol, norm, ...])

使用BFGS算法最小化一个函数。

fmin_ncg(f, x0, fprime[, fhess_p, fhess, ...])

使用 Newton-CG 方法对函数进行无约束最小化。

约束多元方法:

fmin_l_bfgs_b(func, x0[, fprime, args, ...])

使用 L-BFGS-B 算法最小化函数 func。

fmin_tnc(func, x0[, fprime, args, ...])

使用截断牛顿算法,在有边界约束的变量下最小化一个函数,并利用梯度信息。

fmin_cobyla(func, x0, cons[, args, ...])

使用线性近似约束优化(COBYLA)方法最小化一个函数。

fmin_slsqp(func, x0[, eqcons, f_eqcons, ...])

使用序列最小二乘编程最小化函数

单变量(标量)最小化方法:

fminbound(func, x1, x2[, args, xtol, ...])

标量函数的边界最小化。

brent(func[, args, brack, tol, full_output, ...])

给定一个单变量函数和一个可能的括号,返回一个局部最小值,其精度达到 tol 的小数位数。

golden(func[, args, brack, tol, ...])

使用黄金分割法返回一个单变量函数的极小值。

最小二乘法#

leastsq(func, x0[, args, Dfun, full_output, ...])

最小化一组方程的平方和。

根查找#

通用非线性求解器:

fsolve(func, x0[, args, fprime, ...])

找到一个函数的根。

broyden1(F, xin[, iter, alpha, ...])

使用Broyden的第一个雅可比近似法找到函数的根。

broyden2(F, xin[, iter, alpha, ...])

使用Broyden的第二个雅可比近似法找到函数的根。

NoConvergence

当非线性求解器在指定的 maxiter 内未能收敛时引发的异常。

大规模非线性求解器:

newton_krylov(F, xin[, iter, rdiff, method, ...])

使用Krylov近似逆雅可比矩阵求解函数的根。

anderson(F, xin[, iter, alpha, w0, M, ...])

使用(扩展的)Anderson混合方法找到函数的根。

BroydenFirst([alpha, reduction_method, max_rank])

使用Broyden的第一个雅可比近似法找到函数的根。

InverseJacobian(jacobian)

KrylovJacobian([rdiff, method, ...])

使用Krylov近似逆雅可比矩阵求解函数的根。

简单的迭代求解器:

excitingmixing(F, xin[, iter, alpha, ...])

使用调整后的对角雅可比近似法找到函数的根。

linearmixing(F, xin[, iter, alpha, verbose, ...])

使用标量雅可比近似法找到函数的根。

diagbroyden(F, xin[, iter, alpha, verbose, ...])

使用对角Broyden Jacobian近似法寻找函数的根。