scipy.sparse.csgraph.

min_weight_full_bipartite_matching#

scipy.sparse.csgraph.min_weight_full_bipartite_matching(biadjacency_matrix, maximize=False)#

返回二分图的最小权重完全匹配。

Added in version 1.6.0.

参数:
biadjacency_matrix稀疏矩阵

二部图的邻接矩阵:一个以CSR、CSC或COO格式存储的稀疏矩阵,其行表示图的一个分区,列表示另一个分区。两个顶点之间的边由矩阵中相应的条目表示,边的权重由该条目的值给出。这不应与图的全邻接矩阵混淆,因为我们只需要定义二部图结构的子矩阵。

最大化bool (默认: False)

如果为真,则计算最大权重匹配。

返回:
row_ind, col_ind数组

一个行索引数组和相应的列索引数组,给出最佳匹配。匹配的总权重可以计算为 graph[row_ind, col_ind].sum()。行索引将被排序;在方阵的情况下,它们将等于 numpy.arange(graph.shape[0])

注释

\(G = ((U, V), E)\) 为一个带权二分图,其权重为非零值 \(w : E \to \mathbb{R} \setminus \{0\}\)。该函数生成一个匹配 \(M \subseteq E\),其基数为

\[|M| = \min(|U|, |V|),\]

该算法最小化匹配中包含的边的权重之和,\(\sum_{e \in M} w(e)\),或者在不存在此类匹配时引发错误。

\(\lvert U \rvert = \lvert V \rvert\) 时,这通常被称为完美匹配;在这里,由于我们允许 \(\lvert U \rvert\)\(\lvert V \rvert\) 不同,我们遵循 Karp [1] 并将这种匹配称为 完全

此函数实现了 LAPJVsp 算法 [2],即“线性分配问题,Jonker–Volgenant,稀疏”的缩写。

它解决的问题等同于矩形线性分配问题。[3] 因此,这个函数可以用来解决与 scipy.optimize.linear_sum_assignment 相同的问题。当输入是密集的,或者对于某些特定类型的输入(例如,其中 \((i, j)\) 项是欧几里得空间中两点之间的距离),该函数可能表现更好。

如果没有完全匹配存在,此函数会引发一个 ValueError。要确定图中最大匹配的大小,请参见 maximum_bipartite_matching

我们要求权重为非零值,只是为了避免在不同稀疏表示之间转换时处理显式零值的问题。零权重可以通过将一个常数加到所有权重上来处理,从而使结果矩阵不包含零值。

如果存在多个有效解决方案,输出可能会因 SciPy 和 Python 版本的不同而有所变化。

参考文献

[1]

Richard Manning Karp: 一种在预期时间 O(mn log n) 内解决 m x n 分配问题的算法。《网络》, 10(2):143-152, 1980.

[2]

Roy Jonker 和 Anton Volgenant: 一种用于密集和稀疏线性分配问题的最短增广路径算法。计算 38:325-340, 1987。

示例

>>> from scipy.sparse import csr_matrix
>>> from scipy.sparse.csgraph import min_weight_full_bipartite_matching

首先,让我们考虑一个所有权重都相等的例子:

>>> biadjacency_matrix = csr_matrix([[1, 1, 1], [1, 0, 0], [0, 1, 0]])

在这里,我们得到的是图的完美匹配:

>>> print(min_weight_full_bipartite_matching(biadjacency_matrix)[1])
[2 0 1]

也就是说,第一、第二和第三行分别与第三、第一和第二列匹配。请注意,在这个例子中,输入矩阵中的0并不对应于权重为0的边,而是表示一对顶点之间没有通过边配对。

还要注意,在这种情况下,输出与应用 maximum_bipartite_matching 的结果相匹配:

>>> from scipy.sparse.csgraph import maximum_bipartite_matching
>>> biadjacency = csr_matrix([[1, 1, 1], [1, 0, 0], [0, 1, 0]])
>>> print(maximum_bipartite_matching(biadjacency, perm_type='column'))
[2 0 1]

当有多条边可用时,优先选择权重最低的边:

>>> biadjacency = csr_matrix([[3, 3, 6], [4, 3, 5], [10, 1, 8]])
>>> row_ind, col_ind = min_weight_full_bipartite_matching(biadjacency)
>>> print(col_ind)
[0 2 1]

在这种情况下,总重量是 \(3 + 5 + 1 = 9\):

>>> print(biadjacency[row_ind, col_ind].sum())
9

当矩阵不是方阵时,即当两个分区具有不同的基数时,匹配的大小为两个分区中较小的一个:

>>> biadjacency = csr_matrix([[0, 1, 1], [0, 2, 3]])
>>> row_ind, col_ind = min_weight_full_bipartite_matching(biadjacency)
>>> print(row_ind, col_ind)
[0 1] [2 1]
>>> biadjacency = csr_matrix([[0, 1], [3, 1], [1, 4]])
>>> row_ind, col_ind = min_weight_full_bipartite_matching(biadjacency)
>>> print(row_ind, col_ind)
[0 2] [1 0]

当一个或两个分区为空时,匹配也为空:

>>> biadjacency = csr_matrix((2, 0))
>>> row_ind, col_ind = min_weight_full_bipartite_matching(biadjacency)
>>> print(row_ind, col_ind)
[] []

一般来说,我们将总是得到与使用 scipy.optimize.linear_sum_assignment 相同的权重总和,但请注意,对于后者,缺失的边由矩阵条目 float('inf') 表示。让我们生成一个随机稀疏矩阵,其整数条目在1到10之间:

>>> import numpy as np
>>> from scipy.sparse import random
>>> from scipy.optimize import linear_sum_assignment
>>> sparse = random(10, 10, random_state=42, density=.5, format='coo') * 10
>>> sparse.data = np.ceil(sparse.data)
>>> dense = sparse.toarray()
>>> dense = np.full(sparse.shape, np.inf)
>>> dense[sparse.row, sparse.col] = sparse.data
>>> sparse = sparse.tocsr()
>>> row_ind, col_ind = linear_sum_assignment(dense)
>>> print(dense[row_ind, col_ind].sum())
28.0
>>> row_ind, col_ind = min_weight_full_bipartite_matching(sparse)
>>> print(sparse[row_ind, col_ind].sum())
28.0