SVM:用于不平衡类别的分离超平面#

使用SVC为不平衡类别找到最优分离超平面。

我们首先使用普通的SVC找到分离平面,然后绘制(虚线)自动校正不平衡类别的分离超平面。

Note

通过将 SVC(kernel="linear") 替换为 SGDClassifier(loss="hinge") ,此示例也能正常工作。将:class:SGDClassifierloss 参数设置为 hinge 将产生类似于具有线性核的SVC的行为。

例如,可以尝试替换 SVC 为:

clf = SGDClassifier(n_iter=100, alpha=0.01)
plot separating hyperplane unbalanced
import matplotlib.lines as mlines
import matplotlib.pyplot as plt

from sklearn import svm
from sklearn.datasets import make_blobs
from sklearn.inspection import DecisionBoundaryDisplay

# 我们创建了两个随机点的簇
n_samples_1 = 1000
n_samples_2 = 100
centers = [[0.0, 0.0], [2.0, 2.0]]
clusters_std = [1.5, 0.5]
X, y = make_blobs(
    n_samples=[n_samples_1, n_samples_2],
    centers=centers,
    cluster_std=clusters_std,
    random_state=0,
    shuffle=False,
)

# 拟合模型并获得分离超平面
clf = svm.SVC(kernel="linear", C=1.0)
clf.fit(X, y)

# 拟合模型并使用加权类别获得分离超平面
wclf = svm.SVC(kernel="linear", class_weight={1: 10})
wclf.fit(X, y)

# 绘制样本
plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.Paired, edgecolors="k")

# 绘制两个分类器的决策函数
ax = plt.gca()
disp = DecisionBoundaryDisplay.from_estimator(
    clf,
    X,
    plot_method="contour",
    colors="k",
    levels=[0],
    alpha=0.5,
    linestyles=["-"],
    ax=ax,
)

# 为加权类别绘制决策边界和边距
wdisp = DecisionBoundaryDisplay.from_estimator(
    wclf,
    X,
    plot_method="contour",
    colors="r",
    levels=[0],
    alpha=0.5,
    linestyles=["-"],
    ax=ax,
)

plt.legend(
    [
        mlines.Line2D([], [], color="k", label="non weighted"),
        mlines.Line2D([], [], color="r", label="weighted"),
    ],
    ["non weighted", "weighted"],
    loc="upper right",
)
plt.show()

Total running time of the script: (0 minutes 0.081 seconds)

Related examples

SVM:最大间隔分离超平面

SVM:最大间隔分离超平面

在鸢尾花数据集上绘制不同的SVM分类器

在鸢尾花数据集上绘制不同的SVM分类器

在 LinearSVC 中绘制支持向量

在 LinearSVC 中绘制支持向量

使用非线性核(RBF)的单类SVM

使用非线性核(RBF)的单类SVM

Gallery generated by Sphinx-Gallery