SVM:加权样本#

绘制加权数据集的决策函数,其中点的大小与其权重成正比。

样本加权会重新调整参数C,这意味着分类器会更加重视正确分类这些点。这个效果通常可能比较微妙。 为了强调这里的效果,我们特别对离群点进行加权,使决策边界的变形非常明显。

Constant weights, Modified weights
import matplotlib.pyplot as plt
import numpy as np

from sklearn import svm


def plot_decision_function(classifier, sample_weight, axis, title):
    # 绘制决策函数
    xx, yy = np.meshgrid(np.linspace(-4, 5, 500), np.linspace(-4, 5, 500))

    Z = classifier.decision_function(np.c_[xx.ravel(), yy.ravel()])
    Z = Z.reshape(xx.shape)

    # 绘制直线、点和最近的向量到平面
    axis.contourf(xx, yy, Z, alpha=0.75, cmap=plt.cm.bone)
    axis.scatter(
        X[:, 0],
        X[:, 1],
        c=y,
        s=100 * sample_weight,
        alpha=0.9,
        cmap=plt.cm.bone,
        edgecolors="black",
    )

    axis.axis("off")
    axis.set_title(title)


# 我们创建了20个点
np.random.seed(0)
X = np.r_[np.random.randn(10, 2) + [1, 1], np.random.randn(10, 2)]
y = [1] * 10 + [-1] * 10
sample_weight_last_ten = abs(np.random.randn(len(X)))
sample_weight_constant = np.ones(len(X))
# 并且对一些异常值赋予更大的权重
sample_weight_last_ten[15:] *= 5
sample_weight_last_ten[9] *= 15

# 拟合模型。

# 此模型未考虑样本权重。
clf_no_weights = svm.SVC(gamma=1)
clf_no_weights.fit(X, y)

# 这个其他模型考虑了一些专用的样本权重。
clf_weights = svm.SVC(gamma=1)
clf_weights.fit(X, y, sample_weight=sample_weight_last_ten)

fig, axes = plt.subplots(1, 2, figsize=(14, 6))
plot_decision_function(
    clf_no_weights, sample_weight_constant, axes[0], "Constant weights"
)
plot_decision_function(clf_weights, sample_weight_last_ten, axes[1], "Modified weights")

plt.show()

Total running time of the script: (0 minutes 0.260 seconds)

Related examples

随机梯度下降:加权样本

随机梯度下降:加权样本

sphx_glr_auto_examples_exercises_plot_iris_exercise.py

SVM 练习

使用局部离群因子(LOF)进行新颖性检测

使用局部离群因子(LOF)进行新颖性检测

SVM 边界示例

SVM 边界示例

Gallery generated by Sphinx-Gallery