线性回归示例#

下面的示例仅使用 diabetes 数据集的第一个特征,以便在二维图中展示数据点。 在图中可以看到一条直线,显示了线性回归如何尝试绘制一条直线,以最佳地最小化数据集中观察到的响应与线性近似预测的响应之间的残差平方和。

还计算了系数、残差平方和以及决定系数。

plot ols
Coefficients:
 [938.23786125]
Mean squared error: 2548.07
Coefficient of determination: 0.47

# 代码来源:Jaques Grobler
# SPDX许可证标识符:BSD-3-Clause

import matplotlib.pyplot as plt
import numpy as np

from sklearn import datasets, linear_model
from sklearn.metrics import mean_squared_error, r2_score

# 加载糖尿病数据集
diabetes_X, diabetes_y = datasets.load_diabetes(return_X_y=True)

# 只使用一个特征
diabetes_X = diabetes_X[:, np.newaxis, 2]

# 将数据分成训练集和测试集
diabetes_X_train = diabetes_X[:-20]
diabetes_X_test = diabetes_X[-20:]

# 将目标分成训练集和测试集
diabetes_y_train = diabetes_y[:-20]
diabetes_y_test = diabetes_y[-20:]

# 创建线性回归对象
regr = linear_model.LinearRegression()

# 使用训练集训练模型
regr.fit(diabetes_X_train, diabetes_y_train)

# 使用测试集进行预测
diabetes_y_pred = regr.predict(diabetes_X_test)

# The coefficients
print("Coefficients: \n", regr.coef_)
# 均方误差
print("Mean squared error: %.2f" % mean_squared_error(diabetes_y_test, diabetes_y_pred))
# 决定系数:1 是完美预测
print("Coefficient of determination: %.2f" % r2_score(diabetes_y_test, diabetes_y_pred))

# 绘图输出
plt.scatter(diabetes_X_test, diabetes_y_test, color="black")
plt.plot(diabetes_X_test, diabetes_y_pred, color="blue", linewidth=3)

plt.xticks(())
plt.yticks(())

plt.show()

Total running time of the script: (0 minutes 0.017 seconds)

Related examples

非负最小二乘法

非负最小二乘法

机器学习在推断因果效应方面的失败

机器学习在推断因果效应方面的失败

逻辑函数

逻辑函数

基于L1的稀疏信号模型

基于L1的稀疏信号模型

Gallery generated by Sphinx-Gallery