博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
多元线性回归算法python实现(非常经典)
阅读量:4550 次
发布时间:2019-06-08

本文共 1381 字,大约阅读时间需要 4 分钟。

对于多元线性回归算法,它对于数据集具有较好的可解释性,我们可以对比不过特征参数的输出系数的大小来判断它对数据的影响权重,进而对其中隐含的参数进行扩展和收集,提高整体训练数据的准确性。 整体实现代码如下所示: #1-1导入相应的基础数据集模块 import numpy as np import matplotlib.pyplot as plt from sklearn import datasets d=datasets.load_boston() print(d.data) print(d.DESCR) print(d.feature_names) print(d.data[:,5]) x=d.data[d.target<50] y=d.target[d.target<50] #1-2使用多元线性回归法对其进行训练和预测 from sklearn.linear_model import LinearRegression   #引入多元线性回归算法模块进行相应的训练 simple2=LinearRegression() from sklearn.model_selection import train_test_split x_train,x_test,y_train,y_test=train_test_split(x,y,random_state=666) simple2.fit(x_train,y_train) print(simple2.coef_)               #输出多元线性回归的各项系数 print(simple2.intercept_)          #输出多元线性回归的常数项的值 y_predict=simple2.predict(x_test) #1-3利用sklearn里面的merics模块导出三大评价指标进行评价,直接进行调用计算 from sklearn.metrics import mean_absolute_error from sklearn.metrics import mean_squared_error from sklearn.metrics import r2_score                #直接调用库函数进行输出R2 print(mean_squared_error(y_test,y_predict)) print(mean_absolute_error(y_test,y_predict)) print(r2_score(y_test,y_predict)) print(simple2.score(x_test,y_test)) print(simple2.coef_)               #输出多元回归算法的各个特征的系数矩阵 print(np.argsort(simple2.coef_))  #输出多元线性回归算法各个特征的系数排序,可以知道各个特征的影响度 print(d.feature_names[np.argsort(simple2.coef_)])  #输出各个特征按照影响系数从小到大的顺序 实现结果如下所示:

 

转载于:https://www.cnblogs.com/Yanjy-OnlyOne/p/11302732.html

你可能感兴趣的文章
浅谈 Python 的 with 语句
查看>>
使用koa+angular+mysql 完成了一个企业站
查看>>
SQL使用范例
查看>>
转 SQL集合函数中利用case when then 技巧
查看>>
WEB ICON 的探讨
查看>>
[内核编程] 键盘过滤第一个例子ctrl2cap(4.1~4.4)汇总,测试
查看>>
Java读书笔记05 类与对象
查看>>
正则表达式语法 2
查看>>
c# winform 应用程序根据条件阻止窗口关闭
查看>>
转载:简单的php写入数据库类
查看>>
垂直居中的几种实现方法
查看>>
UILabel标签文字过长时的显示方式
查看>>
H5离线缓存机制-manifest
查看>>
比较:I/O成员函数getline() 与 get()(第二种用法)的用法异同
查看>>
201671010118 2016-2017-2《Java程序设计》 第十一周学习心得
查看>>
Get Sauce(状压DP)
查看>>
Office2007 升级到 office2010
查看>>
Python+Selenium 自动化实现实例-Xpath捕捉元素的几种方法
查看>>
SpringBoot整合Hibernate
查看>>
PPT1 例2
查看>>