<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
一個好的迴歸模型,不是自變數個數越多越好。在建立迴歸模型的時候,選擇自變數的基本指導思想是少而精。丟棄了一些對因變數y有影響的自變數後,所付出的代價就是估計量產生了有偏性,但是預測偏差的方差會下降。因此,自變數的選擇有重要的實際意義。
所謂所有子集迴歸,就是將總的自變數的所有子集進行考慮,檢視哪一個子集是最優解。
import pandas as pd import numpy as np import statsmodels.api as sm import statsmodels.formula.api as smf from itertools import combinations def allziji(df): list1 = [1,2,3] n = 18 R2 = [] names = [] #找到所有子集,並依次迴圈 for a in range(len(list1)+1): for b in combinations(list1,a+1): p = len(list(b)) data1 = pd.concat([df.iloc[:,i-1] for i in list(b) ],axis = 1)#結合所需因子 name = "y~"+("+".join(data1.columns))#組成公式 data = pd.concat([df['y'],data1],axis=1)#結合自變數和因變數 result = smf.ols(name,data=data).fit()#建模 #計算R2a r2 = (n-1)/(n-p-1) r2 = r2 * (1-result.rsquared**2) r2 = 1 - r2 R2.append(r2) names.append(name) finall = {"公式":names, "R2a":R2} data = pd.DataFrame(finall) print("""根據自由度調整複決定係數準則得到: 最優子集迴歸模型為:{}; 其R2a值為:{}""".format(data.iloc[data['R2a'].argmax(),0],data.iloc[data['R2a'].argmax(),1])) result = smf.ols(name,data=df).fit()#建模 print() print(result.summary())
df = pd.read_csv("data5.csv") allziji(df)
後退法與前進法相反,通常先用全部m個變數建立一個迴歸方程,然後計算在剔除任意一個變數後迴歸方程所對應的AIC統計量的值,選出最小的AIC值所對應的需要剔除的變數,不妨記作x1;然後,建立剔除變數x1後因變數y對剩餘m-1個變數的迴歸方程,計算在該回歸方程中再任意剔除一個變數後所得迴歸方程的AIC值,選出最小的AIC值並確定應該剔除的變數;依此類推,直至迴歸方程中剩餘的p個變數中再任意剔除一個 AIC值都會增加,此時已經沒有可以繼續剔除的自變數,因此包含這p個變數的迴歸方程就是最終確定的方程。
import pandas as pd import numpy as np import statsmodels.api as sm import statsmodels.formula.api as smf def backward(df): all_bianliang = [i for i in range(0,9)]#備退因子 ceshi = [i for i in range(0,9)]#存放加入單個因子後的模型 zhengshi = [i for i in range(0,9)]#收集確定因子 data1 = pd.concat([df.iloc[:,i+1] for i in ceshi ],axis = 1)#結合所需因子 name = 'y~'+'+'.join(data1.columns) result = smf.ols(name,data=df).fit()#建模 c0 = result.aic #最小aic delete = []#已刪元素 while(all_bianliang): aic = []#存放aic for i in all_bianliang: ceshi = [i for i in zhengshi] ceshi.remove(i) data1 = pd.concat([df.iloc[:,i+1] for i in ceshi ],axis = 1)#結合所需因子 name = "y~"+("+".join(data1.columns))#組成公式 data = pd.concat([df['y'],data1],axis=1)#結合自變數和因變數 result = smf.ols(name,data=data).fit()#建模 aic.append(result.aic)#將所有aic存入 if min(aic)>c0:#aic已經達到最小 data1 = pd.concat([df.iloc[:,i+1] for i in zhengshi ],axis = 1)#結合所需因子 name = "y~"+("+".join(data1.columns))#組成公式 break else: zhengshi.remove(all_bianliang[aic.index(min(aic))])#查詢最小的aic並將最小的因子存入正式的模型列表當中 c0 = min(aic) delete.append(aic.index(min(aic))) all_bianliang.remove(all_bianliang[delete[-1]])#刪除已刪因子 name = "y~"+("+".join(data1.columns))#組成公式 print("最優模型為:{},其aic為:{}".format(name,c0)) result = smf.ols(name,data=df).fit()#建模 print() print(result.summary())
df = pd.read_csv("data3.1.csv",encoding='gbk') backward(df)
逐步迴歸的基本思想是有進有出。R語言中step()函數的具體做法是在給定了包含p個變數的初始模型後,計算初始模型的AIC值,並在此模型基礎上分別剔除p個變數和新增剩餘m-p個變數中的任一變數後的AIC值,然後選擇最小的AIC值決定是否新增新變數或剔除已存在初始模型中的變數。如此反覆進行,直至既不新增新變數也不剔除模型中已有的變數時所對應的AIC值最小,即可停止計算,並返回最終結果。
import pandas as pd import numpy as np import statsmodels.api as sm import statsmodels.formula.api as smf def zhubuhuigui(df): forward = [i for i in range(0,4)]#備選因子 backward = []#備退因子 ceshi = []#存放加入單個因子後的模型 zhengshi = []#收集確定因子 delete = []#被刪因子 while forward: forward_aic = []#前進aic backward_aic = []#後退aic for i in forward: ceshi = [j for j in zhengshi] ceshi.append(i) data1 = pd.concat([df.iloc[:,i] for i in ceshi ],axis = 1)#結合所需因子 name = "y~"+("+".join(data1.columns))#組成公式 data = pd.concat([df['y'],data1],axis=1)#結合自變數和因變數 result = smf.ols(name,data=data).fit()#建模 forward_aic.append(result.aic)#將所有aic存入 for i in backward: if (len(backward)==1): pass else: ceshi = [j for j in zhengshi] ceshi.remove(i) data1 = pd.concat([df.iloc[:,i] for i in ceshi ],axis = 1)#結合所需因子 name = "y~"+("+".join(data1.columns))#組成公式 data = pd.concat([df['y'],data1],axis=1)#結合自變數和因變數 result = smf.ols(name,data=data).fit()#建模 backward_aic.append(result.aic)#將所有aic存入 if backward_aic: if forward_aic: c0 = min(min(backward_aic),min(forward_aic)) else: c0 = min(backward_aic) else: c0 = min(forward_aic) if c0 in backward_aic: zhengshi.remove(backward[backward_aic.index(c0)]) delete.append(backward_aic.index(c0)) backward.remove(backward[delete[-1]])#刪除已刪因子 forward.append(backward[delete[-1]]) else: zhengshi.append(forward[forward_aic.index(c0)])#查詢最小的aic並將最小的因子存入正式的模型列表當中 forward.remove(zhengshi[-1])#刪除已有因子 backward.append(zhengshi[-1]) name = "y~"+("+".join(data1.columns))#組成公式 print("最優模型為:{},其aic為:{}".format(name,c0)) result = smf.ols(name,data=data).fit()#建模 print() print(result.summary())
df = pd.read_csv("data5.5.csv",encoding='gbk') zhubuhuigui(df)
到此這篇關於python的自變數選擇(所有子集迴歸,後退法,逐步迴歸)的文章就介紹到這了,更多相關python自變數選擇內容請搜尋it145.com以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援it145.com!
相關文章
<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
综合看Anker超能充系列的性价比很高,并且与不仅和iPhone12/苹果<em>Mac</em>Book很配,而且适合多设备充电需求的日常使用或差旅场景,不管是安卓还是Switch同样也能用得上它,希望这次分享能给准备购入充电器的小伙伴们有所
2021-06-01 09:31:42
除了L4WUDU与吴亦凡已经多次共事,成为了明面上的厂牌成员,吴亦凡还曾带领20XXCLUB全队参加2020年的一场音乐节,这也是20XXCLUB首次全员合照,王嗣尧Turbo、陈彦希Regi、<em>Mac</em> Ova Seas、林渝植等人全部出场。然而让
2021-06-01 09:31:34
目前应用IPFS的机构:1 谷歌<em>浏览器</em>支持IPFS分布式协议 2 万维网 (历史档案博物馆)数据库 3 火狐<em>浏览器</em>支持 IPFS分布式协议 4 EOS 等数字货币数据存储 5 美国国会图书馆,历史资料永久保存在 IPFS 6 加
2021-06-01 09:31:24
开拓者的车机是兼容苹果和<em>安卓</em>,虽然我不怎么用,但确实兼顾了我家人的很多需求:副驾的门板还配有解锁开关,有的时候老婆开车,下车的时候偶尔会忘记解锁,我在副驾驶可以自己开门:第二排设计很好,不仅配置了一个很大的
2021-06-01 09:30:48
不仅是<em>安卓</em>手机,苹果手机的降价力度也是前所未有了,iPhone12也“跳水价”了,发布价是6799元,如今已经跌至5308元,降价幅度超过1400元,最新定价确认了。iPhone12是苹果首款5G手机,同时也是全球首款5nm芯片的智能机,它
2021-06-01 09:30:45