<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
首先要做的就是讀取資料,請自行準備一組適合做多元迴歸的資料即可。這裡以data.csv為例,這裡做的是二元迴歸。匯入相關庫,及相關程式碼如下。
import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D data = np.loadtxt("data.csv", delimiter=",") # 提取特徵資料與標籤 x_data = data[:,0:-1] y_data = data[:,-1]
迴歸模型形如:
接下來我們需要初始化相關引數,並定義出代價函數。因為存在多個係數引數,這裡代價函數的寫法與一元迴歸時的情況略有不同,稍微有所調整。具體如下:
# 初始化一系列引數 # 截距 theta0 = 0 # 係數 theta1 = 0 theta2 = 0 # 學習率 learning_rate = 0.0001 # 初始化迭代次數 n_iterables = 1000 # 定義代價函數(損失函數) def compute_mse(theta0, theta1, theta2, x_data, y_data): total_error = 0 for i in range(len(x_data)): # 計算損失 真實值:y_data 預測值h(x)=theta0 + theta1*x1 + theta2*x2 total_error += (y_data[i] - (theta0 + theta1 * x_data[i, 0] + theta2 * x_data[i, 1])) ** 2 mse_ = total_error / len(x_data) / 2 return mse_
多元迴歸的梯度下降與一元迴歸的差不多,在一元迴歸中只需要求一個導數,而現在求多個偏導數。程式碼過程如下:
def gradient_descent(x_data, y_data, theta0, theta1, theta2, learning_rate, n_iterables): m = len(x_data) # 迴圈 --> 迭代次數 for i in range(n_iterables): # 初始化 theta0 theta1 theta2 的偏導值 theta0_grad = 0 theta1_grad = 0 theta2_grad = 0 # 計算偏導的總和再平均 # 遍歷m次 for j in range(m): theta0_grad += (1 / m) * ((theta1 * x_data[j, 0] + theta2 * x_data[j, 1] + theta0) - y_data[j]) theta1_grad += (1 / m) * ((theta1 * x_data[j, 0] + theta2 * x_data[j, 1] + theta0) - y_data[j]) * x_data[ j, 0] theta2_grad += (1 / m) * ((theta1 * x_data[j, 0] + theta2 * x_data[j, 1] + theta0) - y_data[j]) * x_data[ j, 1] # 更新theta theta0 = theta0 - (learning_rate * theta0_grad) theta1 = theta1 - (learning_rate * theta1_grad) theta2 = theta2 - (learning_rate * theta2_grad) return theta0, theta1, theta2 print(f"開始:截距theta0={theta0},theta1={theta1},theta2={theta2},損失={compute_mse(theta0,theta1,theta2,x_data,y_data)}") print("開始執行") theta0,theta1,theta2 = gradient_descent(x_data,y_data,theta0,theta1,theta2,learning_rate,n_iterables) print(f"迭代{n_iterables}次後:截距theta0={theta0},theta1={theta1},theta2={theta2},損失={compute_mse(theta0,theta1,theta2,x_data,y_data)}")
執行結果輸出如下:
1000次迭代之後,損失值由23.64變為0.3865。
視覺化展示常常作為機器學習過程的補充,可以使得機器學習的效果更為生動,直觀。
# 視覺化散點分佈 fig = plt.figure() ax = Axes3D(fig) ax.scatter(x_data[:,0],x_data[:,1],y_data) plt.show() # 視覺化散點分佈 fig = plt.figure() ax = Axes3D(fig) ax.scatter(x_data[:,0],x_data[:,1],y_data) # 繪製預期平面 # 構建x x_0 = x_data[:,0] x_1 = x_data[:,1] # 生成網格矩陣 x_0,x_1 = np.meshgrid(x_0,x_1) y_hat = theta0 + theta1*x_0 + theta2*x_1 # 繪製3D圖 ax.plot_surface(x_0,x_1,y_hat) # 設定標籤 ax.set_xlabel("Miles") ax.set_ylabel("nums") ax.set_zlabel("Time") plt.show()
散點圖輸出如下:
加上擬合迴歸面後如圖所示:
到此這篇關於Python實現多元線性迴歸的梯度下降法的文章就介紹到這了,更多相關Python梯度下降法內容請搜尋it145.com以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援it145.com!
相關文章
<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
综合看Anker超能充系列的性价比很高,并且与不仅和iPhone12/苹果<em>Mac</em>Book很配,而且适合多设备充电需求的日常使用或差旅场景,不管是安卓还是Switch同样也能用得上它,希望这次分享能给准备购入充电器的小伙伴们有所
2021-06-01 09:31:42
除了L4WUDU与吴亦凡已经多次共事,成为了明面上的厂牌成员,吴亦凡还曾带领20XXCLUB全队参加2020年的一场音乐节,这也是20XXCLUB首次全员合照,王嗣尧Turbo、陈彦希Regi、<em>Mac</em> Ova Seas、林渝植等人全部出场。然而让
2021-06-01 09:31:34
目前应用IPFS的机构:1 谷歌<em>浏览器</em>支持IPFS分布式协议 2 万维网 (历史档案博物馆)数据库 3 火狐<em>浏览器</em>支持 IPFS分布式协议 4 EOS 等数字货币数据存储 5 美国国会图书馆,历史资料永久保存在 IPFS 6 加
2021-06-01 09:31:24
开拓者的车机是兼容苹果和<em>安卓</em>,虽然我不怎么用,但确实兼顾了我家人的很多需求:副驾的门板还配有解锁开关,有的时候老婆开车,下车的时候偶尔会忘记解锁,我在副驾驶可以自己开门:第二排设计很好,不仅配置了一个很大的
2021-06-01 09:30:48
不仅是<em>安卓</em>手机,苹果手机的降价力度也是前所未有了,iPhone12也“跳水价”了,发布价是6799元,如今已经跌至5308元,降价幅度超过1400元,最新定价确认了。iPhone12是苹果首款5G手机,同时也是全球首款5nm芯片的智能机,它
2021-06-01 09:30:45