无码av一区二区三区无码,在线观看老湿视频福利,日韩经典三级片,成 人色 网 站 欧美大片在线观看

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

PyTorch Tutorial 05 - Gradient Descen...

2023-02-15 10:18 作者:Mr-南喬  | 我要投稿

教程Python代碼:numpy版


import numpy as np


# f = w * x 此處不加偏置


# f = 2 * x

X = np.array([1,2,3,4],dtype=np.float32)

Y = np.array([2,4,6,8],dtype=np.float32)


# 初始化權(quán)重

w = 0.0


# model prediction,計算模型

def forward(x):

return w * x


# loss = MSE(Mean Square Error),均方誤差計算損失

def loss(y,y_predicted):

return ((y_predicted - y)**2).mean()


# gradient,手動計算損失的梯度

# MSE = 1/N * (w*x - y)**2

# dJ/dw = 1/N * 2x * (w*x - y) , 這是數(shù)值計算的計算導(dǎo)數(shù)

def gradient(x,y,y_predicted):

return np.dot(2*x, y_predicted-y).mean()


print(f'Prediction befor training: f(5) = {forward(5):.3f}')


# Training

learning_rate = 0.01 #學(xué)習(xí)率

n_iters = 20 #多次迭代


for epoch in range(n_iters):

# prediction = forward pass

y_pred = forward(X)


# loss

l = loss(Y,y_pred)


# gradients

dw = gradient(X, Y, y_pred)


# update weights 更新公式:權(quán)重 = 權(quán)重 - (步長或?qū)W習(xí)速率 * dw)

w -= learning_rate * dw


#打印每一步

if epoch % 1 == 0:

print(f'epoch {epoch+1}: w = {w:.3f}, loss = {l:.8f}')


print(f'Prediction after training: f(5) = {forward(5):.3f}')

PyTorch Tutorial 05 - Gradient Descen...的評論 (共 條)

分享到微博請遵守國家法律
通海县| 涡阳县| 闻喜县| 泗洪县| 女性| 炎陵县| 寿光市| 南和县| 崇信县| 河池市| 新巴尔虎左旗| 阿拉善盟| 乡城县| 沂水县| 阿拉善左旗| 瑞丽市| 阿鲁科尔沁旗| 九江县| 泸西县| 鄂托克前旗| 阿克苏市| 德安县| 荔波县| 疏附县| 龙岩市| 石阡县| 曲周县| 江阴市| 西林县| 张掖市| 彰武县| 新干县| 湘潭市| 宁德市| 库伦旗| 绩溪县| 额敏县| 绥化市| 靖西县| 东阿县| 浦江县|