反向傳播
前向傳播(Forward Propagation):前向傳播是神經網絡通過層級結構和參數,將輸入數據逐步轉換為預測結果的過程,實現輸入與輸出之間的復雜映射。

前向傳播
反向傳播(Back Propagation):反向傳播算法利用鏈式法則,通過從輸出層向輸入層逐層計算誤差梯度,高效求解神經網絡參數的偏導數,以實現網絡參數的優化和損失函數的最小化。

鏈式法則(Chain Rule):鏈式法則是微積分中的一個基本定理,用于計算復合函數的導數。如果一個函數是由多個函數復合而成,那么該復合函數的導數可以通過各個簡單函數導數的乘積來計算。

偏導數:偏導數是多元函數中對單一變量求導的結果,它在
反向傳播中用于量化損失函數隨參數變化的敏感度,從而指導參數優化。

偏導數
1. 網絡結構
2. 前向傳播
[0.5, 0.3],進行前向傳播:[0.5*0.5 + 0.3*0.2 + 0.1, 0.5*0.3 + 0.3*0.4 + 0.2] = [0.31, 0.29][sigmoid(0.31), sigmoid(0.29)] ≈ [0.57, 0.57]0.6*0.57 + 0.7*0.57 + 0.3 = 0.71sigmoid(0.71) ≈ 0.673. 損失計算
0.8,使用均方誤差(MSE)計算損失:(0.8 - 0.67)^2 ≈ 0.0174. 反向傳播:計算損失函數相對于網絡參數的偏導數,并從輸出層開始反向傳播誤差。
2 * (0.67 - 0.8) * sigmoid_derivative(0.71) ≈ -0.05sigmoid(x) * (1 - sigmoid(x))[δ2 * 0.6 * sigmoid_derivative(0.31), δ2 * 0.7 * sigmoid_derivative(0.29)][-0.01, -0.01](這里簡化了計算,實際值可能有所不同)[δ2 * 隱藏層輸出1, δ2 * 隱藏層輸出2] = [-0.03, -0.04]δ2 = -0.055. 參數更新
W2 - 學習率 * 參數偏導數b2 - 學習率 * 參數偏導數6. 迭代
本文章轉載微信公眾號@架構師帶你玩轉AI