[ y_i = gamma left( frac{x_i – mu_B}{sqrt{sigma_B^2 + epsilon}} right) + beta ]
其中,(x_i) 是批次中的第 (i) 個數據點,(mu_B) 是批次均值,(sigma_B^2) 是批次方差,(epsilon) 是為了防止除以零而添加的一個小常數,(gamma) 和 (beta) 是可學習的參數。
BN已被廣泛應用于各種深度學習模型中,特別是在卷積神經網絡(CNNs)中,BN層通常跟在卷積層和激活函數之間。這種組合已成為許多流行網絡結構的標準配置,如ResNet、VGG等。
批歸一化(BN)是一種強大的技術,它通過規范化每批數據來減少內部協變量偏移,加速深度網絡的訓練,并提高模型的泛化能力。盡管存在一些挑戰,如對批次大小的依賴和訓練推理不一致性,BN仍然是深度學習中不可或缺的技術之一。希望本文能夠幫助讀者更好地理解批歸一化的概念、工作原理和應用。