Skip to main content

2 docs tagged with "normalization"

View all tags

层归一化 (LN) vs 批归一化 (BN)

层归一化 (Layer Normalization, LN) 和 批归一化 (Batch Normalization, BN) 是深度学习中两种最常用的归一化技术。它们的核心目的都是为了解决 "内部协变量偏移" (Internal Covariate Shift) 问题,从而加速模型收敛并提高训练稳定性。