反向传播是一种常用于训练神经网络以计算网络参数更新的梯度估计方法。这是链式法则在神经网络中的有效应用。反向传播针对单个输入输出示例计算损失函数相对于网络权重的梯度,并且计算效率很高,每次计算一层梯度,从最后一层向后迭代,以避免链式法则中中间项的冗余计算。

✍️提及

Python(PyTorch)物理变化可微分神经算法

🍁导图

反向传播导图

https://embed.notionlytics.com/wt/ZXlKM2IzSnJjM0JoWTJWVWNtRmphMlZ5U1dRaU9pSlhiRWhvWlV4VVQxbHNjMlZYV2tKbU9URndaU0lzSW5CaFoyVkpaQ0k2SWpJM016QTBOemxoT1RCaVpUUTBNbVZoTW1GaFpHVTVZVFU0TlRBNU9UYzFJbjA9