返回课程列表
神经网络核心内功:从感知机到训练稳定的深度模型

神经网络核心内功:从感知机到训练稳定的深度模型

用计算图解释前向传播/反向传播;参数是什么;梯度从哪来。你会把网络当成“可微分程序”,而不是神秘黑箱。

神经网络核心内功:从感知机到训练稳定的深度模型

6 Lessons

1

神经元到底是什么:把“函数叠函数”讲成可理解的计算图

2

激活函数的战场:ReLU、GELU、Sigmoid 各自的代价

3

反向传播不玄学:链式法则就是“误差怎么传回去”

4

过拟合与泛化:Dropout、正则化、数据增强的真实作用

5

归一化与残差:BatchNorm/LayerNorm/Residual 是深层网络的救命绳

6

初始化、学习率、优化器、调参顺序的“工程套路”