功思(公司)
AI
www.gongsiai.com
首页
AI智库
AI工具
AI课程
Prompt咒语
加入社群
Search
加入会员
Log In
返回课程列表
神经网络核心内功:从感知机到训练稳定的深度模型
用计算图解释前向传播/反向传播;参数是什么;梯度从哪来。你会把网络当成“可微分程序”,而不是神秘黑箱。
神经网络核心内功:从感知机到训练稳定的深度模型
6 Lessons
1
神经元到底是什么:把“函数叠函数”讲成可理解的计算图
2
激活函数的战场:ReLU、GELU、Sigmoid 各自的代价
3
反向传播不玄学:链式法则就是“误差怎么传回去”
4
过拟合与泛化:Dropout、正则化、数据增强的真实作用
5
归一化与残差:BatchNorm/LayerNorm/Residual 是深层网络的救命绳
6
初始化、学习率、优化器、调参顺序的“工程套路”