【吴恩达深度学习系列第二课第二周笔记】
关键概念:
- 记住不同的优化方法,如(Stochastic) Gradient Descent, Momentum, RMSProp and Adam
- 采用随机小批量算法加快收敛速度,提高优化效果
- 了解学习率衰减的好处,并将其应用到优化中
mini-batch gradient descent
之前在实现梯度下降的时候,都是对整个数据集进行循环的。现在我们采用一种新的方法,
关键概念:
之前在实现梯度下降的时候,都是对整个数据集进行循环的。现在我们采用一种新的方法,
微信支付
支付宝
欢迎关注我的其它发布渠道