吴恩达深度学习系列第二课第二周笔记

【吴恩达深度学习系列第二课第二周笔记】

关键概念

  • 记住不同的优化方法,如(Stochastic) Gradient Descent, Momentum, RMSProp and Adam
  • 采用随机小批量算法加快收敛速度,提高优化效果
  • 了解学习率衰减的好处,并将其应用到优化中

mini-batch gradient descent

之前在实现梯度下降的时候,都是对整个数据集进行循环的。现在我们采用一种新的方法,

------------------已经触及底线啦感谢您的阅读------------------

欢迎关注我的其它发布渠道