Temario de esta sesión:
Algoritmo Gradiente Descendente
○ ¿Qué es el gradiente?
○ ¿Pasos pequeños o pasos más grandes?
● Algoritmo SGD
○ Momentum
○ Nesterov
○ Learning Rate
● Alternativas a SGD
○ AdaGrad
○ Adam
● Adaptar el Learning Rate durante el entrenamiento
○ Scheduler
○ Early Stopping
Optional Section Header
Link de los Materiales de esta clase:
https://drive.google.com/drive/folders/17Hw6Inf8h2650NEkdbKEiu9wVqpSmLiv?usp=sharing
Anima a tus amigos a ser miembro de este canal para disfrutar de muchas ventajas:
https://www.youtube.com/channel/UChx-m6THK-W8xMdAzoh2w9g/join