Alejandro Estrada

Optimización con Algoritmos de Descenso de Gradiente Natural (NGD)

Machine Learning • Optimización • Teoría de la Información

Resumen del Proyecto

Análisis teórico y exposición sobre las garantías de convergencia de los algoritmos de Descenso de Gradiente con Ruido (NGD), utilizados en machine learning para la minimización de funciones de pérdida.

Aspectos Teóricos Abordados

  • Geometría de la información y métrica de Fisher
  • Garantías de convergencia para NGD
  • Comparación con métodos de gradiente estándar
  • Análisis de tasa de convergencia
  • Condiciones de optimalidad

Aplicaciones en ML

  • Entrenamiento de redes neuronales
  • Modelos gráficos probabilísticos
  • Algoritmos de mezcla de expertos
  • Procesamiento de lenguaje natural
  • Visón por computadora

Contribuciones

  • Exposición pedagógica de conceptos avanzados
  • Análisis comparativo de métodos de optimización
  • Implementación de ejemplos numéricos
  • Discusión de limitaciones y ventajas prácticas