Saltar al contenido

Backprop Bonanza – insideBIGDATA

21 de junio de 2022

Muchos nuevos científicos de datos han expresado lo que sienten que es la falta de una forma satisfactoria de aprender los conceptos de propagación inversa/cálculo de gradiente en redes neuronales cuando toman clases de ML de nivel de pregrado. Así que pensé en reunir una serie de recursos de aprendizaje útiles para impulsar la comprensión de este importante proceso. La siguiente lista, seleccionada de una encuesta informal de Twitter, aparece sin ningún orden en particular. Después de consumir uno o más de estos recursos, confío en que se sentirá empoderado en su capacidad para dar el siguiente paso en su desarrollo. Muchos trabajos de investigación y textos tendrán mucho más sentido. ¡Disfrutar!

Vídeo: ¿Qué hace realmente la retropropagación?

Diapositivas de conferencias: aprendizaje profundo: primavera de 2021Clase 5: Introducción a la optimización

Diapositivas de conferencias: Sistemas de aprendizaje profundo: algoritmos e implementación, otoño de 2021, Universidad Carnegie Mellon – Diferenciación Automática

Entrada en el blog: Otro tutorial más de retropropagación

Vídeo: Cómo funciona la retropropagación

Capítulo del libro electrónico: Cómo funciona el algoritmo de retropropagación

Entrada en el blog: Matrices backprop y sistólicas

Diapositivas de clase con código Python: backprop

Video: Backprop Bootcamp: Introducción a la retropropagación

Entrada en el blog: Cálculo en grafos computacionales: retropropagación

Entrada en el blog: Una explicación visual de los métodos de descenso de gradiente

Vídeo: Redes neuronales a través de MIT Open Courseware

Entrada en el blog: Un LEGO a la vez: explicando las matemáticas de cómo aprenden las redes neuronales con la implementación desde cero

Entrada en el blog: Diferenciación automática en modo inverso desde cero, en Python

Recomendado:  El Big Data en el mercado de Internet de las cosas revela el último avance de 2021 a 2027 Análisis Covid-19: la corriente de Manomet

Vídeo de la conferencia: Backprop de Geoff Hinton

Video: Clase de Stanford Winter Quarter 2016: CS231n: Redes neuronales convolucionales para el reconocimiento visual. Conferencia 4 sobre Backprop

Entrada en el blog: Guía del hacker sobre redes neuronales con código Javascript por Andreg Karpathy

Entrada en el blog: Retropropagación, una introducción

Diapositivas de la conferencia: Introducción a la Inteligencia Artificial, CS188 UC Berkeley

Video: Intuición de retropropagación por Andrew Ng

Entrada en el blog: Retropropagación 101

Entrada en el blog: Un ejemplo de retropropagación paso a paso

CContribución de Daniel D. Gutiérrez, editor en jefe y científico de datos residente de insideBIGDATA. Además de ser periodista tecnológico, Daniel también es consultor en ciencia de datos, autor, educador y forma parte de varios consejos asesores de varias empresas emergentes.

Regístrese para recibir el boletín gratuito insideBIGDATA.

Únase a nosotros en Twitter: @InsideBigData1 – https://twitter.com/InsideBigData1