Skip to content

Repo con material para las sesiones de estudio de TensorFlow.

Notifications You must be signed in to change notification settings

DataEngineering-LATAM/TensorFlow

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

24 Commits
 
 

Repository files navigation

TensorFlow

¡Bienvenidos, Machine Learners! Durante los próximos meses, nos embarcaremos en un emocionante viaje al mundo de TensorFlow, la biblioteca líder de código abierto para construir e implementar modelos de machine learning (aprendizaje automático). Ya seas un principiante absoluto o tengas algo de experiencia en programación, estas sesiones te proporcionarán los conocimientos fundamentales y las habilidades prácticas para sumergirte en el apasionante campo del deep learning y la inteligencia artificial.

Estructura:

Se contará con sesiones semanales, cada una de una hora de duración. Nos centraremos en:

  • Características y Métodos: Exploraremos las características y métodos principales de TensorFlow, incluyendo tensores, conjuntos de datos, variables, operaciones, funciones matemáticas esenciales.
  • Conceptos: Desmitificaremos los conceptos clave del deep learning, como paradigmas de aprendizaje automático, redes neuronales, funciones de activación, funciones de pérdida, algoritmos de optimización.
  • Aplicaciones: Nos adentraremos en las aplicaciones del mundo real de TensorFlow, cubriendo áreas como clasificación de imágenes, procesamiento de lenguaje natural y mucho más.

Prerrequisitos

Contenido

Beginners

Quickstarts

ML basics with Keras

Loading Data

Deep Dive

Keras: The high-level API for TensorFlow

Glosario de Términos

  • Feature: El(los) input(s) para nuestro modelo
  • Examples: Un par de entrada/salida usados para el entrenamiento
  • Labels: La salida del modelo
  • Layer: Una colección de nodos conectados dentro de una red neuronal
  • Model: La representación de nuestra red neuronal
  • Dense and Fully Connected (FC): Cada nodo en una capa está conectada con cada nodo de la capa anterior.
  • Weights and biases: Son variables internas del modelo
  • Loss: La discrepancia entre la salida deseada y la real
  • MSE: Error cuadrado de la media (Mean squared error), es un tipo de función de pérdida que cuenta un número pequeño de grandes discrepancias como algo peor que un gran número de pequeñas discrepancias.
  • Gradient Descent: Un algoritmo que cambia las variables internas un poco cada vez para reducir la función de pérdida.
  • Optimizer: Una implementación específica del algoritmo de gradiente descendiente. (Hay muchos algoritmos para esto. Un tipo de implementación considerada como "best practice" es “Adam” Optimizer, que significa ADAptive con Momentum.)
  • Learning rate: El "step size" para mejorar la pérdida durante el descenso del gradiente.
  • Batch: El conjunto de ejemplos utilizados durante el entrenamiento de la red neuronal.
  • Epoch: Un recorrido completo por todo el conjunto de datos de entrenamiento
  • Forward propagation (forward pass): El cálculo de los valores de salida a partir de la entrada.
  • Backpropagation (backward pass): El cálculo de los ajustes de las variables internas de acuerdo con el algoritmo optimizador, comenzando desde la capa de salida y retrocediendo a través de cada capa hasta la entrada.

Otros Notebooks

Libros Recomendados

Playlists Recomendadas

Certificación


Sobre la comunidad Data Engineering Latam

Data Engineering Latam es la comunidad de datos más grande de América Latina cuya misión es promover el talento de la región a través de la difusión de charlas, talleres, grupos de estudio, ayuda colaborativa y la creación de contenido relevante.

Síguenos en nuestras redes oficiales

Todas y cada una de nuestras iniciativas y contenidos se mantienen sin apoyo de terceros. Si quieres vernos crecer, nos puedes ayudar con tus reacciones, comentarios y compartidas de nuestros contenidos en redes sociales 🥹

¿Quieres dar charla en la comunidad?

🎤 Cuéntanos aquí

Disclaimer

Este no es un curso, los ponentes no son profesores y tú no eres un alumno. Todos estamos aquí reunidos porque nos apasiona este campo. Si algún ponente propone ejercicios a resolver, no estás obligado a presentarlos (ni nosotros a corregirlos =)

¡Cualquier feedback que tengas, siempre con respeto, es bienvenido!

¿Cómo aprovechar mejor esta iniciativa?

Se recomienda compartir tu resumen a manera de slides, notion, canva, artículo en Medium, post en redes sociales o todo lo antes mencionado utilizando el #dataengineeringlatam y etiquetándonos.