SolveConPython

Fundamentos de Redes Neuronales

Bienvenido/a a Fundamentos de Redes Neuronales, la sección de SolveConPython donde explicamos redes neuronales desde cero, con un enfoque muy claro:

  • Una fórmula por artículo
  • Una idea por vez
  • Código Python real (NumPy, sin frameworks)
  • Y al final, podrás unir todas las piezas para construir y entrenar una red neuronal completa

Si vienes de Python “clásico” (listas, funciones, bucles) y el machine learning te parece demasiado abstracto, esta guía está hecha para ti.

¿Qué aprenderás aquí?

En esta ruta aprenderás a:

  • Entender qué hace una neurona (pesos y bias) y por qué no basta una sola
  • Ver cómo las funciones de activación añaden “capacidad de aprendizaje”
  • Medir el error con una función de pérdida (loss) y entender por qué importa
  • Calcular gradientes y aplicar backpropagation sin “magia”
  • Entrenar una red neuronal con un loop completo
  • Resolver el problema XOR con una capa oculta
  • Visualizar qué aprende la capa oculta por dentro

El objetivo es doble: comprender y poder implementarlo.

Cómo usar esta guía

Te recomiendo seguir los artículos en orden. Cada uno añade:

  1. una explicación sencilla,
  2. un ejemplo claro,
  3. una pieza de código reutilizable.

Al final, tendrás tu propio mini “framework” educativo.

Ruta de aprendizaje (serie principal)

1) Activación y probabilidades

Artículo #1 — La función sigmoide en Python
Qué es, por qué convierte números en probabilidades y cómo implementarla paso a paso.

2) La neurona (el bloque base)

Artículo #2 — La neurona artificial en Python: pesos, bias y suma ponderada
De dónde sale z = XW + b y cómo vectorizarlo con NumPy.

3) Por qué una red sin activación no aprende

Artículo #3 — Funciones de activación (sigmoid vs tanh)
No linealidad, intuición visual y cuándo usar cada activación.

4) Medir el error

Artículo #4 — La función de pérdida (Binary Cross-Entropy)
Cómo la red “sabe” si lo está haciendo bien o mal, con código.

5) Del error a los ajustes

Artículo #5 — Gradientes y Backpropagation
Cómo se convierten las pérdidas en ajustes de pesos (regla de la cadena + código).

6) Entrenamiento real

Artículo #6 — Entrenar una red neuronal: el loop completo
Forward → loss → backward → update. El corazón del entrenamiento.

7) La red neuronal “real”

Artículo #7 — Añadir una capa oculta (y resolver XOR)
El salto clave: por qué una neurona no basta y cómo una capa oculta lo cambia todo.

8) Entender lo que pasa dentro

Artículo #8 — Visualizar qué aprende la capa oculta
Extraer activaciones y ver cómo el espacio se transforma.

¿Por qué enseñamos “sin frameworks” al principio?

Porque aprender con frameworks desde el minuto 1 suele sentirse así:

  • funciona, pero no sabes por qué
  • cambias algo y se rompe
  • no entiendes qué hace el optimizador o la pérdida

Aquí hacemos lo contrario:

primero entiendes la matemática y el flujo,
luego ya tendrás criterio para usar PyTorch / TensorFlow con confianza.

Empieza aquí

Si estás empezando, este es el orden recomendado:

  1. Sigmoide → 2) Neurona → 3) Activaciones → 4) Loss → 5) Backprop → 6) Entrenamiento → 7) Capa oculta → 8) Visualización

Y si solo quieres “ver la red funcionar”, ve directo al Artículo #7… pero volverás a los anteriores para entenderla bien.

SolveConPython

¿Quieres aprender redes neuronales sin sentir que estás memorizando fórmulas?
Sigue esta serie y construye tu base matemática programando.

Siguiente paso: abre el Artículo #1 y empieza con la sigmoide.