Bienvenido/a a Fundamentos de Redes Neuronales, la sección de SolveConPython donde explicamos redes neuronales desde cero, con un enfoque muy claro:
- Una fórmula por artículo
- Una idea por vez
- Código Python real (NumPy, sin frameworks)
- Y al final, podrás unir todas las piezas para construir y entrenar una red neuronal completa
Si vienes de Python “clásico” (listas, funciones, bucles) y el machine learning te parece demasiado abstracto, esta guía está hecha para ti.
¿Qué aprenderás aquí?
En esta ruta aprenderás a:
- Entender qué hace una neurona (pesos y bias) y por qué no basta una sola
- Ver cómo las funciones de activación añaden “capacidad de aprendizaje”
- Medir el error con una función de pérdida (loss) y entender por qué importa
- Calcular gradientes y aplicar backpropagation sin “magia”
- Entrenar una red neuronal con un loop completo
- Resolver el problema XOR con una capa oculta
- Visualizar qué aprende la capa oculta por dentro
El objetivo es doble: comprender y poder implementarlo.
Cómo usar esta guía
Te recomiendo seguir los artículos en orden. Cada uno añade:
- una explicación sencilla,
- un ejemplo claro,
- una pieza de código reutilizable.
Al final, tendrás tu propio mini “framework” educativo.
Ruta de aprendizaje (serie principal)
1) Activación y probabilidades
Artículo #1 — La función sigmoide en Python
Qué es, por qué convierte números en probabilidades y cómo implementarla paso a paso.
2) La neurona (el bloque base)
Artículo #2 — La neurona artificial en Python: pesos, bias y suma ponderada
De dónde sale z = XW + b y cómo vectorizarlo con NumPy.
3) Por qué una red sin activación no aprende
Artículo #3 — Funciones de activación (sigmoid vs tanh)
No linealidad, intuición visual y cuándo usar cada activación.
4) Medir el error
Artículo #4 — La función de pérdida (Binary Cross-Entropy)
Cómo la red “sabe” si lo está haciendo bien o mal, con código.
5) Del error a los ajustes
Artículo #5 — Gradientes y Backpropagation
Cómo se convierten las pérdidas en ajustes de pesos (regla de la cadena + código).
6) Entrenamiento real
Artículo #6 — Entrenar una red neuronal: el loop completo
Forward → loss → backward → update. El corazón del entrenamiento.
7) La red neuronal “real”
Artículo #7 — Añadir una capa oculta (y resolver XOR)
El salto clave: por qué una neurona no basta y cómo una capa oculta lo cambia todo.
8) Entender lo que pasa dentro
Artículo #8 — Visualizar qué aprende la capa oculta
Extraer activaciones y ver cómo el espacio se transforma.
¿Por qué enseñamos “sin frameworks” al principio?
Porque aprender con frameworks desde el minuto 1 suele sentirse así:
- funciona, pero no sabes por qué
- cambias algo y se rompe
- no entiendes qué hace el optimizador o la pérdida
Aquí hacemos lo contrario:
primero entiendes la matemática y el flujo,
luego ya tendrás criterio para usar PyTorch / TensorFlow con confianza.
Empieza aquí
Si estás empezando, este es el orden recomendado:
- Sigmoide → 2) Neurona → 3) Activaciones → 4) Loss → 5) Backprop → 6) Entrenamiento → 7) Capa oculta → 8) Visualización
Y si solo quieres “ver la red funcionar”, ve directo al Artículo #7… pero volverás a los anteriores para entenderla bien.
SolveConPython
¿Quieres aprender redes neuronales sin sentir que estás memorizando fórmulas?
Sigue esta serie y construye tu base matemática programando.
Siguiente paso: abre el Artículo #1 y empieza con la sigmoide.