Visualizador de Redes Neuronales
Datos
Capas
Neuronas
Activación
LR
0.05
Época 0 · Loss: -
Velocidad
Activación +
Activación -
Frontera de Decisión
Red Neuronal (MLP)
Perceptrón multicapa

📊 Metricas

0
Época
-
Loss (BCE)
-
Precisión
-
Parámetros

▲ Qué es un MLP?

Un Perceptrón Multicapa es una red neuronal feedforward con una o mas capas ocultas. Cada neurona aplica una transformación lineal seguida de una función de activación no lineal.

h = f(Wx + b)

💡 Propagación hacia atrás

El entrenamiento usa backpropagation con descenso por gradiente por lotes. El gradiente del error se propaga hacia atrás capa por capa usando la regla de la cadena.

∂L/∂w = ∂L/∂a · ∂a/∂z · ∂z/∂w

🔎 Funciones de activación

ReLU: max(0, x) - rápida, evita gradiente cero para x > 0
Sigmoid: 1/(1+e⁻ˣ) - rango (0,1)
Tanh: (eˣ-e⁻ˣ)/(eˣ+e⁻ˣ) - rango (-1,1)

🎓 Qué observar

Diagrama de red: el grosor de cada conexión indica |peso|. El color de cada neurona indica su activación.
Espacio de features: muestra como los datos se transforman capa por capa.
Frontera de decisión: la superficie que separa las clases. Observa como se vuelve mas compleja con mas capas.

Feedforward
Backpropagation
SGD
Clasificación binaria