📊 Metricas
▲ Qué es un MLP?
Un Perceptrón Multicapa es una red neuronal feedforward con una o mas capas ocultas. Cada neurona aplica una transformación lineal seguida de una función de activación no lineal.
💡 Propagación hacia atrás
El entrenamiento usa backpropagation con descenso por gradiente por lotes. El gradiente del error se propaga hacia atrás capa por capa usando la regla de la cadena.
🔎 Funciones de activación
ReLU: max(0, x) - rápida, evita gradiente cero para x > 0
Sigmoid: 1/(1+e⁻ˣ) - rango (0,1)
Tanh: (eˣ-e⁻ˣ)/(eˣ+e⁻ˣ) - rango (-1,1)
🎓 Qué observar
Diagrama de red: el grosor de cada conexión indica |peso|. El color de cada neurona indica su activación.
Espacio de features: muestra como los datos se transforman capa por capa.
Frontera de decisión: la superficie que separa las clases. Observa como se vuelve mas compleja con mas capas.