La Neurona Artificial

Fundamentos Matemáticos para Principiantes

¿Qué es una Neurona Artificial?

Una neurona artificial es un modelo matemático inspirado en las neuronas biológicas del cerebro. Es la unidad básica de procesamiento en las redes neuronales artificiales y la base de la inteligencia artificial moderna.

Conceptos Básicos

¿Por qué son importantes?

Las neuronas artificiales son fundamentales porque:

Base de la IA

Son los bloques fundamentales de las redes neuronales que impulsan la inteligencia artificial.

Reconocimiento

Permiten a las máquinas reconocer imágenes, voces y patrones complejos.

Procesamiento

Hacen posible que las máquinas entiendan y generen lenguaje natural.

Predicción

Ayudan a predecir tendencias y tomar decisiones basadas en datos.

Analogía con el Cerebro

🧠 En el cerebro: Las neuronas reciben señales eléctricas de otras neuronas, las procesan y deciden si enviar una señal a otras neuronas.

🤖 En la computadora: Las neuronas artificiales reciben números, los procesan matemáticamente y producen un resultado que puede influir en otras neuronas.

Elementos Básicos

Entradas (Inputs)

Los datos que recibe la neurona (como x₁, x₂, x₃...)

Pesos (Weights)

Números que determinan la importancia de cada entrada (w₁, w₂, w₃...)

Sesgo (Bias)

Un valor adicional que se suma (b)

Función de Activación

Decide qué salida producir (f)

Definición Matemática Formal

📚 Definición Formal:

Una neurona artificial es una función matemática que mapea un vector de entrada n-dimensional a un escalar de salida mediante una transformación lineal seguida de una función de activación no lineal.

Formulación Matemática

Para una neurona con n entradas:

$$y = f\left(\sum_{i=1}^{n} w_i x_i + b\right)$$

donde:

  • $x_i$: i-ésima entrada ($i = 1, 2, ..., n$)
  • $w_i$: peso asociado a la i-ésima entrada
  • $b$: término de sesgo (bias)
  • $f$: función de activación
  • $y$: salida de la neurona

Notación Vectorial

Forma compacta usando vectores:

$$y = f(\mathbf{w}^T \mathbf{x} + b)$$

donde:

  • $\mathbf{x} = [x_1, x_2, ..., x_n]^T$: vector de entradas
  • $\mathbf{w} = [w_1, w_2, ..., w_n]^T$: vector de pesos
  • $\mathbf{w}^T \mathbf{x}$: producto punto (dot product)

Paso a Paso del Procesamiento

1. Producto Ponderado

Se calcula:

$$z = \sum_{i=1}^{n} w_i x_i + b$$

2. Activación

Se aplica la función:

$$y = f(z)$$

Diagrama de la Neurona

x₁
x₂
x₃
Σ + f
y

Flujo: Entradas → Suma ponderada → Función de activación → Salida

Funciones de Activación

💡 ¿Qué son? Las funciones de activación determinan si una neurona se "activa" (produce una salida) basándose en la suma ponderada de sus entradas. Son como el "interruptor" de la neurona.

1. Función Escalón (Step Function)

La más simple:

$$f(z) = \begin{cases} 1 & \text{si } z \geq 0 \\ 0 & \text{si } z < 0 \end{cases}$$

📱 Ejemplo de la vida real: Como un interruptor de luz - está encendido (1) o apagado (0). Si la suma de entradas es positiva, la neurona se activa completamente.

2. Función Sigmoide

Suave y diferenciable:

$$f(z) = \frac{1}{1 + e^{-z}}$$

📱 Ejemplo de la vida real: Como un dimmer de luz - la intensidad cambia gradualmente de 0 a 1. Muy usado en redes neuronales clásicas.

3. Función Tangente Hiperbólica (Tanh)

Simétrica alrededor del cero:

$$f(z) = \tanh(z) = \frac{e^z - e^{-z}}{e^z + e^{-z}}$$

📱 Ejemplo de la vida real: Como un volumen que va de -1 a 1. Útil cuando queremos salidas tanto positivas como negativas.

4. Función ReLU (Rectified Linear Unit)

La más popular actualmente:

$$f(z) = \max(0, z) = \begin{cases} z & \text{si } z > 0 \\ 0 & \text{si } z \leq 0 \end{cases}$$

📱 Ejemplo de la vida real: Como un grifo - si no hay presión (z ≤ 0), no sale agua (0). Si hay presión positiva, sale proporcional a la presión.

5. Función Softmax (para múltiples salidas)

Para clasificación con múltiples clases:

$$f(z_i) = \frac{e^{z_i}}{\sum_{j=1}^{K} e^{z_j}}$$

📱 Ejemplo de la vida real: Como un concurso de popularidad - convierte puntuaciones en probabilidades que suman 1. Usado para clasificación (¿es un gato, perro o pájaro?).

🎯 ¿Cuándo usar cada una?

  • ReLU: Redes profundas modernas (más rápida)
  • Sigmoide: Salidas de probabilidad (0 a 1)
  • Tanh: Cuando necesitas salidas negativas
  • Softmax: Clasificación de múltiples clases

Ejemplos Prácticos

Ejemplo 1: Detector de Spam de Email

Problema: Determinar si un email es spam

Entradas:

  • x₁ = número de palabras "GRATIS" (normalizado)
  • x₂ = número de signos de exclamación (normalizado)
  • x₃ = longitud del email (normalizada)

Pesos aprendidos: w₁ = 0.8, w₂ = 0.6, w₃ = -0.3, b = -0.5

$$z = 0.8x_1 + 0.6x_2 - 0.3x_3 - 0.5$$
$$y = \text{sigmoid}(z) = \frac{1}{1 + e^{-z}}$$

Interpretación: Si y > 0.5 → Spam, si y ≤ 0.5 → No spam

Ejemplo 2: Reconocimiento de Dígitos

Problema: Reconocer si una imagen es el número "3"

Entradas: Intensidad de píxeles (imagen de 8x8 = 64 entradas)

$$z = \sum_{i=1}^{64} w_i \cdot \text{pixel}_i + b$$
$$y = \text{sigmoid}(z)$$

Interpretación: y cercano a 1 = "es un 3", y cercano a 0 = "no es un 3"

Cálculo Paso a Paso

📧 Ejemplo concreto de email:

Email: "¡¡¡COMPRA GRATIS!!!"

  • x₁ = 1 (tiene "GRATIS")
  • x₂ = 0.6 (muchos signos de exclamación)
  • x₃ = 0.2 (email corto)

Cálculo:

$z = 0.8(1) + 0.6(0.6) - 0.3(0.2) - 0.5 = 0.8 + 0.36 - 0.06 - 0.5 = 0.6$
$y = \frac{1}{1 + e^{-0.6}} = \frac{1}{1 + 0.549} = 0.646$

Resultado: y = 0.646 > 0.5 → ¡Es SPAM! 🚨

Ejemplo 3: Predicción de Aprobación de Crédito

🏦 Neurona Bancaria

Entradas:

  • x₁ = Ingresos mensuales (en miles, normalizado)
  • x₂ = Historial crediticio (0-1)
  • x₃ = Años de empleo (normalizado)

Función: ReLU

$y = \max(0, 0.4x_1 + 0.5x_2 + 0.3x_3 - 0.6)$

Si y > 0 → Crédito aprobado

Simulador de Neurona

🧮 Calculadora de Neurona Interactiva

Experimenta con diferentes valores y funciones de activación:

Entradas y Pesos:

Función de Activación:

💡 Instrucciones:

  1. Modifica los valores de las entradas (x₁, x₂, x₃) y sus pesos (w₁, w₂, w₃)
  2. Ajusta el sesgo (b) - un valor que se suma al final
  3. Selecciona una función de activación
  4. Haz clic en "Calcular" para ver el resultado
  5. Observa cómo pequeños cambios afectan la salida

Casos de Prueba Interesantes

🔍 Detector de Spam

x₁=palabras spam, x₂=signos exclamación, x₃=longitud

🏦 Aprobación Crédito

x₁=ingresos, x₂=historial, x₃=antigüedad laboral

🎯 Clasificador Simple

Ejemplo básico de clasificación binaria

🔄 Valores Aleatorios

Experimenta con valores al azar

Resumen y Conceptos Clave

🎯 Puntos Importantes para Recordar:

  1. Una neurona artificial es una función matemática que toma varias entradas y produce una salida
  2. Los pesos determinan la importancia de cada entrada
  3. El sesgo permite ajustar el punto de activación
  4. La función de activación decide la forma de la salida
  5. Múltiples neuronas trabajando juntas forman redes neuronales

🚀 ¿Qué sigue?

Una sola neurona es limitada - solo puede resolver problemas linealmente separables. La magia real sucede cuando conectamos muchas neuronas en capas para formar redes neuronales profundas que pueden aprender patrones muy complejos.

Redes Neuronales

Muchas neuronas conectadas en capas

Aprendizaje

Los pesos se ajustan automáticamente

Visión por Computadora

Reconocimiento de imágenes y objetos

Procesamiento de Lenguaje

Comprensión y generación de texto