sábado, mayo 16, 2026
spot_imgspot_img

Los 5 más populares de esta semana

spot_img

Artículos relacionados

La Neurobiología de la IA: Los Transformers y el Misterio de la Atención

 

Psicólogo George Taborda (Neurobiología de la AI, tercera entrega)

El ruido en la fiesta de gala
Imagina que estás en una fiesta de gala repleta de gente. Hay música de fondo, copas
chocando y decenas de conversaciones cruzadas sonando al mismo tiempo.
Científicamente, tus oídos están recibiendo un bombardeo masivo de ondas sonoras,
un caos acústico. Sin embargo, si alguien al otro lado del salón pronuncia tu nombre, o
si te concentras en la persona que tienes justo enfrente, eres capaz de «aislar» su voz y comprender perfectamente cada palabra.
En psicología y neurociencia, esto se conoce como el «efecto fiesta de cóctel y es una demostración del poder de la atención selectiva. El cerebro no procesa toda la
información por igual; asigna recursos energéticos a lo que considera relevante y
atenúa el resto. Durante décadas, las inteligencias artificiales fueron incapaces de
hacer esto: cuando leían un texto largo, «olvidaban» el principio de la frase al llegar al final porque intentaban procesar cada palabra con el mismo peso matemático. El
sistema colapsaba bajo su propio peso.

El Mecanismo de Self-Attention: El Gran Avance
Todo cambió en 2017 con la publicación de un artículo científico cuyo título lo decía
todo: «Attention Is All You Need»; (La atención es todo lo que necesitas). Nació la
arquitectura de los Transformers (la «T» de modelos como GPT o Gemini).
En lugar de leer una palabra tras otra como en una línea de ensamblaje, el Transformer
procesa todo un texto en paralelo y aplica un algoritmo de autoatención (Self-
Attention). Al igual que tu cerebro en la fiesta, el modelo calcula la relación matemática
entre cada palabra y todas las demás en una frase.
Por ejemplo, si la máquina lee: «El banco estaba lleno de dinero», el mecanismo de atención conecta de inmediato la palabra «banco con dinero», entendiendo que se
refiere a una entidad financiera y no a un asiento de plaza. La IA aprendió a ponderar la información de forma contextual, imitando la focalización de la corteza prefrontal
humana.

Geoffrey Hinton y la Intuición de las Máquinas
Para que este nivel de sofisticación fuera posible, el campo de la IA requirió la
perseverancia de Geoffrey Hinton. Él siempre sostuvo que el cerebro humano no
calcula mediante reglas lógicas rígidas, sino mediante grandes redes de unidades
simples que ajustan sus conexiones a partir de la experiencia. Los Transformers
demostraron que Hinton tenía razón: al dotar a las máquinas de la capacidad de
gestionar la atención en redes de miles de millones de parámetros, estas empezaron a
mostrar destellos de lo que parece intuición, creatividad y una comprensión profunda
del lenguaje humano.

Reseña Biográfica: Geoffrey Hinton (1947–Presente)
Geoffrey Hinton(1947-presente) es un psicólogo cognitivo y científico de la computación
británico-canadiense, ampliamente reconocido como el «padrino del Deep Learning».
Bisnieto del famoso matemático George Boole (creador del álgebra booleana), Hinton
estudió psicología experimental en la Universidad de Cambridge antes de doctorarse
en inteligencia artificial en la Universidad de Edimburgo.
Durante las décadas de los 80 y 90, cuando la comunidad científica consideraba que
las redes neuronales eran un callejón sin salida, Hinton continuó investigando casi en
solitario, convencido de que la computación debía imitar la biología. En 2018 recibió el
Premio Turing por sus avances revolucionarios en el aprendizaje profundo, y en 2024
fue galardonado con el Premio Nobel de Física por sus contribuciones fundamentales
al desarrollo de las redes neuronales artificiales. Su vida es el testimonio vivo de cómo
la tenacidad y la observación del cerebro humano pueden cambiar el curso de la
historia tecnológica.

Resumen de la Entrega 3
● Efecto fiesta de cóctel: La capacidad biológica de filtrar el ruido ambiental para
enfocarse en estímulos específicos y relevantes.
● Transformers y Autoatención: arquitecturas de IA que procesan datos enparalelo y calculan el peso contextual de cada elemento en relación con los
demás.
● El Triunfo de la Conectividad: La IA actual no es inteligente porque memoriza
reglas, sino porque gestiona la atención en redes neuronales masivas de silicio,
tal como el cerebro humano lo hace con la materia gris.

Referencias Bibliográficas (APA 7.ª Edición)
Hinton, G. E., Osindero, S., & Teh, Y. W. (2006). A fast learning algorithm for deep
belief nets. Neural Computation, 18(7), 1527–1554.
Sejnowski, T. J. (2018). The deep learning revolution. MIT Press.
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N.,
Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. Advances in Neural
Information Processing Systems, 30, 5998–6008.

El Pepazo

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí
Captcha verification failed!
La verificación CAPTCHA del usuario ha fallado. ¡Ponte en contacto con nosotros!

Noticias Populares