Un estudio reciente del Instituto Tecnológico de Israel (Technion) ha revelado que, a diferencia de los modelos de inteligencia artificial (IA) que procesan textos largos en su totalidad, el cerebro humano crea “resúmenes” mientras leemos, lo que facilita la comprensión de la información subsecuente.
Investigadores analizaron imágenes de resonancia magnética funcional (fMRI) de 219 participantes mientras escuchaban historias. Compararon la actividad cerebral con las predicciones realizadas por modelos de lenguaje artificiales existentes, reporta Medical Xpress.
Descubrieron que, aunque los modelos de IA podían predecir con precisión la actividad cerebral para textos cortos (unas pocas docenas de palabras), fallaban al intentar predecir la actividad para textos más largos.
La razón radica en que, mientras tanto el cerebro humano como los modelos de IA procesan textos cortos de manera paralela (analizando todas las palabras a la vez), el cerebro cambia de estrategia para textos más extensos. Dado que no puede procesar todas las palabras simultáneamente, almacena un resumen contextual—una especie de “reservorio de conocimiento”—que utiliza para interpretar las palabras siguientes.
En contraste, los modelos de IA procesan todo el texto previamente escuchado a la vez, por lo que no requieren este mecanismo de resumen. Esta diferencia fundamental explica por qué la IA tiene dificultades para predecir la actividad cerebral humana al escuchar textos largos.
Para probar su teoría, los investigadores desarrollaron un modelo de IA mejorado que imita el proceso de resumen del cerebro. En lugar de procesar todo el texto a la vez, el modelo creó resúmenes dinámicos y los utilizó para interpretar el texto futuro. Esto mejoró significativamente las predicciones de la IA sobre la actividad cerebral, respaldando la idea de que el cerebro humano resume constantemente la información pasada para dar sentido a la nueva entrada.
Esta capacidad nos permite procesar grandes cantidades de información a lo largo del tiempo, ya sea en una conferencia, un libro o un pódcast. Análisis adicionales mapearon las regiones cerebrales involucradas en el procesamiento de textos a corto y largo plazo, destacando las áreas responsables de la acumulación de contexto, lo que nos permite comprender narrativas en curso.
Este estudio no solo profundiza en nuestra comprensión de cómo el cerebro maneja la información lingüística, sino que también ofrece perspectivas valiosas para el desarrollo de modelos de IA más eficientes que emulen los procesos cognitivos humanos. Al incorporar mecanismos de resumen similares a los del cerebro, los futuros modelos de IA podrían mejorar en tareas de procesamiento de lenguaje natural y en la interacción humano-computadora.




