Los investigadores de la Universidad Carnegie Mellon han aprovechado el aprendizaje automático para interpretar escáneres cerebrales humanos, lo que permite al equipo descubrir las regiones del cerebro detrás de cómo se forman los conceptos abstractos, como la justicia, la ética y la conciencia. Los resultados de este estudio están disponibles en línea en la edición del 29 de octubre de los estudios “Cerebral Cortex” .
“Los humanos tienen la capacidad única de construir conceptos abstractos que no tienen ancla en el mundo físico, pero a menudo damos por sentado esta habilidad” […] “En este estudio, hemos demostrado que los componentes de significado recientemente identificados utilizados por el cerebro humano que actúa como un sistema de indexación, similar al catálogo de tarjetas de una biblioteca, para componer el significado de conceptos abstractos”.
Dijo Marcel Just, profesor de psicología de la Universidad DO Hebb en la Facultad de Humanidades y Ciencias Sociales Dietrich de la CMU y autor principal del artículo.
La capacidad de los humanos para pensar de manera abstracta juega un papel central en el progreso científico e intelectual. A diferencia de los conceptos concretos, como el martillo, los conceptos abstractos, como la ética, no tienen un hogar obvio en las partes del cerebro que se ocupan de la percepción o el control de nuestros cuerpos.
También podría interesarte: Cómo nuestros sueños nos preparan para enfrentar nuestros miedos
“La mayor parte de nuestra comprensión de cómo el cerebro procesa objetos y conceptos se basa en cómo nuestros cinco sentidos captan la información” […] “Se hace difícil describir el entorno neuronal de los pensamientos abstractos porque muchas de las herramientas mentales del cerebro para procesarlas son en sí mismas abstractas”.
Dijo Robert Vargas, un estudiante graduado de CMU en el laboratorio de Just y primer autor del artículo.
En este estudio, Just y su equipo escanearon los cerebros de nueve participantes usando una resonancia magnética funcional. El equipo analizó los datos utilizando herramientas de aprendizaje automático para identificar patrones para cada uno de los 28 conceptos abstractos. Aplicaron el algoritmo de aprendizaje automático para identificar correctamente cada concepto (con una precisión de rango medio de 0,82, donde el nivel de probabilidad es 0,50).
La primera dimensión corresponde a las regiones asociadas con el lenguaje. Por ejemplo, el concepto de ética podría estar relacionado con otras palabras como reglas y moral. Una persona primero debe entender las palabras para construir el significado adicional de la ética. La segunda dimensión define conceptos abstractos en términos de referencia, ya sea para uno mismo o una fuente externa. Por ejemplo, la espiritualidad se refiere al yo, mientras que la causalidad es externa al yo. La dimensión final tiene sus raíces en las construcciones sociales. Hay un componente social inherente a los conceptos de orgullo y chisme.
“Para mí, el resultado más emocionante de este estudio fue que pudimos predecir los patrones de activación neural para conceptos abstractos individuales en las personas” […] “Es una locura pensar que mi concepto de probabilidad y espiritualidad es neuralmente similar al de la siguiente persona, incluso si su experiencia de espiritualidad es diferente”.
Dijo Robert Vargas, un estudiante graduado de CMU en el laboratorio de Just y primer autor del artículo.
Durante la exploración, cada concepto se presentó visualmente y se permitió al participante pensar en esta idea durante tres segundos. Cabe destacar que participantes vieron el conjunto de palabras seis veces.
Los 28 conceptos cubiertos en el estudio abarcan siete categorías: matemáticas (resta, igualdad, probabilidad y multiplicación); científico (gravedad, fuerza, calor y aceleración); social (chismes, intimidación, perdón y cumplidos); emoción (felicidad, tristeza, ira y orgullo); derecho (contrato, ética, delincuencia y exoneración); metafísica (causalidad, conciencia, verdad y necesidad) y religiosidad (deidad, espiritualidad, sacrilegio y fe).