La representación semántica en la corteza cerebral: Implicaciones de la multisensorialidad para la neuroeducación
La neuroeducación, un campo interdisciplinario que combina neurociencia, psicología y educación, busca comprender cómo los procesos cerebrales subyacen al aprendizaje para optimizar las prácticas educativas. Uno de los neuromitos más persistentes en educación es la idea de los "estilos de aprendizaje", que sugiere que los estudiantes aprenden mejor a través de un canal sensorial preferente, ya sea visual, auditivo o kinestésico. Sin embargo, investigaciones en neurociencia, como el estudio de Deniz et al. (2019), desafían esta noción al demostrar que la representación semántica de la información en el cerebro es en gran medida independiente de la modalidad sensorial (auditiva o visual) a través de la cual se recibe. Este artículo revisa los antecedentes, la metodología y los hallazgos clave del estudio publicado en The Journal of Neuroscience (https://doi.org/10.1523/JNEUROSCI.0675-19.2019), destacando su relevancia para la neuroeducación y su implicación en la promoción de estrategias multisensoriales para el aprendizaje.
Antecedentes
El aprendizaje —especialmente en contextos educativos— se nutre fundamentalmente de la transmisión de significado a través de diversos canales sensoriales, principalmente visual (texto) y auditivo (oralidad). La neuroeducación contemporánea ha cuestionado el neuromito según el cual los estudiantes deberían ser clasificados según un estilo de aprendizaje predominante —visual, auditivo, kinestésico, etc.— y enseñarles preferentemente con ese canal (Dekker et al., 2012; Kirschner & van Merriënboer, 2013; Newton et al., 2021; Newton & Salvi, 2020; Pashler et al., 2008).
En contraste, los enfoques actuales favorecen la multisensorialidad, es decir, la estimulación simultánea o integrada de diversos sistemas sensoriales para potenciar la construcción de significados y conexiones neuronales integradas (Stein et al., 2014; Volpe & Gori, 2019).
En este marco teórico, entender si el cerebro codifica el significado (semántica) de forma distinta según el canal de entrada (leer vs escuchar) es decisivo. Si los sistemas sensoriales activan representaciones semánticas en regiones corticales distintas o en formas diferentes, ello respaldaría la idea de “canales preferentes”. Sin embargo, si la semántica se representa de forma invariante frente al canal (modularidad sensorial irrelevante), entonces la estimulación multisensorial parte del mismo reservorio cortical, favoreciendo estilos pedagógicos más integrados.
Deniz et al. (2019) abordan esta cuestión directamente: ¿cómo representa el cerebro humano el significado de una narración cuando se percibe leyendo o escuchando? ¿Son estas representaciones distintas, o esencialmente las mismas?
Metodología
Participantes
-
Fueron reclutados nueve adultos sanos (género no especificado aquí) para realizar dos sesiones: una de lectura y otra de escucha de las mismas historias narrativas. PubMed
Estímulos
-
Cada participante recibió varias horas de relatos en ambas modalidades: lectura y escucha. Las historias eran idénticas en contenido y estructura, y la presentación de las palabras se sincronizó (tiempo) entre ambas condiciones para asegurar comparabilidad. PubMedJournal of Neuroscience
Registro neurofuncional
-
Se utilizó fMRI (resonancia magnética funcional) para medir la actividad cerebral (respuesta BOLD) mientras los participantes escuchaban o leían estas narraciones en el scanner. PubMed
Modelado de datos
-
Para cada voxel (la unidad espacial de imagen), se utilizó un modelo de codificación voxelwise: se generó una representación semántica del texto a través de un espacio de embeddings de palabras (espacio de 985 dimensiones derivado de estadísticas de coocurrencias léxicas en corpus grandes), y luego se estimaron pesos mediante regresión de ridge (regularizada) banda FIR para predecir la respuesta BOLD. PubMedJournal of Neuroscience
-
Los modelos se entrenaron con datos de una parte de las narraciones y se validaron en narraciones independientes (no usadas en el entrenamiento) para medir la precisión predictiva (“modelo vs respuesta real”) en cada modalidad. PubMed
Comparaciones dentro y entre modalidades
-
Se evaluó la precisión predictiva dentro de modalidad (leer → predecir leer, y escuchar → predecir escuchar), y la predictividad cruzada (escuchar → predecir leer, y leer → predecir escuchar). PubMed
Resultados principales
Alta correspondencia semántica entre modalidades
-
En regiones semánticamente selectivas —incluyendo cortezas temporales laterales (LTC), temporales ventrales (VTC), parietales (LPC, MPC) y prefrontales (PFC)—, los modelos predijeron bien la actividad BOLD tanto dentro como entre modalidades. Es decir, los patrones semánticos son muy similares cuando se lee o se escucha. PubMed Journal of Neuroscience ScienceDaily
Distribución cortical y consistencia entre sujetos
-
Las regiones con buena predictibilidad están distribuidas bilateralmente por extensa red cortical (temporal, parietal, prefrontal). En cambio, las áreas sensoriales primarias —como la corteza auditiva primaria o la visual temprana— no predijeron bien ni dentro ni entre modalidades, lo cual sugiere que la actividad relacionada con semántica no reside en etapas sensoriales fundamentales. PubMed
-
Estos resultados se replicaron en todos los participantes, proyectados sobre espacio MNI estándar, lo que refuerza su validez interindividual. PubMed
Correlaciones entre proyectos semánticos
-
Utilizando análisis de componentes principales (PC) en el espacio semántico, los primeros componentes exhibieron altas correlaciones entre escucha y lectura (al menos primeros cinco PC significativamente correlacionados entre modalidades). Esto indica que no solo hay correspondencia global, sino también en dimensiones semánticas específicas. PubMed
Vóxeles “amodales” semánticamente
-
Se identificaron muchos vóxeles amodales, es decir, aquellos en los que el modelo entrenado en una modalidad (e.g., lectura) predijo bien la actividad en la otra (escucha), y viceversa. Esto indica una representación semántica independiente del canal sensorial. PubMed
Relevancia para neuroeducación y neuromitos
El estudio ofrece evidencia empírica fuerte contra el neuromito de los estilos de aprendizaje basados en canales sensoriales exclusivos (visual vs auditivo). En cambio:
-
Representación semántica común: el significado se codifica en circuitos corticales compartidos, independientemente de si la información es leída o escuchada.
-
Validación de la multisensorialidad: estimular múltiples canales —como combinar texto con explicación oral, audiovisual, debate— no fragmenta, sino que refuerza la activación de una red semántica integrada y robusta.
-
Diseño pedagógico informada por evidencia: en lugar de segmentar estudiantes según un canal preferente, se puede promover estrategias multisensoriales para todos, favoreciendo la profundización del significado a través del repertorio sensorial.
-
Base neural sólida: los hallazgos respaldan la idea de que la neuroeducación debe centrarse en cómo generar experiencias ricas y conectadas, no en canalizar según preferencias supuestas.
Conclusión
El estudio de Deniz et al. (2019) demuestra que el cerebro representa el significado del lenguaje de manera altamente similar cuando leemos o escuchamos. Los modelos de codificación semántica predicen eficazmente la actividad cerebral en zonas semánticas selectivas, tanto dentro como entre modalidades sensoriales. Tal modalidad invariante sugiere que el aprendizaje significativo puede beneficiarse plenamente de estrategias multisensoriales, y que los neuromitos de estilos de aprendizaje canal específicos carecen de soporte neurobiológico sólido.
#Neuroeducación #Multisensorialidad #Neuromitos #NeuroscienciaDelAprendizaje #RepresentaciónSemántica
Referencias
Dekker S, Lee NC, Howard-Jones P, Jolles J. Neuromyths in Education: Prevalence and Predictors of Misconceptions among Teachers. Front Psychol. 2012 Oct 18;3:429. doi: https://doi.org/10.3389/fpsyg.2012.00429
Deniz, F., Nunez-Elizalde, A. O., Huth, A. G., & Gallant, J. L. (2019). The representation of semantic information across human cerebral cortex during listening versus reading is invariant to stimulus modality. Journal of Neuroscience, 39(39), 7722–7736. https://doi.org/10.1523/JNEUROSCI.0675-19.2019
Kirschner, P. A., & van Merriënboer, J. J. G. (2013). Do learners really know best? Urban legends in education. Educational Psychologist, 48(3), 169–183. https://doi.org/10.1080/00461520.2013.804395
Newton PM, Najabat-Lattif HF, Santiago G, Salvi A. The Learning Styles Neuromyth Is Still Thriving in Medical Education. Front Hum Neurosci. 2021 Aug 11;15:708540. doi: https://doi.org/10.3389/fnhum.2021.708540
Newton, P. M., & Salvi, A. (2020). How common is belief in the learning styles neuromyth, and does it matter? A pragmatic systematic review. Frontiers in Education, 5, 602451. https://doi.org/10.3389/feduc.2020.602451
Pashler, H., McDaniel, M., Rohrer, D., & Bjork, R. (2008). Learning styles: Concepts and evidence. Psychological Science in the Public Interest, 9(3), 105–119. https://doi.org/10.1111/j.1539-6053.2009.01038.x
Stein, B. E., Stanford, T. R., & Rowland, B. (2014). Development of multisensory integration from the perspective of the individual neuron. Nature Reviews Neuroscience, 15(8), 520–535. https://doi.org/10.1038/nrn3742
Volpe, G., & Gori, M. (2019). Multisensory interactive technologies for primary education: From science to technology. Frontiers in Psychology, 10, 1076. https://doi.org/10.3389/fpsyg.2019.01076
Comentarios