El cerebro presta más atención al lenguaje cuando se ven los movimientos faciales

Los movimientos oculares o labiales que se producen en la conversación cara a cara no solo adquieren gran valor social, también cerebral. Por primera vez, una investigación internacional en la que participa la Universidad Complutense de Madrid demuestra que durante la comprensión del lenguaje el cerebro muestra una actividad diferente si recibe información visual de los  movimientos faciales del interlocutor.

Descargar en PDF Descargar noticia en PDF

 

El cerebro presta más atención si ve la cara (en movimiento). / Ars Electronica.
El cerebro presta más atención si ve la cara (en movimiento). / Ars Electronica.

UCC- UCM, 26 de junio.- Ante una conversación cara a cara, que se caracteriza entre otras cosas por ver los movimientos faciales de los interlocutores, el cerebro tiende a prestar más atención al lenguaje que si la cara estuviera estática, según una investigación de la Universidad Complutense de Madrid (UCM) y de la Universidad de Humboldt (Berlín).

El estudio, publicado en Cortex, se realizó con el objetivo de indagar en las particularidades cerebrales de la comunicación frente a frente para conocer cómo los movimientos faciales de los hablantes, pueden influir en la comprensión semántica de oraciones.

“Aunque nos pueda parecer que es indiferente, al cerebro le importa mucho que la persona que nos habla esté delante y podamos verla además de oírla. En estas circunstancias en las que el contexto social es más rico y permite recibir información tanto de la mirada como especialmente de los labios, se presta mucha más atención a cada una de las palabras que escuchamos”, explica David Hermández Gutiérrez, miembro de la Sección de Neurociencia Cognitiva del Centro Mixto UCM-ISCIII de Evolución y Comportamiento Humanos.

Sin embargo, lo curioso es que ese efecto no ocurre siempre. Según los resultados de la investigación, únicamente cuando el lenguaje es sencillo y no requiere gran esfuerzo comprenderlo, ver la cara en movimiento del interlocutor aumenta la atención de la persona que escucha, de manera similar a como lo hacen, por ejemplo, las emociones.

“Cuando el contenido del lenguaje es difícil de entender, el cerebro se centra en los procesos lingüísticos, dejando de lado la información social que recibe de manera visual”, aclara el investigador de la UCM.

Actividad eléctrica cerebral peculiar

Esta investigación comprendió tres experimentos tres experimentos con electroencefalografía (EEG), en los que los participantes escuchaban oraciones acompañadas por el correspondiente video de la persona hablando, o por una imagen estática de la misma persona, mientras se registraba su actividad eléctrica cerebral.

Algunas de estas frases eran predecibles, siendo la compresión semántica sencilla, pero otras eran impredecibles, lo que dificultaba su comprensión. Los resultados obtenidos de EGG mostraron que la comprensión semántica de las oraciones impredecibles no se vio afectada en absoluto por el dinamismo facial.

Sin embargo, hubo un resultado interesante e inesperado: la actividad eléctrica cerebral correspondiente a la comprensión de frases predecibles mostró una actividad peculiar cuando iban acompañadas del vídeo y que no ocurría ante una imagen estática del hablante.

“Esta respuesta cerebral, caracterizada como una Positividad Posterior Tardía, era particularmente grande cuando se mostraba la cara completa, y más pequeña cuando se tapaban los ojos y especialmente la boca. Esto reflejaría un aumento de la atención en contextos comunicativos realistas, parecidos a una situación natural de una conversación cara a cara”, explica Hernández Gutiérrez.

Hasta ahora, la psicología y la neurociencia cognitiva se habían centrado en la percepción de fonemas o palabras aisladas en la comunicación cara a cara pero “el lenguaje es mucho más, contiene oraciones que llevan un mensaje que hay que comprender”, concluye el experto. Y el cerebro prefiere entenderlos en persona.

 

Referencia bibliográfica: David Hernández Gutiérrez, Rasha Abdel Rahman, Manuel Martín- Loeches, Francisco Muñoz, Annekathrin Schacht y Werner Sommer. “Does dynamic information about the speaker´s face contribute to semantic speech processing? ERP evidence”. Cortex 104. 2018. DOI: 10.1016/j.cortex.2018.03.031

 

¿Alguna duda o sugerencia? Si quieres comentar esta información, te responderemos en nuestro correo uccucm@ucm.es o en nuestras redes sociales.


 

Facebook OTRI      Twitter OTRI-UCM
Unidad de Información Científica y Divulgación
Oficina de Transferencia de Resultados de Investigación (OTRI)
Universidad Complutense de Madrid
uccucm@ucm.es - Tlf.: 91.394.6369