La sincronización cerebral depende de la lengua usada en la conversación

Hablando, charlar, conversación, barba, bigote, corbata
PIXABAY - Archivo
Publicado: miércoles, 13 febrero 2019 17:45

   Los cerebros de dos personas que hablan en una lengua extranjera establecen un vínculo neuronal diferente a cuando emplean su lengua

   SAN SEBASTIÁN, 13 Feb. (EUROPA PRESS) -

   Una investigación realizada por el Basque Center on Cognition, Brain and Language (BCBL) de San Sebastián ha demostrado por primera vez que la sincronización cerebral depende de la lengua usada en la conversación. Según el estudio del centro donostiarra, los cerebros de dos personas que hablan en una lengua no nativa "establecen un vínculo neuronal diferente al que ocurre en conversaciones en lengua nativa, con el único objetivo de entender al interlocutor".

   El estudio, publicado en la revista científica Cortex y realizado con la colaboración de otras instituciones y universidades internacionales como la Universidad de Toronto (Canadá) y la Universidad Nebrija de Madrid, ha permitido a los investigadores analizar cómo ocurre la sincronía de las ondas cerebrales en contextos lingüísticos distintos.

   La investigación, liderada por el investigador Alejandro Pérez, se suma al realizado en 2017 por el BCBL, en el que el centro donostiarra describió el fenómeno de la sincronización cerebral en la comunicación entre dos personas que hablan en su lengua nativa.

   "Hemos comprobado cómo la alineación de las ondas cerebrales ocurre de forma diferente cuando la conversación se realiza en una lengua nativa o en una lengua extranjera. Este estudio nos ha permitido avanzar y demostrar que la sincronía cerebral depende del contexto lingüístico", ha explicado Pérez, quien ha apuntado que "lo que ocurre es que las áreas cerebrales que mejor se acoplan entre los dos cerebros son distintas cuando se usa una lengua extranjera o una nativa".

   Tras el primer estudio realizado en 2017, que tuvo una amplia aceptación en la comunidad científica, este nuevo descubrimiento plantea, según explica el investigador, "muchas interrogantes y nuevas líneas de investigación de gran interés en el ámbito de la neurociencia".

   "Entre otros aspectos, este nuevo hallazgo implica reconocer que la demanda que nos plantea el hablar una lengua extranjera hace que nuestros cerebros se alineen de una forma diferente para poder entender a nuestro interlocutor. Es decir, los cerebros de dos personas que hablan en una lengua extranjera establecen un vínculo neuronal diferente al que establecen cuando emplean su lengua nativa, con el único objetivo de entender al interlocutor", asegura.

   Aunque no están todavía claras las razones concretas por las que este hecho ocurre, los responsables del estudio apuestan principalmente a que se deba a las denominadas "estrategias atencionales conjuntas", un fenómeno "emergente en las actividades interpersonales que es esencial para codificar y procesar la información de forma coordinada, y que sería específico para cada lengua".

   "Cuando una conversación se lleva a cabo en la lengua nativa, ambos interlocutores atienden a la conversación de una forma más global, centrándose en las oraciones y el contenido global del mensaje. Sin embargo, cuando se realiza en una lengua extranjera, los recursos atencionales se centran principalmente en otros niveles lingüísticos que resultan complejos para las personas no nativas, como son los fonemas y las unidades léxicas, es decir, los sonidos y las palabras", ha explicado el investigador Jon Andoni Duñabeitia, coautor del estudio.

   Según aseguran los investigadores del estudio, además de las estrategias de atención conjunta, existen multitud de factores que pueden modular la sincronía de la actividad cerebral de dos personas al conversar. "Uno de los factores más atractivos a nivel científico y práctico es el componente afectivo-emocional. Existen diversos estudios que muestran que utilizar una lengua no nativa puede modular cómo se procesa la carga emocional del discurso, y esto podría a su vez modular la sincronía intercerebral", añade Duñabeitia.

   Por su parte, Pérez ha apuntado que "la factibilidad del procesamiento de señales en tiempo real y el abaratamiento de los aparatos que miden la actividad cerebral permitirán que un día no muy lejano, existan sensores integrados en los propios audífonos de los ordenadores, y se ofrezca una evaluación cuantitativa sobre la calidad -implicación personal- y características -idioma o carga emocional- de la interacción verbal que ha tenido lugar a través de herramientas de comunicación online como Skype".

EL EXPERIMENTO

   El estudio, que se llevó a cabo en las instalaciones del BCBL, contó con la participación de un total de 60 voluntarios. Al igual que en el primer experimento, los investigadores situaron, separadas por un biombo, a parejas de personas del mismo sexo, que no se conocían entre sí y con edades y características demográficas similares.

   Siguiendo un guión, las parejas entablaban una conversación de temática general. A través de la electroencefalografía (EEG), una prueba no invasiva que analiza la actividad eléctrica del cerebro, los científicos midieron la actividad de las ondas cerebrales simultáneamente.

   Durante la prueba, los participantes alternaron el uso de su lengua nativa, y una lengua extranjera en la que se desenvolvían con un nivel competencial suficientemente bueno, es decir, mantuvieron conversaciones unas veces en español y otras en inglés.