¿Cómo detecta el cerebro el habla y lo descompone en sílabas?

Mujer hablando, letras y palabras al aire.
Mujer hablando, letras y palabras al aire. - GETTY IMAGES/ISTOCKPHOTO / SIPHOTOGRAPHY - Archivo
Actualizado: jueves, 21 noviembre 2019 17:04

   MADRID, 21 Nov. (EUROPA PRESS) -

   Neurocientíficos de Universidad de California en San Francisco (UCSF)han descubierto cómo el cerebro escanea el discurso que escucha para descomponerlo en sílabas. Los hallazgos, que se publican publicado en la revista 'Science Advances', proporcionan por primera vez una base neuronal sobre los átomos fundamentales del lenguaje y las ideas sobre nuestra percepción del ritmo del habla.

   Durante décadas, los neurocientíficos del habla han buscado evidencia de que las neuronas en las áreas auditivas del cerebro usan fluctuaciones en el volumen del habla para identificar los comienzos y los fines de las sílabas, pero hasta ahora no habían obtenido resultados claros.

   En el nuevo estudio los científicos de la UCSF descubrieron que el cerebro responde a un marcador de estrés vocal en el medio de cada sílaba. Los investigadores demostraron que esta señal, en un área de la corteza del habla llamada circunvolución temporal superior media (mSTG), se basa específicamente en el aumento del volumen al comienzo de cada sonido vocal, que es una característica universal de los lenguajes humanos.

   En particular, dicen los autores, este simple marcador silábico también podría proporcionar al cerebro información directa sobre patrones de estrés, tiempo y ritmo que son tan centrales para transmitir el significado y el contexto emocional en inglés y muchos otros idiomas.

   "Lo que me parece más emocionante de este trabajo es que muestra un principio de codificación neural simple para el sentido del ritmo que es absolutamente fundamental para la forma en que nuestros cerebros procesan el habla --detalla la neurocientífica Yulia Oganian, quien dirigió la investigación--. ¿Podría esto explicar por qué los humanos son tan sensibles a la secuencia de sílabas estresadas y no estresadas que componen la poesía hablada, o incluso la narración oral?".

   "Lo que realmente me emociona es que ahora entendemos cómo una simple señal sonora, el rápido aumento en el volumen que ocurre al inicio de las vocales, sirve como un hito crítico para el habla porque le dice al oyente cuándo ocurre una sílaba y si está estresada. Este es un descubrimiento bastante central sobre cómo el cerebro extrae unidades de sílabas del habla", señala Eddie Chang, investigador biomédico de la UCSF, miembro del Instituto de Neurociencias Weill de la UCSF y un Académico de la Facultad del Instituto Médico Howard Hughes, cuyo laboratorio de investigación estudia las bases neuronales del habla, movimiento y emoción humana, y en el que investiga Oganian.

   En el estudio participaron voluntarios del Centro de Epilepsia de la UCSF que temporalmente tenían electrodos del tamaño de un post-it colocados en la superficie de sus cerebros durante una o dos semanas como parte de la preparación estándar para la neurocirugía.

   Estas grabaciones cerebrales permiten a los neurocirujanos como Chang trazar un mapa sobre cómo eliminar el tejido cerebral que causa las convulsiones de los pacientes sin dañar importantes regiones cerebrales cercanas, pero también permiten a los científicos del laboratorio de investigación de neurociencia de Chang hacer preguntas sobre la función cerebral humana que son imposibles de abordar de otra manera.

   Oganian reclutó a 11 voluntarios cuyos electrodos de control de convulsiones se superponían con áreas del cerebro involucradas en el procesamiento del habla y estaban felices de participar en un estudio de investigación durante su tiempo de inactividad en el hospital.

   Reprodujo a cada participante una selección de grabaciones de voz de una variedad de oradores diferentes mientras grababa patrones de actividad cerebral en sus centros auditivos del habla, luego analizó los datos para identificar patrones neuronales que reflejaban la estructura silábica de lo que habían escuchado.

   Los datos revelaron rápidamente que la actividad mSTG contenía un marcador discreto de sílabas individuales, contradiciendo el modelo dominante en el campo que había propuesto que el cerebro establezca un oscilador continuo similar a un metrónomo para extraer los límites de las sílabas de las fluctuaciones en el volumen del habla. ¿Pero exactamente a qué aspectos del discurso respondían estos marcadores de sílabas discretas en los datos neuronales?

   Para hacer posible identificar qué características de las grabaciones de audio estaban impulsando los marcadores de sílabas recién descubiertos, Oganian pidió a cuatro de sus voluntarios de investigación que escucharan el discurso grabado que se ralentizó cuatro veces.

   Estas grabaciones de voz ultralentas le permiten a Oganian ver que las señales de la sílaba estaban ocurriendo constantemente en el momento del aumento de la tensión al comienzo de cada sonido vocal (por ejemplo, cuando 'b' se convierte en 'a' en la sílaba 'ba'), y no en la cima de cada sílaba como otros científicos habían teorizado.

   El marcador silábico que descubrió Oganian en el mSTG también varió con el énfasis que el hablante puso en una sílaba particular. Esto sugirió que esta primera etapa del procesamiento del habla simultáneamente permite al cerebro dividir el habla en unidades silábicas y también rastrear los patrones de estrés que son fundamentales para el significado en inglés y muchos otros idiomas.

   La señal silábica también proporciona un metrónomo simple para que el cerebro rastree el ritmo y la velocidad del habla. "Algunas personas hablan rápido; otras hablan lento. Las personas cambian lo rápido que hablan cuando están emocionadas o tristes. El cerebro necesita poder adaptarse a eso --apunta Oganian--. Al marcar cada vez que se produce una nueva sílaba, esta señal actúa como un marcapasos interno dentro de la señal del habla".

   Los investigadores continúan estudiando cómo se interpretan las señales cerebrales en el mSTG para permitir que el cerebro procese la ritmicidad y el significado del habla. También esperan explorar cómo la interpretación del cerebro de estas señales varía en otros idiomas además del inglés que ponen más o menos énfasis en los patrones de estrés del habla.