39 bits por minuto. Los sonidos de cada idioma y cómo el cerebro procesa el habla (listening)
- Team Neural Ear System
- 2 sept 2022
- 6 Min. de lectura

La lengua hablada se compone de sonidos. Los sonidos al juntarse producen sílabas y luego palabras. De acuerdo con el lingüista y fonetista el Dr. Peter Ladefoged, existen más de 800 sonidos o fonemas fundamentales en el mundo. De estos sonidos, cada lengua sólo usa una mínima parte.
Por ejemplo, en español y en japonés tenemos 25 sonidos, mientras que en inglés hay 44.
El danés tiene 52 sonidos, el noruego 44; el holandés, junto con el francés, tienen cada uno 39 sonidos.

Se cree que el taa, hablado por unos pocos miles de personas en Botswana y Namibia, tiene el inventario de sonidos más grande de todos los idiomas del mundo. Por otro lado el idioma rotokas, que se habla en una isla al este de Nueva Guinea tiene solamente 11 fonemas en total.
Según la teoría del efecto magnético o imán perceptivo de la Dra. Patricia Kuhl, el cerebro humano se queda con sólo aquellos fonemas de la lengua materna o de los idiomas que les sean hablados a los bebés, ya que alrededor de los 6 meses de edad, el resto, no usados, se “apagan” o “eliminan”.
Pero los sonidos por sí mismos no lo son todo. También tiene relevancia el origen de las lenguas. Las lenguas nórdicas tienen mucho más parecido al inglés que las lenguas romances y 80 de 100 palabras comunes diarias en inglés son de origen germánico.
La Dra. Beatriz Gabbiani, lingüista de la Universidad de la República, en Montevideo, Uruguay afirma que "para un hispanohablante las lenguas del mismo origen, es decir, las romances o neolatinas (portugués, francés, italiano, catalán, gallego, rumano, etc.) al compartir muchas estructuras y léxico resultarían más fáciles de aprender".
Según esta misma lingüista, "para un hispanohablante, el alemán es fácil en lo que respecta a la pronunciación, quizás más fácil que el francés y el portugués, pero en la escritura, la gramática del alemán es muy diferente a la del español y se vuelve sumamente difícil".

Ahora, en términos de sonidos, existe un idioma que sería más fácil para aprender para un hispanohablante: el japonés.
Por estas razones, si un idioma materno no tiene algunos de los sonidos de otra lengua extranjera que se quiera aprender, generalmente le resultará difícil escuchar las diferencias y pronunciarlas correctamente.
De aquí que los sonidos R y L en inglés son difíciles de distinguir para los hablantes nativos de japonés.
Para añadir más sabor a esta sopa de lenguas, tenemos el asunto de la musicalidad de los idiomas. En otras palabras, el ritmo, la entonación, la acentuación de las sílabas, entre otros.
En una cadena de lenguaje oral, también las pausas y la velocidad con que se habla cuentan, es decir, la modulación, y también forman parte de la prosodia.
Cuando el ser humano está aprendiendo su lengua materna, es decir siendo bebés, se pueden usar tanto las probabilidades de transición entre las sílabas, así como las señales prosódicas, que se relacionan con el acento lingüístico. De hecho, lo primero que aprenden los bebés, estando todavía en el vientre materno, es justamente la prosodia de la lengua.
Por ejemplo, en español nuestras palabras son predominantemente agudas o graves: camión, mesa, conocer, caminar, cuchara, tenedor, etc. En el idioma inglés son esdrújulas o graves: caption, table, knowing, carpenter, etc. En el francés notamos que la acentuación de las palabras es predominantemente aguda.
Cada idioma se puede afirmar que posee una melodía concreta, podemos diferenciar a un francés de un árabe o de un italiano sin necesidad de conocer la lengua.

El sistema auditivo regula las diferencias en los parámetros del sonido: los cambios de altura, duración, intensidad, timbre o dirección, y el sonido incluye al lenguaje verbal, por supuesto.
La experiencia del lenguaje provoca cambios neuronales. Existe una hipótesis denominada “el compromiso neuronal del idioma nativo” (native language neural commitment), la cual propone que el aprendizaje de idiomas produce redes neuronales dedicadas que codifican los patrones del habla del idioma nativo.
A medida que estas redes se desarrollan, facilitan el aprendizaje de nuevos elementos y patrones del habla si son consistentes con los patrones existentes, pero imponen restricciones en el aprendizaje de patrones de idiomas extranjeros. Esta teoría podría explicar el cierre del 'período sensible' para el aprendizaje de idiomas; una vez que se ha producido una cierta cantidad de aprendizaje, el compromiso neuronal interfiere con el aprendizaje de nuevos idiomas, por lo que no se pueden aprender con tanta facilidad.

Curiosamente, los sonidos de la lengua inglesa y de la lengua neerlandés (la hablada en los Países Bajos) comparten mayores coincidencias, que entre el inglés y el castellano (español).
Es decir, si nuestros patrones existentes (lengua materna) se parecen a los nuevos (lengua extranjera) será menos complicado aprenderla y se logrará un mejor acento natural.

Cuando estamos expuestos a una lengua extranjera con la cual no tenemos ninguna familiaridad, la percibimos como una cadena interminable de sonidos sin sentido y no podemos identificar el límite entre palabras.
Si añadimos además que en algunos idiomas es frecuente encontrar varios sonidos consonánticos juntos, mientras que, en otros, hay muchas vocales, es decir una estructura de sonidos con los que no estamos familiarizados.

La sílaba es una emisión de voz y, según la psicolingüística, es la unidad menor que percibe el oído humano. Dicho de otro modo, los seres humanos percibimos sílabas y no fonemas.
De un estudio sobre el lenguaje en 2019, encontraron que los italianos son algunos de los que hablan más rápido en término de incluso nueve sílabas por segundo, en comparación, muchos alemanes, pronuncian de cinco a seis sílabas en la misma cantidad de tiempo.
Pero, no importa qué tan rápido o lento se hablen los idiomas, la velocidad para transmitir la información, es en esencia la misma: 39 bits por segundo.
Durante esta misma investigación encontraron que el japonés, que tiene 643 sílabas, tenía una densidad de información de alrededor de 5 bits por sílaba, mientras que el inglés, con sus 6949 sílabas, tenía una densidad de poco más de 7 bits por sílaba.
Algo curioso de observar es que tanto en inglés como en español el acento cumple una función contrastiva y se le conoce como acento léxico (canto vs cantó). En cambio, idiomas como el francés, el irlandés, y el húngaro tienen un acento léxico fijo.
Hasta aquí algunos de los elementos y características de algunas de las lenguas habladas.
Pero el asunto no está concluido si no atendemos cómo el cerebro las procesa.
Durante la conversación, la información sensorial que debe procesarse e interpretarse perceptivamente a través de redes neuronales complejas es el conjunto de sonidos del habla concatenados.

El procesamiento de la lengua verbal comienza con una señal auditiva del habla. Inicialmente, el lenguaje hablado llega a través del sistema auditivo a una velocidad aproximada de 140 a 180 palabras por minuto.
El oyente percibe rápidamente la información auditiva que luego se codifica de forma neutral y se transmite a las áreas corticales para su posterior procesamiento. El análisis fonológico (sonidos) y la identificación léxica (vocabulario) son dos operaciones lingüísticas necesarias para la interpretación y el uso exactos de la señal acústica del habla, lo que da como resultado habilidades precisas del lenguaje receptivo.
Estas operaciones dependen de una agudeza auditiva intacta, la asignación adecuada de recursos atencionales y la manipulación y el mantenimiento simultáneos de la información auditiva a través de la memoria de trabajo.

Las operaciones cognitivo-lingüísticas de un individuo (es decir, las condiciones de escucha internas) utilizadas para el procesamiento del habla se ven afectadas por las condiciones de escucha externas.
La carga y el esfuerzo del sistema cognitivo dependen de la integridad y la calidad de la señal auditiva. Una señal auditiva degradada o señales auditivas en competencia aumentan el esfuerzo auditivo requerido (es decir, la atención necesaria para comprender el habla).
Al escuchar en presencia de ruido de fondo (que por lo regular son casi todos nuestros entornos: un café, una reunión, una junta de trabajo), nuestros recursos cognitivos de atención y memoria de trabajo se ponen bajo alta demanda. Como resultado, se necesitan mayor cantidad de recursos para escuchar, lo que reduce la cantidad de memoria de trabajo disponible para el procesamiento cognitivo y lingüístico.

Cuando una persona tiene dificultades para interpretar la señal auditiva a través de una sola modalidad, puede buscar señales visuales que mejoren el reconocimiento del habla en ruido de fondo. Por esto se dificulta más la comprensión en una interacción telefónica sin video. Aunque por otro lado, la presencia de video puede ejercer una carga de estrés mayor por la sensación de falta de privacidad o invasión al espacio personal.
En general, sostener conversaciones o trabajar en un idioma que no es el nativo produce un cansancio mayor al final del día.
De aquí la importancia de recargar la batería cognitiva tomando frecuentes descansos, bien sea leyendo chistes, hacer ejercicios de respiración, mirar la naturaleza, jugar co la mascota, pero eso sí nada de redes sociales.

Comments