Procesamiento de sonidos del habla/no del habla en el cerebro humano

Tengo un tipo de pregunta "¿qué fue primero: el huevo o la gallina?" con respecto al procesamiento y la comprensión de los sonidos del habla/no del habla en el cerebro humano. Me pregunto si el procesamiento del habla y el procesamiento genérico del sonido no del habla en el cerebro humano están relacionados de alguna manera y si uno de los dos se usa como "base" matemáticamente hablando o como referencia para entender al otro.

La mayoría de la gente usa "Su voz/Suena como..." para describir sonidos/voces humanas, además, podemos desconectarnos y bloquear cualquier actividad acústica que no sea del habla que nos rodea si no estamos en una conversación que sugiera que tenemos una sensibilidad especial para escuchar el habla (o tal vez nuestro idioma o simplemente nuestros nombres si alguien nos está llamando).

He leído un artículo que dice que:

El conocimiento de nuestra lengua materna actúa como una especie de "plantilla" auditiva que influye en la forma en que percibimos los sonidos de otros idiomas (los científicos llaman a esto "escucha nativa"). 

Escuchar otros idiomas de manera diferente a sus hablantes nativos es fácil de comprender, pero ¿hay alguna investigación que estudie la diferencia en la actividad cerebral cuando se escuchan el habla u otros sonidos y si hay algo especial en escuchar el habla en particular?

Respuestas (1)

"Me pregunto si el habla y el procesamiento de sonido genérico que no es del habla en el cerebro humano están relacionados de alguna manera y si uno de los dos se usa como 'base' matemáticamente hablando o como referencia para entender al otro".

Ambos tienen en común la energía acústica, cuya tasa de cambio es información en sí misma. Creo que la base matemática de elección para comparar unos contra otros está en cómo cada uno relaciona esa energía con la respuesta del cerebro, también conocido como el modelo directo de la relación estímulo-respuesta.

En estudios auditivos, a menudo se obtiene la función de respuesta (espectro)temporal (S/TRF) para estimar un "resumen" aproximado de esta relación. Tenga en cuenta que tradicionalmente, esto se hace de forma independiente, es decir, la energía del habla o de otros tipos de sonido se investigan por separado.

"¿Existe alguna investigación que estudie la diferencia en la actividad cerebral cuando se escuchan el habla y otros sonidos?"

Existe una historia de trabajo que contrasta la codificación diferencial de las clases de sonido natural versus artificial (consulte el trabajo fundamental de Theunissen y sus colegas). En estas escalas (neuronas o grupos de neuronas), las diferencias pueden ser bastante marcadas y ocurrir tanto en aves como en mamíferos.

Si está más interesado en estas reglas de codificación relacionadas con la "actividad cerebral" a mayor escala, existen estudios de potencial de campo local (p. ej., Gaucher et al. 2012 J Physiol-Paris ) que también se relacionan matemáticamente con el S/TRF. Sin embargo, lo más probable es que sean estudios animales invasivos. Además, no recuerdo si contrastan los S/TRF del habla con otros sonidos. Si desea algo más cercano a la cognición humana, probablemente también desee ver los estudios de EEG o MEG.

Resulta que encontrar similitudes puede ser un poco más difícil que encontrar las diferencias, tal vez porque los sonidos son muy diferentes en sí mismos. La relación matemática no puede escapar a este hecho y, a su vez, puede dar distintos patrones S/TRF.

En una preimpresión que busca similitudes entre los tipos de estímulos, se informa que la corteza auditiva humana puede codificar cierta información sobre los cambios de energía acústica, en particular los límites de inicio temporal, ya sea del habla, la música o algo más. , en un formato más o menos generalizable entre clases, al menos cualitativamente. https://www.biorxiv.org/content/early/2017/07/27/168997