¿Cómo (si es que lo hace) el poder hablar y escuchar simultáneamente alteraría la estructura y el desarrollo del lenguaje?

La comunicación oral requiere que los seres humanos sean capaces de hacer dos cosas separadas:

El primero es comprender lo que se les dice (lo que incluye aislar el sonido de la voz de la otra persona de todos los demás ruidos del entorno, resolver el sonido en un conjunto de palabras y pausas, y procesar las palabras y las pausas para extraer el significado). de ellos). El segundo es comunicar sus propias ideas a la otra persona (formulándolas en una secuencia de palabras y pausas, y hablando en voz alta de tal manera que la otra persona pueda extraer significado de ellas).

Ahora, en su mayor parte, solo podemos hacer una de estas cosas a la vez (y, a menudo, con una pequeña pausa intermedia mientras procesamos lo que se nos ha dicho y decidimos qué queremos decir a cambio). Me pregunto, si este no fuera el caso, y ambas tareas pudieran realizarse simultáneamente sin interferir entre sí, ¿se habría desarrollado el lenguaje de la manera que lo ha hecho? ¿Seguiría funcionando la gramática como lo hace?

Si no, ¿qué diferencias podríamos esperar ver?

Ya somos capaces de hacer eso. La razón principal por la que no estamos hablando y escuchando al mismo tiempo es que lo que decimos tiene que estar basado en lo que escuchamos.
FSK (Modificación por desplazamiento de frecuencia), TDMA (Acceso múltiple por división de tiempo)... muchas otras tecnologías de telecomunicaciones interesantes y bien documentadas.
Escuché que las personas en trabajos de alta presión y tiempo crítico con sobrecarga de información (p. ej., pilotos y controladores de tráfico aéreo) desarrollan la capacidad de absorber múltiples flujos de datos, específicamente, múltiples flujos de audio (voz), simultáneamente . Espero que los mejores despachadores de los servicios de emergencia ("911") hagan exactamente lo que usted dice: notificar a la policía, al departamento de bomberos y/o a los paramédicos mientras escuchan a la persona que llama . (Por supuesto, esto puede hacerse digitalmente en lugar de vocalmente, pero no estoy seguro de que eso marque la diferencia).
Hice +1 en esto porque creo que es una gran pregunta, pero me gustaría poder hacer +1 nuevamente por instigar todas estas buenas respuestas. ¡Mi respuesta es competir con buena compañía! Excelente primera pregunta, TheTermiteSociety, ¡y bienvenidos a WorldBuilding!
¿Sabes que la frecuencia puede amplificarse y cancelarse entre sí?
¿Quieres decir que no puedes? Pensé que todo el mundo podía; Ciertamente puedo. Puedo escuchar y participar en múltiples conversaciones, en múltiples idiomas simultáneamente (solo hablando con uno a la vez, por supuesto ;-).
Otro ejemplo de personas que escuchan y hablan al mismo tiempo: Traductores simultáneos.
Creo que esto es muy interesante en conversaciones con múltiples participantes. Por ejemplo, podría estar escuchando lo que dice una persona y, al mismo tiempo, estar hablando con una tercera persona o grupo.
Esto ya sucede en los programas de entrevistas... oh, espera, no se escuchan entre ellos.

Respuestas (4)

Esto es interesante para mí porque lo que quieres explorar sucede y no sucede. Como habrás notado, es muy difícil mantener una conversación cuando ambas partes intentan hablar entre sí. Sin embargo, tenemos muchos ejemplos de canto en los que de hecho estamos vocalizando por encima de alguien mientras lo escuchamos. No hay otra forma en que un cuarteto de barbería pueda mantener las armonías bloqueadas que necesitan para sonar como lo hacen.

Esto apunta a algo más profundo en nuestra psique. Algo en la forma en que pensamos sobre la comunicación nos hace optar por no hablar de la manera que usted describe. Eso lo hace divertido porque también sugiere que esta incapacidad para hablar y escuchar puede ser cultural, no biológica. Siempre es divertido profundizar en las cosas culturales, pero primero, un poco de biología.

Una limitación clave de cualquier cognición humana es la lentitud con la que el cerebro procesa nuevos estímulos. Si está preparado para un estímulo, el cerebro puede responder en 106 ms (ese tiempo lo logró un atleta olímpico en una prueba cuidadosamente estructurada). Sin embargo, si el cerebro está menos preparado, es más lento. Hay un par de ondas cerebrales que a los científicos les encanta usar en experimentos psicológicos llamados P300a y P300b. Cada uno de estos ocurre aproximadamente 300 ms después de un nuevo estímulo (por lo tanto, P300). P300a responde a un estímulo inesperado (como un ruido fuerte), mientras que P300b responde a un estímulo inesperado relacionado con la tarea actual (como que el semáforo se ponga amarillo mientras conduce). A los científicos les encantan porque son muy fáciles de distinguir y están bien correlacionados con la cognición misma.

Esto muestra un límite inferior para la comunicación "al mismo tiempo". Si su estímulo necesita alcanzar mis funciones cognitivas superiores, ni siquiera comienzan a procesarse hasta 300 ms después de que haya emitido su sonido y probablemente necesitará unos cientos de milisegundos para procesarlo. La mayoría de las conversaciones se mantienen a 110-150 palabras por minuto (400-545 ms por palabra), y aunque no tengo ninguna evidencia científica que lo respalde... parece que esas dos líneas de tiempo están fuertemente relacionadas.

Otro límite es que las funciones cognitivas superiores tienden a ser más seriales y menos paralelas. Es mucho más difícil contar hacia atrás de 100 en 7 mientras se escucha hablar a alguien que hacer una cosa o la otra. Esto, naturalmente, serializa la conversación.

Sin embargo, mencioné que escuchamos mientras hablamos, y di el canto como ejemplo. Mantenerse afinado es una función cognitiva más baja, ya que los cantantes no están pensando activamente en ello la mayor parte del tiempo. Los cantantes tendemos a aprender a mantenernos afinados automáticamente. Esto significa que no necesitamos tener ninguna de esas lentas ondas P300 disparando para mantenernos en sintonía. Podemos utilizar las funciones inferiores y más rápidas del cerebro para comunicarnos.

Entonces, ¿qué pasa si usamos más esas partes bajas cuando nos comunicamos? Creo que hay mucho espacio para la interpretación ahí, porque esa parte del cerebro no se entiende muy bien. No sabemos muy bien cómo se vería si se comunicara más directamente de lo que lo hace. Sin embargo, tenemos algunos ejemplos de lo que podría ser. Hay un ejemplo particular que me viene a la mente, las actuaciones de estilo Kecak de Bali, Indonesia. Se cree que tiene su origen en un ritual de exorcismo. Seré el primero en admitir que, como ciudadano estadounidense blanco, no entiendo completamente lo que está pasando aquí, pero cuando pienso en cómo sería para nosotros derribar los muros que levantamos alrededor de nuestro cerebro y que las funciones inferiores se comuniquen entre sí,. No sé ustedes, pero tengo una sensación extraña cuando veo sus bailes, como si estuvieran acercándose a mí de una manera que no comprendo completamente. Tal vez hay más en esto de lo que parece.

Hay algunas ideas fascinantes en esta respuesta (gracias). Creo que probablemente tenga algún significado la distinción entre hacer esto para lo que llamas pensamiento "superior" (que interpreto como complejo y consciente) y lo que llamas "inferior" (que considero pensamiento subconsciente o simple) . ) pensamiento. Puedo imaginar un lenguaje que permita a los hablantes comunicar casi constantemente sus sentimientos y creencias más intuitivas sobre algo (simultáneamente), al mismo tiempo que les exige que tomen turnos para una comunicación más exigente.
@TheTermiteSociety y eso se llama mímica y señales. Lo hacemos todo el tiempo, mientras hablamos leemos la expresión facial del oyente y nos adaptamos a sus sentimientos, al mismo tiempo que comunicamos los nuestros con la cara y las manos. Estamos hablando y escuchando al mismo tiempo, solo que no con palabras: las palabras son para conceptos de alto nivel.

La respuesta de Cort Ammon es buena, pero quiero agregar comentarios y tengo más comentarios de los que aceptará la sección de comentarios.

El lenguaje humano tiene la flexibilidad para conversaciones simultáneas

En primer lugar, como señaló, el lenguaje humano es muy flexible. Hay tantas cosas que puedes hacer con tu voz más allá de lo que solemos hablar. Por ejemplo, los hablantes de inglés no usan el tono como lo hacen los chinos (mientras que los chinos no usan el tiempo gramatical). Hay al menos 150 fonemas únicos (sonidos, más o menos) que se utilizan en el habla por varios grupos humanos. !Xuun usa algo así como 141 de ellos; El inglés usa hasta 47 (21 vocales, 26 consonantes, aunque no todos los dialectos pronuncian todos los sonidos).

El punto es que al usar diferentes sonidos o tonos, dos personas pueden hablar al mismo tiempo y ser perfectamente inteligibles al no compartir sonidos similares que interfieran entre sí. Teóricamente, un idioma podría desarrollarse donde hubiera un 'primer hablante' y un 'segundo hablante' usando diferentes sonidos y tonos, de modo que dos personas pudieran usar uno de los dos dialectos del hablante para hablar al mismo tiempo. El 'primer hablante' podría usar todas las vocales cortas y el 'segundo hablante' podría usar todas las vocales largas, por ejemplo. O podría ser tan fácil en un idioma tonal como el chino que el segundo hablante suba o baje su voz a una quinta mayor del primer hablante, de modo que su discurso no se superponga en los tonos.

Independientemente de lo anterior, el oído y el cerebro humanos son suficientes para rastrear múltiples conversaciones a la vez. Es difícil 'comprender' dos conversaciones a la vez, como veremos a continuación, pero la mayoría de las personas han escogido su propio nombre en una conversación en la sala. Además, cualquier persona con niños puede decirle que puede escuchar lo que dicen sus hijos incluso si está hablando con otra persona.

El cerebro humano no está configurado para una conversación simultánea.

Una vez más, siguiendo a Cort Ammon, nuestro cerebro no está configurado para procesar el lenguaje al mismo tiempo que lo hablamos. Solo inténtalo, es muy difícil ordenar tus pensamientos mientras escuchas, o incluso si estás leyendo.

Es interesante que la afasia expresiva y receptiva (incapacidad para hablar y comprender el lenguaje, respectivamente) estén vinculadas a diferentes áreas del cerebro. Por lo tanto, no es tan fácil afirmar que existe una dificultad compartida que se usa tanto para expresar como para recibir el lenguaje que nos impide hacer ambas cosas al mismo tiempo. Pero la prueba está simplemente en probarlo usted mismo. Intente leer una oración de esta respuesta mientras recita algo que haya memorizado, luego intente repetir lo que acaba de leer. Simplemente no puedes hacerlo (al menos yo no puedo).

Conclusión

El lenguaje humano es lo suficientemente flexible como para admitir hablar y escuchar simultáneamente, pero el cerebro simplemente no está a la altura.

"nuestros cerebros no están configurados para procesar el lenguaje al mismo tiempo que lo hablamos", esto simplemente no es cierto. ¡Nuestro cerebro puede aún más! ¡Piense en la interpretación simultánea, que requiere escuchar y hablar en dos idiomas diferentes !
@vojta Lo admito, no había pensado en la traducción en tiempo real. Sin embargo, ¿es posible que el hecho de que estén usando dos idiomas diferentes lo haga más fácil? Tal vez no, pero si es así, podría tener una gran importancia para cualquier lenguaje que se desarrollara para la comunicación simultánea.
@vojta Buen punto, aunque diría que la traducción en tiempo real cae en un caso diferente, ya que está escuchando y repitiendo los mismos conceptos; lo cual yo (sin la menor autoridad en la materia, para ser honesto) considero un caso diferente al tratar simultáneamente con diferentes conceptos, como una conversación o el ejemplo antes mencionadoTry to read a sentance from this answer while reciting something you have memorized, then try to repeat what you just read.
@xDaizu Yo diría que la traducción en tiempo real es mucho más difícil de lo que parece. Los idiomas con frecuencia no coinciden 1:1 con respecto a los conceptos y, a menudo, estás más interpretando lo que se dice que realmente traduciéndolo. Como ejemplo, el portugués tiene muchas más palabras que el inglés. Si intenta hablar en tiempo real de inglés a portugués, tendrá que traducir grandes cantidades de palabras a la vez solo para comprender qué matices necesita transmitir en portugués. Simplemente verifique cuántas palabras hay para traducir algo como "sobre" al portugués: tiene más de 20 traducciones directas posibles.
@vojta No leíste detenidamente lo que digo. Cuando estás interpretando simultáneamente, solo hay un tren de pensamiento. El lenguaje entra, se interpreta en un conjunto de patrones de pensamiento, luego los mismos patrones de pensamiento salen en un idioma diferente. Una conversación requiere que proceses simultáneamente lo que viene y desarrolles una respuesta. Son dos trenes de pensamiento diferentes. Esa es la parte que no es posible.
@ThalesPereira Estoy de acuerdo con todo lo que dices. La traducción en tiempo real es muy difícil, nunca pretendió dar a entender lo contrario. ¡Y ni siquiera empezaste con modismos ! Lo que pretendía argumentar en mi comentario es que es una disciplina diferente (sin discutir si es más difícil o más fácil, simplemente diferente ) y, por lo tanto, su viabilidad no prueba ni refuta la viabilidad de la habilidad declarada por el OP, lo que contradice su primer comentario: (...)this is just not true. Our brain can even more! Think of simultaneous interpretation(...):)
@vojta Tiene algo de razón, pero hablar no requiere un pensamiento complejo, y en la mayoría de los casos, es prácticamente un reflejo en sí mismo. El pensamiento proviene de decidir qué palabras decir, pero nuestro cerebro es capaz de hacerlo significativamente más rápido de lo que podemos hablar. Los argumentos son la mejor manera de mostrar esto. Las personas pueden detenerse en la mitad de la oración para responder a la persona que habla por encima de ellos o, a veces, incluso pedir que los dejen terminar, lo que solo funciona cuando el final del argumento tiene cosas relevantes para lo que dice la otra persona, lo que demuestra que comprendió a los demás. palabras mientras hablan.

Hay un ejemplo de la vida real de escuchar y hablar al mismo tiempo en el caso de los traductores en tiempo real. Esto es en una escala de tiempo diferente a los milisegundos; un traductor generalmente necesita escuchar unos segundos de voz antes de comenzar a traducir y, dependiendo de los idiomas involucrados o si surgen ambigüedades, es posible que desee acumular una acumulación de voz más larga. Nótese que aunque están retrasando sus respuestas al estímulo inicial por varios segundos, están hablando al mismo tiempo que están escuchando las oraciones que van a traducir unos segundos después.

Si nada más, es una prueba de que los humanos son capaces de tareas como esta; su rareza demuestra más que generalmente no es útil que que es imposible. La razón por la que no es útil se explica en otras respuestas: la mayoría de las comunicaciones son en serie, y debemos escuchar el final de una pregunta para poder responderla (a menos que adivinemos correctamente el final de la pregunta; pero esto sigue siendo una comunicación en serie, porque al menos necesitamos escuchar las partes importantes antes de responder).

Poder hablar y escuchar al mismo tiempo solo sería útil para la comunicación no serial, y no estoy seguro de cuál sería la ventaja de dicha comunicación. Un grupo de personas que transmiten actualizaciones de estado simultáneamente podría calificar, o mantener dos conversaciones separadas al mismo tiempo. Esto último sucede a menudo cuando hay un retraso en la respuesta, por ejemplo, en cartas, correos electrónicos o salas de chat; no es inconcebible que suceda en conversaciones habladas, ya que a menudo sabes completamente lo que quieres decir antes de terminar de decirlo, lo que libera tu mente para escuchar otra cosa y formular una respuesta a eso también. Una vez más, parece tener un beneficio limitado a menos que tenga una entrevista con muchas preguntas y no tenga suficiente tiempo para hacerlas todas.

Los traductores me aturden. Si no pudiéramos verlos hacerlo todos los días, ¡diría que lo que hacen es imposible!
Me pregunto hasta qué profundidad experimentan los traductores lo que están traduciendo, por ejemplo, si traducen una charla de TED, ¿se van con una comprensión más profunda que el miembro promedio de la audiencia, ya que procesan cuidadosamente todas y cada una de las palabras pronunciadas, o necesitan mirar? una grabación posterior para comprender los conceptos superiores ya que estaban tan enfocados en las traducciones?
He leído que otro ejemplo de la vida real es el lenguaje de señas entre 2 personas (no funciona en grupos más grandes, por supuesto).

Hay un caso razonable de que esto es exactamente lo que sucede. Gran parte de la comunicación verbal humana es un poco redundante puramente en términos del contenido de la información y, en muchos casos, la conversación real se trata más de señales más sutiles de tono, contexto, inflexión y lenguaje corporal, y gran parte de la conversación es más o menos automático en términos de la mecánica de la gramática y el vocabulario.

La mayor parte del tiempo, en una conversación informal, somos capaces de formular conceptos e influir en matices bastante sutiles sin pensar mucho en ello. Solo la diferencia en la forma en que hablas con un buen amigo, un conocido casual, tu jefe, alguien que te atrae, etc.

Vi un buen ejemplo solo hoy en forma de un taller de audición teatral donde se les pidió a las personas que contaran una historia y ocasionalmente se les detuvo y se les dio un contexto nuevo e inesperado. Por ejemplo, a mitad de la oración se les puede detener y pedirles que imaginen que están contando la misma historia pero que estaban en una entrevista de trabajo o dando un discurso en una boda o tratando de asustar a alguien alrededor de una fogata. Inmediatamente podías ver a los actores competentes, no porque pudieran inventar nuevas líneas en el acto, sino porque pudieron ponerse en ese contexto y toda su interpretación cambió de una manera que quizás no notes en un guión escrito.

El punto clave aquí es que gran parte de la mecánica del lenguaje está completamente separada del pensamiento consciente y racional, y pensar en lo que vas a decir a continuación mientras la otra persona sigue hablando es una parte completamente normal de la conversación.

De hecho, hay un argumento de que en un contexto moderno en el que tenemos que lidiar con conceptos muy complejos e información técnica que nunca evolucionamos porque en realidad hay demasiado habla y escucha paralelas y estaríamos mejor con una convención de lenguaje que no Depende tanto de una respuesta más o menos instantánea.

Considere también que en la mayoría de los contextos sociales casuales, las pausas en las conversaciones a menudo se consideran incómodas (y las pausas aceptables se han medido como muy pequeñas), esto en sí mismo implica que podemos comenzar a formular una respuesta mucho antes de que la otra persona lo haya hecho. terminó de hablar.

De alguna manera, la literatura resume esto mejor que la ciencia y valdría la pena mirar a escritores como Pratchett, Pinter, Austin y Wodehouse para tener una idea de cuán flexible y matizado puede ser el diálogo.

Creo que tienes razón sobre los matices sutiles, y que ya lo hacemos hasta cierto punto. Ciertamente tendemos a lanzar una buena cantidad de 'sí' y 'hmm' y 'ah, está bien' cuando hablamos con personas con las que estamos familiarizados (o con las que nos sentimos cómodos). Sin embargo, ¿es realmente cierto que metemos tanta información como sea posible en estas respuestas? ¿Distinguimos sin ambigüedades de esta manera entre "Estoy completamente de acuerdo y estoy encantado con eso", "Creo que estoy de acuerdo, pero tengo que pensarlo más", "Estoy de acuerdo, pero no estoy contento con eso"? etc.? Sin embargo, quizás las razones por las que no lo hacemos sean culturales.
Ya lo haces, si hablas de lo geniales que son los trenes y tu amigo pone los ojos en blanco mientras lo haces. Adaptarás tu discurso a esta nueva información que obtuviste al mismo tiempo que hablabas.
@Falco Ok, es totalmente mi culpa aquí por elegir malos ejemplos (ya que cada uno, como dices correctamente, se puede expresar a través del lenguaje corporal), pero eso no es exactamente lo que quise decir. No estoy descuidando el lenguaje corporal o las características paralingüísticas del habla. Más bien, me pregunto cuánta información adicional de este tipo podría incorporarse al lenguaje hablado para complementarlo, y observo que ya lo hacemos en pequeña medida con nuestros ruidos (palabras) de acuerdo, desacuerdo, aprobación, desaprobación, etc. (sugiriéndome que estas cosas no necesariamente tienen que ser no verbales).