Representaciones de proposiciones negadas

La siguiente pregunta es bastante hipotética, y solo para tener una idea.

Asuma cualquier modelo de cómo las proposiciones positivas pag se representan activamente (en oposición a sinápticamente) en una red neuronal, por ejemplo, "el gato se sentó en la alfombra". Presumiblemente, esto será por algún tipo de activación de algunas neuronas o ensamblajes de neuronas.

Me pregunto cómo la proposición negativa correspondiente ¬ pag podría representarse, por ejemplo, "el gato no se sentó en la estera". ¿Habrá un disparo adicional de NO-neuronas? ¿Se activarán las mismas neuronas en modo NOT? ¿Se sentará el gato en una NO alfombra? O completamente diferente. ¿O tales proposiciones no están representadas en absoluto, es decir, solo podemos "pensar positivamente", y solo informar verbalmente , que pensamos o no que pensamos eso ? pag (que sería una especie de meta-informe)?

¿Qué propuestas existen para la representación de proposiciones negadas?

Respuestas (1)

Un candidato plausible para eso es la subred de interneuronas.

Digamos que alguna entidad puede ser verde y fría. También puede ser amarillo y caliente, pero no frío y caliente. Entonces, podemos decir que para este tipo de entidades existen 2 variables independientes, describiendo su estado. Si en este momento la variable 'color' se establece en el valor "rojo", eso significa la negación de todos los demás valores de esa variable (ni verde, ni azul, ... infinidad de ellos). La pregunta es solo cómo almacenar la "variable" de construcción en el tejido neural.

Uno puede reunir todos los valores posibles de la variable y conectarlos a todos con un circuito de inhibición lateral denso. La activación de una neurona dentro de ese conjunto matará las activaciones de las demás.

Y mira, ¡ahora tenemos un buen instrumento para la detección de errores en nuestro modelo del mundo! Si la red ha cableado las representaciones de algunas entidades por inhibición lateral, significa que la red ha establecido una hipótesis de que estas entidades (en algún contexto) son solo valores diferentes del mismo factor impulsor. Si en el momento siguiente una fuerte señal de retroalimentación ha activado 2 neuronas principales dentro del círculo, la hipótesis no era correcta. La red ha detectado "paradoja".

Esta explicación es plausible debido a 3 hechos:

  1. Hay un famoso patrón de molinete en la corteza visual:mapas de selectividad de opinión

La figura de arriba muestra un mapa reconstruido de diferentes valores de la variable "orientación espacial" en la corteza visual. Están ordenados en orden no aleatorio.

  1. La superposición de neuronas inhibidoras en ese mapa muestra que una interneurona puede funcionar con diferentes "valores" de orientación espacial.inhibitorio
  2. Existe una proposición científica, que el algoritmo subyacente es el mismo en todas las partes de la corteza (es decir, las diferencias son más probables en los hiperparámetros que en la esencia). No conocemos el algoritmo (y no pretendo que mi respuesta sea correcta), pero los científicos no ven diferencias dramáticas en la microbiología del tejido en diferentes regiones de la corteza. Así que... si aparece alguna relación "variable - valor" en la parte mejor estudiada de la corteza (la primaria), probablemente tengamos motivos para esperar tales tendencias en otras partes.

fuente de imágenes - Neurobiología: dando un giro en la investigación de la visión, 1999, Nature

¡Qué hermoso! ¡Y qué instructivo! Nunca he oído hablar de (resp. visto) esto antes. ¿La proposición científica que menciona en el punto 3 tiene un nombre (puedo buscarlo en Google)?
No estoy seguro del nombre, pero hubo un experimento con un gatito recién nacido: destruyeron su corteza visual (antes de que la poda sináptica lo conectara escasamente) y se demostró que la corteza auditiva del gatito ha implementado funciones visuales. Así el gatito ve el mundo. Por supuesto, este enfoque solo funciona para animales recién nacidos.