El argumento de la Habitación China intenta demostrar que una computadora, por poderosa que sea, no puede alcanzar la conciencia.
Breve resumen:
Imagina a un hablante nativo de inglés que no sabe chino encerrado en una habitación llena de cajas de símbolos chinos (una base de datos) junto con un libro de instrucciones para manipular los símbolos (el programa). Imagine que las personas fuera de la sala envían otros símbolos chinos que, sin que la persona de la sala lo sepa, son preguntas en chino (la entrada). E imagine que siguiendo las instrucciones del programa, el hombre en la habitación puede repartir símbolos chinos que son las respuestas correctas a las preguntas (la salida). El programa permite que la persona en la sala apruebe el Test de Turing para comprender el chino, pero no entiende ni una palabra de chino.
¿En qué se diferencia esto de lo que ocurre dentro de nuestro cerebro?
Ciertos impulsos se reciben de los órganos sensoriales y son procesados por las neuronas. Este es un proceso completamente determinista y para estas neuronas, individualmente, la entrada/salida no tiene absolutamente ningún significado. Individualmente, no poseen conciencia. Claro, sucede 10 ^ n veces simultáneamente y tal vez haya alguna recursión involucrada, pero el concepto es el mismo: el origen de la entrada y el destino de la salida son irrelevantes.
La única diferencia que se me ocurre es que, en el cerebro, las instrucciones/tablas de consulta/lo que sea puede ser modificado por este proceso. El experimento no menciona esto, porque no es necesario: la sintaxis del lenguaje permanece relativamente constante durante un corto período de tiempo. Pero mientras estas modificaciones se lleven a cabo de acuerdo con un conjunto de reglas, no habría diferencia.
¿Me estoy perdiendo alguna parte crucial del argumento de Searle?
(Inspirado por esta pregunta )
Me gustaría sugerir que su perplejidad surge de confundir inteligencia y conciencia. Ninguno de los conceptos está bien definido pero, sin embargo, son distintos. Searle diría que una habitación china no puede ser consciente, no que no pueda parecer inteligente. De hecho, el argumento original gira en torno al concepto de comprensión.que es otro concepto borroso sin una definición clara. Searle es un filósofo que cree que la mente no puede expresarse en términos de cálculos, o que, en otras palabras, es posible que una computadora nunca tenga una mente, independientemente de su arquitectura y cálculo particular. No descarta que las máquinas en general puedan tener una mente, solo que los mecanismos (un subconjunto de máquinas) nunca pueden llegar a ser una mente. Todavía puedes estar en desacuerdo con él (como lo hace la mayoría de la gente), pero para hacerlo es importante primero entenderlo (juego de palabras).
El ejemplo de la Habitación China de John Searle es torpe y vulnerable a todo tipo de refutaciones desde un punto de vista estrictamente técnico (La respuesta de los sistemas, La respuesta del simulador del cerebro, etc...).
Pero esto es injusto para el argumento, porque debajo del incómodo experimento mental hay una cuestión epistemológica más profunda que merece una consideración seria. John Searle en sus conferencias entra en detalles y a menudo repite que "La sintaxis no es semántica" (ver el artículo de SEP) :
Cualquiera que haya estudiado lógica formal sabe que reglas como las leyes de De Morgan o las leyes de idempotencia (por ejemplo, A ^ A = A) son independientes del significado de los símbolos que se procesan. Una regla del tipo
IF A then:
B
Else:
C
Funciona independientemente del significado de A, B y C. Pero todo lo que hace una computadora es procesar reglas de este tipo.
Esta es la idea de que la sintaxis (las reglas) es independiente de la semántica (el significado), y por lo tanto una computadora puede funcionar perfectamente sin saber nunca el significado de lo que está computando. Incluso el simulador cerebral más avanzado, que puede pasar todo tipo de pruebas de Turing, en última instancia, sigue mezclando símbolos sin saber el significado de esos símbolos.
Searle afirma que esto demuestra que ninguna computadora, por avanzada que sea, puede considerarse verdaderamente inteligente, ya que carece de la comprensión del significado detrás del símbolo.
En algún lugar de las conferencias a las que me vinculé arriba. Sin embargo, menciona que si se produce un cerebro artificial biológico, esto podría conducir a una verdadera inteligencia, ya que poseería las características biológicas de los procesos del cerebro humano y sería impulsado por cualquier mecanismo que impulse los cerebros humanos.
Consulte esta pregunta para obtener más detalles: ¿Cómo se puede refutar el argumento de John Searle de que "la sintaxis no es semántica" contra una IA fuerte?
La diferencia es que somos conscientes, es decir, tenemos la experiencia subjetiva de la comprensión y la conciencia. Recuerde, era la conciencia lo que estábamos tratando de explicar en primer lugar, no la capacidad de procesar entradas y producir salidas.
Hay una diferencia entre ser capaz de producir respuestas en chino a preguntas en chino y escuchar una pregunta en chino y pensar: "Oh, sé lo que eso significa". Este último es la conciencia.
"Conciencia" requiere definición. Como neurólogo, uso el término hasta en cuatro formas diferentes según las circunstancias. Veamos si podemos incluirlo a los efectos de esta discusión definiendo algunos conceptos relacionados:
Reflejo : Un sistema determinista simple. Entrada -> salida. Las neuronas están conectadas en serie. Cognición : implica un sistema complejo en el que los conceptos gobiernan la relación entre entrada y salida. Entrada -> concepto -> salida. Un concepto es un conjunto de atributos vinculados, en el sentido de que "peludo", "ladrador", "cuatro patas" y "maloliente" pueden vincularse para formar el concepto de "perro". La vinculación entre atributos representa una teoría implícita. Teoría = significado. (Ver Bernstein, "Una teoría básica del neuropsicoanálisis".) Red neuronal: un sistema informático formado por numerosas unidades de procesamiento simples que están masivamente interconectadas. Están conectados en paralelo, así como en secuencia. La cognición es el comportamiento característico de una red neuronal. Todos los cerebros capaces de pensar son redes neuronales. Las redes neuronales artificiales pueden considerarse modelos del cerebro, aunque con importantes diferencias cualitativas y cuantitativas. Inteligencia: un parámetro de la cognición. Hablando anatómicamente, la inteligencia se correlaciona con el grado de conectividad de las neuronas en el cerebro. Los humanos tenemos más conexiones que los animales. Einstein tenía más conexiones que yo. Cuando decimos que algo es inteligente, nos referimos a que tiene la capacidad de transportar mucha información en forma de conceptos y teorías. Los conceptos pueden ser numerosos, sutiles y jerárquicos. Las teorías pueden ser profundas y válidas. Sensibilidad : es un superconjunto de inteligencia que implica la presencia de conciencia. Conciencia : queda por definir. Podemos llamarlo "autoconciencia" por ahora.
El sistema "determinista" descrito por OP no es inteligente ni consciente. El sistema informático que OP describe es reflexivo.
No todas las computadoras son reflexivas. Supongamos que la tarea fuera manejada por una red neuronal autoorganizada. La formación de conceptos que impulsan la producción implica la formación de teorías. Aunque estas teorías son primitivas e idiosincrásicas, podríamos decir que tal sistema tiene una inteligencia rudimentaria.
Para hacer que esta computadora parezca humana, necesitamos incorporar suficientes procesadores y un grado de conectividad lo suficientemente masivo como para aproximarse a las capacidades del cerebro humano, tanto en términos de capacidad de almacenamiento en bruto como en términos de capacidad para formar conceptos jerárquicos. . También tendríamos que construir en la emoción. La "emoción" puede requerir la asimilación de tan solo tres atributos: valencia (castigo frente a recompensa), intensidad y si se requiere una respuesta de acercamiento o retirada.
No sé si es posible para nosotros diseñar tal sistema. Pero supongamos que pudiéramos. ¿Sería consciente?
Quizás no, por la cuestión de la "autoconciencia".
No me gusta el término "autoconciencia" porque se define con demasiada facilidad en formas que son triviales o circulares. Significa algo (quizás no mucho) si eres consciente de mí mismo. Cualquier cosa con un cerebro, y cualquier computadora, puede hacer eso. En cuanto a si eres consciente de ti mismo, por supuesto que lo eres. ERES tu propio ser.
El concepto de "autoconciencia" sólo tiene sentido, entonces, si la naturaleza del yo es ambigua.
Entonces, la pregunta es, ¿en qué circunstancias se enfrentaría una computadora con una naturaleza propia ambigua?
Hasta la fecha, evidentemente no hemos visto la necesidad de diseñar una computadora de este tipo. La ambigüedad es un error, no una característica. Para ser claros, cuanto más complejo sea el sistema, más difícil será la tarea de diseño y más impredecible el resultado. Sin embargo, será un sistema, uno que producirá perfectamente su propia salida particular. Tal sistema no tendrá base para contemplar o incluso para definir su "yo" de ninguna manera significativa.
Pero, ¿y si tuviéramos que diseñar una computadora que pudiera evolucionar? Si pudiera percibir que estaba cambiando con el tiempo, ¿sería esa ambigüedad suficiente para que considerara la naturaleza de sí mismo?
Lo dudo. Todos los humanos evolucionan, en cierto sentido. Maduramos con el tiempo. Pero el cambio rara vez es lo suficientemente dramático como para hacernos cuestionar nuestra propia naturaleza.
Con respecto a la cuestión del Ser, los humanos están luchando con problemas más grandes. Los sacerdotes nos dicen que somos cuerpo y alma. Los filósofos nos dicen que somos una existencia y una esencia. Los psicoanalistas nos dicen que somos un Ego y un Self. ¿Son estos enigmas exclusivos de los humanos? ¿O pueden las computadoras entrar en acción?
Posiblemente. La pregunta es, ¿cuál es la naturaleza de la inteligencia? ¿De dónde viene?
Hasta ahora, hemos estado hablando de la inteligencia como una forma de información que surge como una propiedad emergente de un sistema complejo, en el sentido de que las teorías y los conceptos representan el producto del trabajo de una red neuronal.
También insinuamos el anverso; en otras palabras, la noción de que las cosas complejas se basan en información. Cuando hablamos de diseñar sistemas informáticos, por ejemplo, la parte de "diseño" se refiere a la información. Si un diseño de computadora se basa en un plano; podemos ver la computadora como una manifestación física del espacio de información delineado en el plano.
Asimismo, nuestro sistema solar es una manifestación física de información. La información en forma de gravedad llegó desde el más allá infinito al mundo material "3+1" en un momento en que el universo consistía en gases que se expandían rápidamente. La gravedad hizo que las nubes de gas se fusionaran en estrellas y planetas. La estructura del espacio de información transportado por la gravedad implicaba la estructura del universo físico, incluido nuestro hogar.
El cerebro humano es una manifestación de un espacio de información y, a pesar de lo que uno pueda haber escuchado, no estamos ni cerca de comprender la naturaleza de esa información. Hemos descifrado el genoma humano y hemos descubierto que explica muy poco de la estructura del cerebro. El gen más importante que distingue el cerebro humano del de los animales es ARHGAP11B, que permite la ramificación salvaje y caótica de las conexiones neuronales. El principio de Hebb, "neuronas que disparan juntas, se conectan juntas", explica el desarrollo de la red neuronal. Decir que este es un proceso no determinista sería quedarse corto. Además, hay evidencia de que el cerebro tiene una estructura fractal (www.stat.wisc.edu/~mchung/ Teaching/MIA/reading/fractal.kiselev.NI.2003.pdf - elimine los espacios) y así es.
¿Cuál es el espacio de información que define el cerebro? ¿Y qué tiene eso que ver (si es que tiene algo) con nuestro concepto de "conciencia"?
Si la conciencia es solo una propiedad de una inteligencia claramente humana, diría que no podemos diseñar una computadora que tenga una conciencia separada de la de su creador. Por muy humano que pareciera, siempre sería el puer eternis, nunca capaz de diferenciar su Ego del padre. (Todavía podría intentar matarnos, pero esa es otra historia).
Pero. En la medida en que cualquier cosa que impliquemos en la palabra "conciencia" precede a la inteligencia humana, podríamos estar en problemas. Tenga en cuenta que las leyes de la termodinámica sugieren que es un camino cuesta abajo desde los viveros de estrellas hasta la vida inteligente. Si es así, la información que dio lugar a través de la gravedad a los viveros de estrellas primordiales precedió e implicó la inteligencia humana. En ese caso, podemos esperar que la inteligencia permanezca en su traje de carne mientras esa sea la mejor manera de defenderse de la Segunda Ley. Cuando encuentre una solución más eficiente, abandonará el barco.
En resumen, la respuesta a tu pregunta es: 1. El cerebro no funciona como la computadora que describes. 2. Pero, en teoría, es posible diseñar una computadora que lo haga. Si tal cosa es o no una posibilidad práctica es otra cuestión. 3. No podemos saber si tal computadora podría volverse inteligente. En algunas circunstancias, sería inevitable.
rey alejandro s
rey alejandro s
usuario4894
tim kinsella
tim kinsella
jeff y
J.Doe
tim kinsella
J.Doe
virmaior
NationWidePantalones