La sala china no es una computadora, pero ¿importa? [duplicar]

El argumento central de la habitación china de Searle es su afirmación de que la habitación tiene las propiedades semánticas de una computadora digital electrónica. En una publicación de hace unos días en una discusión sobre la semántica, argumenté que hay una diferencia semántica fundamental. Pero, ¿importa esto a la conclusión del argumento de la habitación china?

La diferencia está en la semántica extrínseca. Los símbolos chinos caen en la habitación a través de una ranura en la puerta. Desconocido para Searle, la CPU, sus formas han recibido significados o interpretaciones (una "semántica") por observadores fuera de la habitación. Searle, que no sabe chino, solo capta la forma. Nada en la forma indica su significado. No hay una semántica intrínseca , pero sí una semántica extrínseca o externa.

Se supone que la sala china es una computadora que intenta ser una mente. Pero, ¿qué sucede en el dispositivo electrónico real? La entrada a una computadora es una secuencia de niveles de voltaje cronometrados, no ideogramas chinos. Los niveles de voltaje cronometrados ingresan a la computadora desde el exterior. Desconocido para Searle, la CPU, los observadores fuera de la habitación han asignado significados a sus niveles de voltaje.

Esa es la diferencia. Esto es imposible. Un observador puede percibir una forma y darle un significado, pero nadie puede percibir un nivel de voltaje cronometrado y darle un significado porque ningún ser humano tiene el aparato sensorial para percibir un nivel de voltaje cronometrado. En otras palabras, las cosas que procesa la sala china tienen una semántica extrínseca, pero las cosas que procesan las computadoras no. Es una diferencia semántica fundamental entre la sala china y las computadoras. Pero, ¿implica esto alguna diferencia en la conclusión del argumento de la habitación china?

Las cosas que procesan las computadoras no tienen semántica en absoluto (ni intrínsecas ni extrínsecas), entonces, ¿qué pasa con los cerebros? Procesan principalmente pulsos eléctricos unarios. Los humanos también carecen del aparato sensorial para percibirlos. ¿Y qué hay de los tiempos prehumanos cuando no había nadie para tratar de asignar una semántica extrínseca a los pulsos neuronales? Los pulsos neuronales tampoco tienen semántica extrínseca o intrínseca. Pero los cerebros entienden el mundo. El cerebro biológico demuestra que un sistema que procesa semánticamente objetos vacíos puede llegar a comprender el mundo. Entonces, ¿la semántica de los objetos que se procesan es irrelevante para un sistema que comprende el mundo? ¿Es la CRA simplemente irrelevante para la búsqueda de la máquina pensante por parte de AI?

El argumento central de la habitación china de Searle es su afirmación de que la habitación tiene las propiedades semánticas de una computadora digital electrónica. -- Dejé de leer aquí. Las computadoras son SINTÁCTICAS. No tienen propiedades semánticas. La semántica es proporcionada por las personas fuera de la computadora. La habitación no tiene propiedades semánticas, ese es todo el punto del argumento.
@ user4894, "las computadoras son sintácticas" solo es cierto para el caso especial (aunque ubicuo) de UTM totalmente programables con respecto a sus entradas nominales (sin programa). El procesamiento UTM de las entradas de sus programas va más allá de la pura formalidad (forma) (p. ej., "+" frente a "-", véase [1]). El procesamiento general de TM también puede ir más allá del procesamiento puramente formal. La familiaridad de la programación nubla la comprensión común de las MT. [1]: filosofía.stackexchange.com /questions/34358/…
Phil-132: La máquina de Turing es esencialmente sintáctica...
Parece que confundes las representaciones con lo que representan. Los voltajes en las computadoras representan dígitos, que tienen semántica externa, al igual que los garabatos en papel en la sala china representan caracteres chinos, no hay diferencia de principio. Y el aparato sensorial humano se puede mejorar fácilmente con un voltímetro para percibir los niveles de voltaje, por lo que ambas partes del argumento no funcionan.
Para el usuario 4894, mi argumento principal es que la sala china no es una computadora. Aunque reacciona solo a la sintaxis de las cosas que procesa (a las formas de los ideogramas chinos), estos ideogramas en realidad tienen una semántica extrínseca. Un observador les dio un significado. Searle dice que las computadoras también procesan objetos que tienen una semántica extrínseca, pero esto es falso. Esta diferencia semántica entre la habitación y las computadoras parece realmente interesante porque parece que las cosas que procesan los cerebros también carecen de cualquier tipo de semántica, entonces, ¿de dónde obtienen los cerebros su semántica?
Para Phil_132. ¿No dijeron Newell y Simon (hipótesis del sistema de símbolos físicos) algo así como que los efectos sobre el hardware de los símbolos del programa son una especie de semántica? Entonces, cuando el símbolo P0 (que significa Imprimir un 0 en el cuadrado actualmente debajo de la cabeza) en realidad imprime el 0, ¿la reacción de la máquina al símbolo P0 es el significado del símbolo en lo que respecta a la máquina? Pero un problema con esto es que todos estos "significados" son internos y no hacen referencia al mundo exterior.
Para Conifold, dices que los voltajes representan dígitos. Estoy de acuerdo en que los números representan números (p. ej., 3 y III representan el mismo número, que es un concepto) y las formas de los números 3 y III tienen una semántica externa (es decir, el mismo concepto o significado). Pero al decir que los voltajes representan dígitos, está diciendo que el valor de una propiedad (voltaje) representa el valor de otra propiedad (una forma). Pero esto no es la representación, su asignación. Los garabatos en papel son diferentes. Cada uno cae dentro de un rango de formas cuyo rango es una entidad abstracta: un carácter chino.
Para la segunda parte del comentario de Conifold, entiendo que un ser humano puede mirar un voltímetro y ver un nivel de voltaje (en realidad, un osciloscopio digital puede mostrar los niveles lógicos de lo que sucede en un cable o bus). Pero estaba comparando directamente la sala china con la computadora electrónica. Los humanos pueden ver los símbolos chinos y dar significado a sus formas. Los humanos no pueden "ver" ni percibir directamente de ninguna otra forma lo que procesan las computadoras. Al menos con la sala china hay un montón de semántica afuera que uno podría imaginar que podría entrar de alguna manera. Pero con las computadoras, no hay tal cosa.
Yo, como ser humano, con frecuencia tengo poca idea del "significado semántico asignado por otros seres humanos" a las imágenes que veo y los sonidos que escucho.
Un observador les dio un significado. Searle dice que las computadoras también procesan objetos que tienen una semántica extrínseca, pero esto es falso. -- No, es verdad. Una computadora voltea bits de acuerdo con reglas escritas previamente. Los humanos interpretan los cambios de bit como comercio electrónico, videos de gatos, dinero electrónico, foros de discusión en línea. Todo lo que la computadora está haciendo es voltear bits.
Los patrones 0-1 en el almacenamiento magnético también forman distintas "formas", y no veo cómo el hecho de que podamos ver ruedas dentadas a simple vista hace que los aritmómetros mecánicos sean diferentes en principio de las computadoras electrónicas. ¿Significaría esto que las personas ciegas tienen "significados" diferentes al resto de nosotros? ¿Qué pasa con las personas con mala vista, se permiten anteojos? ¿Microscopios, telescopios? ¿Microscopios electrónicos, radiotelescopios? Las impresoras convierten los voltajes en garabatos, ¿son máquinas que dan sentido? Simplemente no veo una forma razonable de hacer la distinción que estás tratando de hacer.
En respuesta al comentario inicial del usuario 4894 (las computadoras son SINTÁCTICAS), tal vez en lugar de decir ... las propiedades semánticas de una computadora digital electrónica... debería haber dicho ... las propiedades semánticas de lo que procesan las computadoras electrónicas... . Eso habría sido más claro (pero luego explico lo que quiero decir). Sin embargo, una pregunta realmente importante es: ¿Son las computadoras puramente sintácticas? Searle dice: , por supuesto. Pero hay un fuerte argumento (en mi opinión) de que no son puramente sintácticos, porque pueden hacer más que solo reaccionar a la sintaxis.
Re comentario del usuario 4894 sobre voltear bits. No soy muy bueno explicando esto, pero según tengo entendido, todo lo que tiene la computadora son los niveles de voltaje. No tiene bits. No procesa 0s y 1s. Procesa diferencias de potencial sincronizadas. Los humanos, fuera de la máquina, simplemente asignan estos niveles de impulso de electrones a las cosas que los humanos pueden ver (0 y 1). Este mapeo de nivel a dígito es externo a la máquina. La máquina en sí cambia los niveles de voltaje cronometrados. En la sala china, la CPU voltea los símbolos chinos. Pero una computadora cambia los niveles de voltaje. ¿Esto soluciona el problema?
El último comentario de Re Conifold dice que no se ha establecido la supuesta diferencia semántica entre la sala china y las computadoras electrónicas. Suponga que crear un significado es una relación de 3 términos: X da Y a Z. X es un observador humano, Z a Searle es una forma e Y es un significado. El proceso de creación de instancias de relación es: (1) X percibe Z, (2) X establece una conexión neuronal en el cerebro de X entre la representación de Z (RZ) y un significado de Y (principalmente otras representaciones). Si Z = un nivel de voltaje cronometrado, (RZ) no puede existir ya que los humanos no pueden percibir los niveles de voltaje cronometrados. El paso (1) no puede suceder.
Para que los usuarios reciban notificaciones de sus comentarios, el formato adecuado es @nombredeusuario al comienzo de un comentario. Desafortunadamente, reescribir su idea en pasos no la hace más plausible. La vista implica un procesamiento complejo de ondas electromagnéticas dentro del cuerpo, además de que los dispositivos externos no hacen una diferencia esencial. Entonces, o no se puede "percibir" nada en absoluto o su distinción no funciona. Necesitas repensar tus nociones de fondo, especialmente el significado y su relación con la percepción, actualmente son oscuras y te estás repitiendo inútilmente cuando te piden que aclares.
@Conifold. Es bastante difícil explicar esto. Por "significado" (en el presente contexto) me refiero a una estructura neuronal dentro de un cerebro. Por "percepción" me refiero al proceso mental de activar una representación interna (también una estructura neuronal) de un objeto externo o una cualidad de objeto (por ejemplo, de cierta forma). La biología de la vista no importa. Expondré premisas y conclusión como argumento formal.
Realmente debería haber una "sala de chat china" a la que puedas ir y discutir sobre la sala china en cualquier momento.

Respuestas (3)

La siguiente declaración y el resto de lo que ha declarado considera que una computadora solo es electrónica. Pero una computadora puede ser una cinta con símbolos impresos y un mecanismo que lee cada símbolo, que junto con una tabla de búsqueda, hace que la computadora mueva la cinta y posiblemente lea o escriba otro símbolo. Tanto su computadora electrónica, con señalización electrónica, como la máquina de cinta (máquina de Turing) son equivalentes. Este último es "directamente" observable.

No puedo responder el resto de su pregunta, pero su premisa es incorrecta si la entiendo correctamente.

Esa es la diferencia. Esto es imposible. Un observador puede percibir una forma y darle un significado, pero nadie puede percibir un nivel de voltaje cronometrado y darle un significado porque ningún ser humano tiene el aparato sensorial para percibir un nivel de voltaje cronometrado. En otras palabras, las cosas que procesa la sala china tienen una semántica extrínseca, pero las cosas que procesan las computadoras no.

Si entiendo su respuesta, dice que dado que las computadoras electrónicas son equivalentes a las máquinas de Turing, todo lo que es cierto de una máquina de Turing también lo es de una computadora electrónica. ¿Puedo responder que esta equivalencia , tal como la entiendo, es un concepto computacional, no semántico, de equivalencia, pero mis argumentos son sobre propiedades semánticas? Además, es fascinante que ninguna de las máquinas de Turing de 1936 de Turing, una vez en funcionamiento, permita la entrada. Pero digamos que llega una entrada y aparece mágicamente un símbolo en un cuadrado. ¿Qué pasa entonces? Las computadoras pueden manejar esto, pero ¿pueden las máquinas de Turing?
@Roddus, como sabrá, una TM que no permite entradas después de iniciar es equivalente a un sistema formal . Esto era importante para el programa de Hilbert , en boga en ese momento, y en particular, era necesario para resolver el Entscheidungsproblem . Agregar una entrada a una TM cambia su sistema formal (es equivalente a agregar un nuevo axioma al FS). Esto convierte a las computadoras típicas en secuencias de sistemas formales impulsadas por la entrada, razón por la cual los ataques de Godel al computacionalismo no dan en el blanco.
@Phil_132. Gracias. Estaba mirando las MT desde el ángulo de la entrada como percepción. En su artículo de 1950 sobre la inteligencia de las máquinas, Turing no explica la percepción (sí, curiosamente, promueve la percepción extrasensorial). ¿Por qué? ¿Existe alguna razón fundamental por la que la computación no pueda explicar la percepción? (Pensé que la respuesta era ). Digamos que un símbolo aparece mágicamente en un cuadrado. ¿Qué sucede si la operación de escaneo no puede identificarlo? Ese es el tipo de cosas que estaba mirando.

Entonces, ¿la semántica de los objetos que se procesan es irrelevante para un sistema que comprende el mundo?

Cuando leí esto, lo entendí. ¿Cómo?

Para mí, los objetos que se procesaban eran fotones de la pantalla de mi computadora que incidían en las células de mis retinas. Esos fotones contenían cero "semántica".

Sin embargo, sus propiedades físicas y configuración estaban lejos de ser accidentales. Principalmente, la semántica en tu cabeza los determinó (basado en una base humana y técnica).

Esa señal física fue suficiente para causar en mi cabeza (1) una representación simbólica seguida de (2) una interpretación sintáctica y semántica (todas basadas en una base similar), que con suerte es razonablemente cercana a la que su cabeza pretendía (aunque ciertamente no es identico).

La semántica no reside en tokens transmitidos (señales). Se encuentra en la estructura, función y contenido (memoria) (más o menos compartidos) de las máquinas que formulan e interpretan.

¿Es la CRA simplemente irrelevante para la búsqueda de la máquina pensante por parte de AI?

En gran parte, sí. Es científicamente vacío. Es principalmente un fenómeno social (¡duh!), Desafortunadamente uno que genera mucho más calor que luz. Sin embargo, fiel a su motivación original como una crítica de los enfoques de procesamiento del lenguaje de la IA simbólica de la década de 1970, podría haber tenido algún valor al centrar la atención en la necesidad de una mejor comprensión de la semántica y su relación con la computación.


EDITAR (elaboración, en base a comentarios)

@Roddus, Tu comentario...

@Conifold. Es bastante difícil explicar esto. Por "significado" (en el presente contexto) me refiero a una estructura neuronal dentro de un cerebro. Por "percepción" me refiero al proceso mental de activar una representación interna (también una estructura neuronal) de un objeto externo o una cualidad de objeto (por ejemplo, de cierta forma). La biología de la vista no importa. Expondré premisas y conclusión como argumento formal.

... es más o menos mi respuesta: el significado se construye internamente a partir de (o se formula en) construcciones o eventos físicos externos, que en sí mismos no tienen sentido pero decididamente no son arbitrarios.

Sin embargo, lo que cuenta como "estímulos significativos" no se puede determinar objetivamente. Más bien, está en el ojo del espectador. Si estamos de acuerdo en que quitarse las gafas significa comprar y rascarse la barbilla significa vender , entonces esas son señales significativas para nosotros, pero para nadie más.

Por lo tanto, si los patrones de tinta en el papel, los fotones de una pantalla o los voltajes de los transistores constituyen "representaciones semánticas legítimas", no es ni verdadero ni falso. Depende de los intérpretes potenciales, sus capacidades y sus contextos.

Usted dice: "La semántica no reside en los tokens transmitidos (señales) [sino] en la estructura, función y contenido (memoria) de las máquinas...". Esto parece correcto. Una semántica es una estructura que incluye contenido más algoritmos que corren dentro de ella. Curiosamente, Searle llama a las cestas de caracteres chinos "bases de datos" y los símbolos que ingresan a la habitación, "racimos" (1990 Scientific American y en otros lugares). Pero las bases de datos son símbolos más relaciones; la entrada es un flujo de relaciones temporales. Searle nunca habla de relaciones. Increíblemente, nunca aborda la estructura. (Tal vez estructura = semántica.)

Los puntos de vista externalistas de la semántica significan que el significado es lo que es, independientemente de nuestras percepciones internas de las cosas. No podemos 'dar forma' a la realidad con nuestro lenguaje, sino que nuestro lenguaje debe ajustarse a la evidencia de lo que es la realidad. Creo que es plausible decir que nuestro lenguaje crea un modelo de la realidad. No se sabe si capta perfectamente su naturaleza externalista e intrínseca. Tampoco se puede saber si nuestros sentidos nos fallan y no podemos acceder a la naturaleza última de la realidad. Deberíamos usar los argumentos más racionales para determinar si este es el caso y usar la mejor evidencia y herramientas disponibles para justificar estas creencias sobre la realidad.

Si una computadora fue programada para simular una teoría de la semántica como los humanos, ¿cuál es la diferencia? Si fue programado para dar la respuesta correcta a estas preguntas y responder de la manera que esperarías que lo hiciera un ser humano, ¿entonces qué? Se supone que la Sala China muestra cuán fuerte es imposible una IA. La IA fuerte es una IA similar a la humana, piensa o responde como un ser humano real y realmente "sabe" que lo es (sin importar de qué pueda hablar la computadora: filosofía, ciencia, arte, etc.).

Dado que el participante (que no entiende chino) en la sala china en realidad no entiende chino, ¿podemos decir que una IA realmente "entiende" lo que está diciendo? ¿O la sala 'sabe' chino similar a un sistema informático completo 'sabiendo' el significado de lo que está diciendo? Pensar en la sala en sí es tan importante para determinar quién o qué entiende chino como lo es considerar al participante que no entiende chino. Alguien tuvo que haber hecho esas tarjetas con todos los caracteres chinos y respuestas en ellas en primer lugar. Entonces, el creador de la sala es tan parte de la sala como la persona que no entiende chino. Sin embargo, es por eso que se argumenta que la persona que está conversando en chino pero no entiende una palabra no

Una IA, una IA fuerte, que podría mostrar que realmente 'sabe' lo que dice no es importante para pasar una prueba de Turing. Mientras parezca estar haciéndolo y no se pueda distinguir de una contraparte humana, entonces esto realmente no importa. Sin embargo, a lo que esto se refiere es a pensar si una computadora puede volverse consciente. Como sabemos, esto solo puede ocurrir en organismos vivos. La conciencia (si existe) es una propiedad emergente de las leyes de la física, la química, la evolución y la biología. Si se puede simular átomo por átomo, neurona por neurona en una computadora es otra cuestión.

Creo que estamos a muchos años de descubrir esto, si es que alguna vez lo hacemos. Pero no creo que solo el software pueda pensar como un ser humano, incluso si hace un trabajo extremadamente convincente de que puede pensar como nosotros. Un humano tiene que darle a una computadora sus axiomas, reglas, restricciones y programación iniciales. Aunque una computadora podría reescribirlos, todavía está limitado por esto. No puede 'recrearse' a sí mismo de la forma en que nosotros podemos hacerlo. Imaginar posibilidades incluso si el universo mismo sigue leyes deterministas. La intencionalidad dentro de un sistema de IA está circunscrita por la arquitectura original que opera el software. Una IA podría ser 'creativa' y evaluar la estética dados conjuntos de datos anteriores, y podría hacer preguntas basadas en algún tipo de algoritmo, pero nunca haría estas cosas sin que se lo soliciten o lo soliciten en la forma en que piensa un cerebro humano. Nosotros no No tiene que haber alguna razón o ímpetu lógico que nos empuje a pensar una cosa determinada (las emociones, la intuición, la imaginación o el instinto pueden empujarnos a pensar una cosa). Estos pensamientos parecen ocurrir espontáneamente a pesar de que las leyes de la naturaleza pueden haber determinado que este sea el caso.

Las máquinas de silicio simplemente no están hechas de las mismas "cosas" que nosotros. Es posible que algún día podamos modelar el cerebro humano en una computadora, pero ¿significará esto que será consciente? Una vez más, algo similar a la conciencia humana o animal tendría que surgir de esta combinación de hardware y software para que esto suceda. Eso parece una imposibilidad empírica en este momento, ya que no creemos que esto pueda ocurrir. Las computadoras no están 'viviendo' como criaturas inteligentes biológicas (sin ADN, células, neuronas), incluso si pueden actuar como ellas. Quizás una fusión de células sintéticas vivas y hardware de computadora que use software para su procesamiento lógico sea la única forma en que logremos una singularidad de IA. Pero sin un componente biológico, una máquina pensante nunca podrá pensar como lo hace un humano. Chips de silicio, transistores, hardware, circuitos, la electricidad y el magnetismo simplemente no son funcionalmente lo mismo que las propiedades biológicas emergentes de la vida, como las células, el ADN, el metabolismo, la evolución, las emociones y la química cerebral. La IA siempre será diferente debido a esto. Pensará a su manera. Probablemente mejor que los humanos en muchas, si no en la mayoría, pero no en todas.

Información Estoy de acuerdo en que el solipsismo es algo que la IA tiene que explicar. Quiero decir que la máquina genuinamente inteligente tampoco podrá "probar" la existencia del mundo externo. Tal vez la teoría correcta de la inteligencia nos diga por qué una mente no puede probar que existe la realidad. Para el TT: claro, la vista clásica de IA es y qué, siempre que la máquina pase el TT. Pero, ¿y si la teoría de cómo hacerlo pasar (computacionalismo) es falsa? El cálculo necesario se considera impracticablemente enorme. Tal vez haya otra manera. Para la biología, no debemos asumir que no es mecanizable.
@Roddus cierto. Es posible que algún día la biología se mecanice (de hecho, la creación de células sintéticas ya se encuentra en sus primeras etapas: síntesis del genoma y división celular artificial). También me pregunto qué 'otros' tipos de vida podrían constituir algún día (cyborgs). Pero un cyborg aún tendría un componente biológico en lugar de uno puramente mecánico. Sin embargo, si átomo por átomo se puede recrear un cerebro similar al humano, debería ser consciente dadas las leyes de este universo. No se sabe si podríamos replicar otros tipos de conciencia no humana o no animal (una que es un producto total de la ingeniería humana).