El argumento central de la habitación china de Searle es su afirmación de que la habitación tiene las propiedades semánticas de una computadora digital electrónica. En una publicación de hace unos días en una discusión sobre la semántica, argumenté que hay una diferencia semántica fundamental. Pero, ¿importa esto a la conclusión del argumento de la habitación china?
La diferencia está en la semántica extrínseca. Los símbolos chinos caen en la habitación a través de una ranura en la puerta. Desconocido para Searle, la CPU, sus formas han recibido significados o interpretaciones (una "semántica") por observadores fuera de la habitación. Searle, que no sabe chino, solo capta la forma. Nada en la forma indica su significado. No hay una semántica intrínseca , pero sí una semántica extrínseca o externa.
Se supone que la sala china es una computadora que intenta ser una mente. Pero, ¿qué sucede en el dispositivo electrónico real? La entrada a una computadora es una secuencia de niveles de voltaje cronometrados, no ideogramas chinos. Los niveles de voltaje cronometrados ingresan a la computadora desde el exterior. Desconocido para Searle, la CPU, los observadores fuera de la habitación han asignado significados a sus niveles de voltaje.
Esa es la diferencia. Esto es imposible. Un observador puede percibir una forma y darle un significado, pero nadie puede percibir un nivel de voltaje cronometrado y darle un significado porque ningún ser humano tiene el aparato sensorial para percibir un nivel de voltaje cronometrado. En otras palabras, las cosas que procesa la sala china tienen una semántica extrínseca, pero las cosas que procesan las computadoras no. Es una diferencia semántica fundamental entre la sala china y las computadoras. Pero, ¿implica esto alguna diferencia en la conclusión del argumento de la habitación china?
Las cosas que procesan las computadoras no tienen semántica en absoluto (ni intrínsecas ni extrínsecas), entonces, ¿qué pasa con los cerebros? Procesan principalmente pulsos eléctricos unarios. Los humanos también carecen del aparato sensorial para percibirlos. ¿Y qué hay de los tiempos prehumanos cuando no había nadie para tratar de asignar una semántica extrínseca a los pulsos neuronales? Los pulsos neuronales tampoco tienen semántica extrínseca o intrínseca. Pero los cerebros entienden el mundo. El cerebro biológico demuestra que un sistema que procesa semánticamente objetos vacíos puede llegar a comprender el mundo. Entonces, ¿la semántica de los objetos que se procesan es irrelevante para un sistema que comprende el mundo? ¿Es la CRA simplemente irrelevante para la búsqueda de la máquina pensante por parte de AI?
La siguiente declaración y el resto de lo que ha declarado considera que una computadora solo es electrónica. Pero una computadora puede ser una cinta con símbolos impresos y un mecanismo que lee cada símbolo, que junto con una tabla de búsqueda, hace que la computadora mueva la cinta y posiblemente lea o escriba otro símbolo. Tanto su computadora electrónica, con señalización electrónica, como la máquina de cinta (máquina de Turing) son equivalentes. Este último es "directamente" observable.
No puedo responder el resto de su pregunta, pero su premisa es incorrecta si la entiendo correctamente.
Esa es la diferencia. Esto es imposible. Un observador puede percibir una forma y darle un significado, pero nadie puede percibir un nivel de voltaje cronometrado y darle un significado porque ningún ser humano tiene el aparato sensorial para percibir un nivel de voltaje cronometrado. En otras palabras, las cosas que procesa la sala china tienen una semántica extrínseca, pero las cosas que procesan las computadoras no.
Entonces, ¿la semántica de los objetos que se procesan es irrelevante para un sistema que comprende el mundo?
Cuando leí esto, lo entendí. ¿Cómo?
Para mí, los objetos que se procesaban eran fotones de la pantalla de mi computadora que incidían en las células de mis retinas. Esos fotones contenían cero "semántica".
Sin embargo, sus propiedades físicas y configuración estaban lejos de ser accidentales. Principalmente, la semántica en tu cabeza los determinó (basado en una base humana y técnica).
Esa señal física fue suficiente para causar en mi cabeza (1) una representación simbólica seguida de (2) una interpretación sintáctica y semántica (todas basadas en una base similar), que con suerte es razonablemente cercana a la que su cabeza pretendía (aunque ciertamente no es identico).
La semántica no reside en tokens transmitidos (señales). Se encuentra en la estructura, función y contenido (memoria) (más o menos compartidos) de las máquinas que formulan e interpretan.
¿Es la CRA simplemente irrelevante para la búsqueda de la máquina pensante por parte de AI?
En gran parte, sí. Es científicamente vacío. Es principalmente un fenómeno social (¡duh!), Desafortunadamente uno que genera mucho más calor que luz. Sin embargo, fiel a su motivación original como una crítica de los enfoques de procesamiento del lenguaje de la IA simbólica de la década de 1970, podría haber tenido algún valor al centrar la atención en la necesidad de una mejor comprensión de la semántica y su relación con la computación.
EDITAR (elaboración, en base a comentarios)
@Roddus, Tu comentario...
@Conifold. Es bastante difícil explicar esto. Por "significado" (en el presente contexto) me refiero a una estructura neuronal dentro de un cerebro. Por "percepción" me refiero al proceso mental de activar una representación interna (también una estructura neuronal) de un objeto externo o una cualidad de objeto (por ejemplo, de cierta forma). La biología de la vista no importa. Expondré premisas y conclusión como argumento formal.
... es más o menos mi respuesta: el significado se construye internamente a partir de (o se formula en) construcciones o eventos físicos externos, que en sí mismos no tienen sentido pero decididamente no son arbitrarios.
Sin embargo, lo que cuenta como "estímulos significativos" no se puede determinar objetivamente. Más bien, está en el ojo del espectador. Si estamos de acuerdo en que quitarse las gafas significa comprar y rascarse la barbilla significa vender , entonces esas son señales significativas para nosotros, pero para nadie más.
Por lo tanto, si los patrones de tinta en el papel, los fotones de una pantalla o los voltajes de los transistores constituyen "representaciones semánticas legítimas", no es ni verdadero ni falso. Depende de los intérpretes potenciales, sus capacidades y sus contextos.
Los puntos de vista externalistas de la semántica significan que el significado es lo que es, independientemente de nuestras percepciones internas de las cosas. No podemos 'dar forma' a la realidad con nuestro lenguaje, sino que nuestro lenguaje debe ajustarse a la evidencia de lo que es la realidad. Creo que es plausible decir que nuestro lenguaje crea un modelo de la realidad. No se sabe si capta perfectamente su naturaleza externalista e intrínseca. Tampoco se puede saber si nuestros sentidos nos fallan y no podemos acceder a la naturaleza última de la realidad. Deberíamos usar los argumentos más racionales para determinar si este es el caso y usar la mejor evidencia y herramientas disponibles para justificar estas creencias sobre la realidad.
Si una computadora fue programada para simular una teoría de la semántica como los humanos, ¿cuál es la diferencia? Si fue programado para dar la respuesta correcta a estas preguntas y responder de la manera que esperarías que lo hiciera un ser humano, ¿entonces qué? Se supone que la Sala China muestra cuán fuerte es imposible una IA. La IA fuerte es una IA similar a la humana, piensa o responde como un ser humano real y realmente "sabe" que lo es (sin importar de qué pueda hablar la computadora: filosofía, ciencia, arte, etc.).
Dado que el participante (que no entiende chino) en la sala china en realidad no entiende chino, ¿podemos decir que una IA realmente "entiende" lo que está diciendo? ¿O la sala 'sabe' chino similar a un sistema informático completo 'sabiendo' el significado de lo que está diciendo? Pensar en la sala en sí es tan importante para determinar quién o qué entiende chino como lo es considerar al participante que no entiende chino. Alguien tuvo que haber hecho esas tarjetas con todos los caracteres chinos y respuestas en ellas en primer lugar. Entonces, el creador de la sala es tan parte de la sala como la persona que no entiende chino. Sin embargo, es por eso que se argumenta que la persona que está conversando en chino pero no entiende una palabra no
Una IA, una IA fuerte, que podría mostrar que realmente 'sabe' lo que dice no es importante para pasar una prueba de Turing. Mientras parezca estar haciéndolo y no se pueda distinguir de una contraparte humana, entonces esto realmente no importa. Sin embargo, a lo que esto se refiere es a pensar si una computadora puede volverse consciente. Como sabemos, esto solo puede ocurrir en organismos vivos. La conciencia (si existe) es una propiedad emergente de las leyes de la física, la química, la evolución y la biología. Si se puede simular átomo por átomo, neurona por neurona en una computadora es otra cuestión.
Creo que estamos a muchos años de descubrir esto, si es que alguna vez lo hacemos. Pero no creo que solo el software pueda pensar como un ser humano, incluso si hace un trabajo extremadamente convincente de que puede pensar como nosotros. Un humano tiene que darle a una computadora sus axiomas, reglas, restricciones y programación iniciales. Aunque una computadora podría reescribirlos, todavía está limitado por esto. No puede 'recrearse' a sí mismo de la forma en que nosotros podemos hacerlo. Imaginar posibilidades incluso si el universo mismo sigue leyes deterministas. La intencionalidad dentro de un sistema de IA está circunscrita por la arquitectura original que opera el software. Una IA podría ser 'creativa' y evaluar la estética dados conjuntos de datos anteriores, y podría hacer preguntas basadas en algún tipo de algoritmo, pero nunca haría estas cosas sin que se lo soliciten o lo soliciten en la forma en que piensa un cerebro humano. Nosotros no No tiene que haber alguna razón o ímpetu lógico que nos empuje a pensar una cosa determinada (las emociones, la intuición, la imaginación o el instinto pueden empujarnos a pensar una cosa). Estos pensamientos parecen ocurrir espontáneamente a pesar de que las leyes de la naturaleza pueden haber determinado que este sea el caso.
Las máquinas de silicio simplemente no están hechas de las mismas "cosas" que nosotros. Es posible que algún día podamos modelar el cerebro humano en una computadora, pero ¿significará esto que será consciente? Una vez más, algo similar a la conciencia humana o animal tendría que surgir de esta combinación de hardware y software para que esto suceda. Eso parece una imposibilidad empírica en este momento, ya que no creemos que esto pueda ocurrir. Las computadoras no están 'viviendo' como criaturas inteligentes biológicas (sin ADN, células, neuronas), incluso si pueden actuar como ellas. Quizás una fusión de células sintéticas vivas y hardware de computadora que use software para su procesamiento lógico sea la única forma en que logremos una singularidad de IA. Pero sin un componente biológico, una máquina pensante nunca podrá pensar como lo hace un humano. Chips de silicio, transistores, hardware, circuitos, la electricidad y el magnetismo simplemente no son funcionalmente lo mismo que las propiedades biológicas emergentes de la vida, como las células, el ADN, el metabolismo, la evolución, las emociones y la química cerebral. La IA siempre será diferente debido a esto. Pensará a su manera. Probablemente mejor que los humanos en muchas, si no en la mayoría, pero no en todas.
usuario4894
phil_132
Mozibur Ullah
Conifold
Roddus
Roddus
Roddus
Roddus
usuario6559
usuario4894
Conifold
Roddus
Roddus
Roddus
Conifold
Roddus
tim kinsella