En una Teoría Computacional de la Mente, ¿cómo identificamos lo que se está computando?

En una Teoría Computacional de la Mente, ¿cómo identificamos qué se está computando y/o qué algoritmo se está ejecutando?

En general, un proceso puede verse en diferentes niveles de abstracción. Entonces, por ejemplo, con una computadora moderna, podemos enfocarnos o abstraernos del lenguaje de programación y el hardware, y nuestra interpretación de cuál es el algoritmo que se está calculando cambia según el punto de vista que adoptemos.

De manera similar, Putnam argumentó que podríamos ver una roca como la implementación de todos los autómatas de estado finito (y Chalmers tiene una respuesta, que no he terminado de leer: http://consc.net/papers/rock.html ).

((Finalmente, mencionaré que me inspiré para preguntar esto por esta interesante discusión entre Massimo Pigliucci y Eliezer Yudkowski: http://bloggingheads.tv/videos/2561 , donde en Eliezer parece encontrar obvio que un "subido " una copia de ti mismo tendría la misma conciencia, independientemente de los detalles de la implementación, y Massimo lo desafía en ese punto.))

EDITAR: encontré otra referencia interesante para este problema, aquí: http://www.biointelligence-explosion.com/parable.html (grep "chauvinism")

¡Bienvenido a Phil.SE! La respuesta corta es que no; es la noción de que está modelada por una máquina de Turing lo que tiene importancia allí.
@MoziburUllah, ¿cuál es el significado de "es la noción de que está modelada por una máquina de Turing lo que tiene importancia allí"?
@ user2429920, creo que en computación, lo que se calcula es una función numérica, no un algoritmo; puedes aclarar tu pregunta?
@nir: es una forma de modelar teóricamente el cálculo.
@MoziburUllah, conozco las máquinas de Turing, simplemente no entiendo el significado del comentario.
Bueno, si alguien me pidiera que 'identificara' a alguien; generalmente significa alguien específico; es decir, esta persona o aquella persona; de manera similar con algoritmos o programas; Estaba sugiriendo que son sus características generales las que importan, no las específicas.
Neurológicamente, el cerebro simplemente funciona mediante patrones de activación en redes neuronales. Entonces, lo que se "calcula" es ese patrón de activación. Si ese patrón puede verse como una implementación de un concepto de nivel superior o no, es otra cuestión. En algunos casos, por ejemplo, tenemos modelos de alto nivel de procesos de pensamiento que no parecen ser cómo hacemos las cosas. Esos se basan en una ilusión o en una ilusión.
@R.Barzell: "el cerebro simplemente funciona mediante patrones de activación en redes neuronales", en la medida en que esto sea cierto, en realidad no responde la pregunta que estoy tratando de plantear. Lo que me pregunto es: qué justificación se puede dar para descartar los detalles de los procesos físicos, por ejemplo, dentro de una neurona, y decir que este nivel de abstracción captura todos los aspectos relevantes de la computación. ¿Cómo podemos defender esta noción específica de relevancia como objetivamente significativa?
@ user2429920 Ese es mi punto. ¿Existe tal cosa como computar una abstracción de mayor nivel en el cerebro, o es simplemente otro callejón sin salida que la gente hace porque se toma su introspección demasiado en serio? Tal vez las redes neuronales sean el nivel correcto de abstracción. Otra pregunta: ¿qué ES computación? He visto a personas afirmar que la computación es la evolución temporal de un sistema, lo que significa que el término ahora es inútil ya que se aplica a todo. Si hay una diferencia, ¿cuál es la diferencia entre la computación del cerebro y una roca rodante?
@ user2429920 Otro punto: la introspección a menudo se desvía al mostrar cosas que parecen ser parte de nuestro pensamiento, pero que no lo son. Los estudios han demostrado que la forma en que tomamos decisiones difiere de cómo pensamos que las tomamos, por lo que las teorías populares sobre cómo pensamos a menudo son falsas. Estos conceptos suelen ser epifenómenos, en cuyo caso las redes neuronales pueden ser el nivel adecuado de abstracción. Si ese es el caso, entonces deberíamos abandonar este camino y, en su lugar, centrarnos en hacer que los análisis de las redes neuronales sean más tratables.

Respuestas (2)

Usted (originalmente) preguntó cómo identificamos el algoritmo, y me gustaría sugerir que el enfoque del funcionalismo en general, y la teoría computacional de la mente (CTM) en particular, son funciones, no algoritmos; aquí hay un extracto del ensayo SEP sobre Funcionalismo :

El funcionalismo en la filosofía de la mente es la doctrina de que lo que hace que algo sea un estado mental de un tipo particular no depende de su constitución interna, sino de la forma en que funciona, o el papel que juega, en el sistema del cual es un parte.

Ahora, me gustaría repasar algunas definiciones correspondientes a computación; así es como Peter Smith define la tesis de Church-Turing en su libro An Introduction to Godel's Theorems , (p. 315):

La tesis de Church-Turing: Las funciones numéricas totales efectivamente computables son las funciones μ-recursivas/computables por Turing.

y la clase de funciones efectivamente computables (p. 15) (nota que efectivamente no significa eficientemente ):

Una función total de un lugar f : Δ → Γ es efectivamente computable si existe un algoritmo que se puede usar para calcular, en un número finito de pasos, el valor de la función para cualquier entrada dada del dominio Δ.

y finalmente, su definición de algoritmo (p. 14):

Un algoritmo es un conjunto de instrucciones paso a paso (instrucciones que se fijan antes de su ejecución), con cada pequeño paso claramente especificado en cada detalle (sin dejar lugar a dudas sobre lo que cuenta y lo que no cuenta). como ejecutar el paso, y no dejar lugar al azar). La idea, entonces, es que ejecutar un algoritmo (i) involucra una secuencia completamente determinada de procedimientos discretos paso a paso (donde cada pequeño paso es fácilmente ejecutable por un agente o máquina de cálculo muy limitado). (ii) No queda lugar para el ejercicio de la imaginación o la intuición o el juicio humano falible. Además, para ejecutar el algoritmo, (iii) no tenemos que recurrir a 'oráculos' externos (es decir, fuentes de información independientes), y (iv) no tenemos que recurrir a métodos aleatorios (lanzamientos de monedas) .

Entonces, el punto principal de un algoritmo es que se puede especificar en términos de pasos que son lo suficientemente pequeños o llamados mecánicos; a veces, un algoritmo se especifica en términos muy abstractos (por ejemplo, pseudocódigo en los libros de CS), pero bajo el supuesto de que, en principio, cada paso abstracto se puede especificar en pasos lo suficientemente pequeños si nos molestamos en llenar los espacios.

por lo tanto, y en respuesta a su pregunta sobre el nivel de abstracción de hardware frente a software, creo que realmente no importa lo que sucede en estos niveles, siempre que entendamos que, en principio, hay un nivel allí que satisface el criterio para un algoritmo. por ejemplo, un lenguaje de alto nivel, puede ser demasiado abstracto para contar como una especificación de un algoritmo en el sentido anterior, y el nivel de hardware también puede fallar en satisfacer nuestro requisito ya que se basa en fenómenos mecánicos cuánticos ocultos, pero el nivel de máquina el idioma, en algún punto intermedio, es probablemente lo suficientemente bueno.

Ahora, volviendo a las funciones: parece que los funcionalistas creen que la mente se puede explicar en términos de funciones y que, según CTM, estas funciones son efectivamente computables.

Por ejemplo, en Absent Qualia, Fading Qualia, Dancing Qualia , Chalmers defiende un principio que él llama el principio de invariancia organizacional , que involucra conceptos tales como la organización funcional del cerebro y los isomorfos funcionales ; reconoce su preocupación de que un sistema pueda analizarse en diferentes niveles de organización y escribe que:

cualquier sistema que tenga la misma organización funcional en un grano lo suficientemente fino tendrá experiencias conscientes cualitativamente idénticas.

y por suficientemente fino quiere decir:

suficientemente fina para determinar las capacidades conductuales y las disposiciones de un sistema cognitivo.

Complemento desvergonzado: planteo algunas objeciones a sus argumentos en http://philpapers.org/archive/AIDYAO.pdf ; se agradecerán los comentarios.

Tenga en cuenta que los algoritmos particulares para calcular estas funciones son prácticamente irrelevantes.

En cuanto a la creencia de Yudkowski en cargar la mente, esa creencia es bastante común entre los funcionalistas. Mucha gente, incluidos Chalmers, Marvin Minsky y Ray Kurzweil de Google, creen eso.

"Tenga en cuenta que los algoritmos particulares para calcular estas funciones son prácticamente irrelevantes". - Así que no leí el ensayo, solo lo miré y busqué algunas palabras, pero no parece que él defina "disposiciones de comportamiento" con el rigor suficiente para mí. De todos modos, mi respuesta a esta declaración tuya sería: los algoritmos son relevantes, ya que en (lo que yo consideraría) un nivel suficientemente detallado, el comportamiento es diferente, dependiendo del algoritmo. Lo que quiero decir es que las funciones que se calculan, a un nivel bajo, difieren entre algoritmos.
@ user2429920, naturalmente, diferentes algoritmos pueden calcular diferentes funciones, pero igualmente, la misma función puede ser calculada por diferentes algoritmos; Piense en la gran variedad de diferentes algoritmos de clasificación que calculan la misma función.
@ user2429920, si chalmers tiene razón y las neuronas son lo suficientemente finas para la cognición, entonces si puede calcular efectivamente su función (representada numéricamente), entonces, según chalmers, no importaría cómo la calcule. y dado que una neurona está hecha de 10E15 átomos, su complejidad implica que podría haber un número increíblemente grande de formas diferentes de calcularla, lo que no supone ninguna diferencia para la cognición.
Sí, claramente. Mi punto es que la afirmación de que "calcula la misma función" depende de cierta interpretación de algunos eventos físicos más detallados. Mi pregunta sería entonces: ¿cómo se elige esta interpretación? No veo cómo la respuesta de Chalmers no es arbitraria.
@ user2429920, existe un debate de larga data sobre el significado de la computación; por ejemplo, si la computación es relativa al observador (Searle) por un lado, o no, ya que cuando se implementa físicamente tiene relaciones causales con el entorno (Dennett), y así sucesivamente; dicho esto, no tengo idea de lo que posiblemente quiere decir con: "la afirmación de que 'calcula la misma función' depende de una cierta interpretación de algunos eventos físicos más detallados".
Lo que quiero decir con esa declaración es que la función que se está calculando es una cuestión de qué eventos físicos (/objetos) un observador eligió observar y enfocar. Podemos ver una computadora que ejecuta un algoritmo de clasificación como una caja negra y solo prestar atención a su entrada y salida, pero incluso entonces , debemos elegir un mapeo de nuestras observaciones a algunas entidades abstractas (una lista y sus elementos), para poder digamos que este sistema está calculando un algoritmo de clasificación. Otro observador podría hacer las mismas observaciones y optar por centrarse en los detalles que hemos declarado irrelevantes, como el color de la pantalla.
En otras palabras, el mundo no se nos presenta en términos de las abstracciones que aplicamos cuando elegimos ver un sistema físico de forma algorítmica o funcional. En el caso de los argumentos de Chalmers sobre el comportamiento humano (/robot/cyborg), decir que las disposiciones conductuales de dos sistemas son las mismas es plantear la pregunta: cualquiera de los dos sistemas físicamente diferentes debería tener diferencias observables. ¿Cómo dividimos estas diferencias en diferencias conductuales y no conductuales?
@ user2429920, esto es manifiestamente falso: "dos sistemas físicamente diferentes deberían tener diferencias observables"; Si prueba un chatbot en línea, rápidamente notará que no es humano, pero podría estar diseñado de tal manera que no habría forma de saber qué hardware, sistema operativo y pila de software es. correr; es decir, se trataría de dos sistemas físicamente diferentes sin diferencias observables relevantes.
Estás perdiendo el punto. No pretendo que pueda observar una diferencia entre dos sistemas físicamente diferentes. Afirmo que en principio es posible observar una diferencia (ignorando la mecánica cuántica, que parece que complicaría las cosas haciéndonos hablar de expectativas y luego tenemos que introducir toda la filosofía de la probabilidad, etc.)
@ user2429920, ¿quiere preguntar, cómo sabemos qué propiedades de un sistema son relevantes para su cognición y comportamiento, y cuáles no? que no hay nivel que, como dice chalmers, sea lo suficientemente fino?
No del todo: estoy buscando una definición de cognición/comportamiento tal que podamos justificar objetivamente llamar irrelevantes a ciertos detalles. No diría que no hay un nivel lo suficientemente bueno, diría que el valor predeterminado obvio es simplemente el nivel más bajo que existe en nuestra ontología.
@ user2429920, dudo que se pueda hacer a priori desde el sofá; es el tipo de cosa que tendremos que descubrir empíricamente. Por cierto, estoy haciendo el papel de abogado del diablo aquí, ya que no soy un funcionalista, sino un llamado qualófilo: creo que la mente es incomputable.
No pido que se haga a priori, sino "objetivamente".

Voy a interpretar su pregunta en términos más amplios, como un argumento fenomenológico sobre la observabilidad del comportamiento/funcionamiento de una máquina computacional, en la medida en que se le puedan identificar y atribuir habilidades cognitivas.

Como puede imaginar (y creo que lo ha hecho), esta discusión es extremadamente rica y amplia, y no espero poder ir mucho más allá de la superficie aquí, pero creo que se pueden proponer algunos consejos metodológicos en este formato breve, que puede ser útil para futuras referencias.

En primer lugar, supongamos que el problema de la identificación, en ese escenario específico, asume que hay al menos tres instancias en juego (estoy siendo demasiado esquemático aquí, pero tengan paciencia, es solo un ejercicio):

  1. La sustancia de la máquina computacional;
  2. El hardware de la máquina computacional , su organización;
  3. El cómputo que está ejecutando, su "rendimiento", que es (o no) susceptible de identificación.

La cuestión es que uno no necesita asumir que estos son diferentes niveles de abstracción, que son intrínsecos a la cosa que se observa. Da la casualidad de que mi sistema nervioso es una máquina computacional, pero del mismo modo puede identificarse como una máquina biológica, una máquina química o una máquina física (en el sentido específico de ser descriptible usando solo conceptos de la ciencia física) . Estos diferentes niveles de observación pertenecen a la mente que hace la observación, no a la cosa.

Ahora, la observación crucial, que Brian Cantwell Smith hace aquí , es que debido a que hay máquinas que hacen cosas computacionales, posiblemente muy inteligentes, el hecho de que estas máquinas hayan sido creadas por humanos no implica que la causa final de esos artefactos sea conocidos por esos humanos, o incluso controlados por ellos de alguna manera objetiva.

Por eso se puede decir, con bastante confianza, que la identificación implica al menos una elección de perspectiva. Es así, al menos principalmente, en el ojo del espectador.

video interesante
"Es por eso que se puede decir, con bastante confianza, que la identificación implica al menos una elección de perspectiva". - No veo de dónde viene esta confianza.
Viene del argumento que precede a esta oración. Tal vez podrías identificar qué parte (o partes) no aceptas.
No acepto la implicación; tendrías que deletrearlo para mí. Sospecho que podemos significar cosas diferentes por "identificación", y que estás llegando a esto desde un punto de vista más relativista (o argumentando a favor del relativismo WRT "identificación"), mientras que estoy interesado en encontrar un nivel de "clase natural" de análisis que nos permitiría identificar objetivamente algo que yo llamaría "el algoritmo que está siendo ejecutado" por un sistema físico dado (pero eso es solo un nombre; me importa el concepto, no cómo se llama).