En una Teoría Computacional de la Mente, ¿cómo identificamos qué se está computando y/o qué algoritmo se está ejecutando?
En general, un proceso puede verse en diferentes niveles de abstracción. Entonces, por ejemplo, con una computadora moderna, podemos enfocarnos o abstraernos del lenguaje de programación y el hardware, y nuestra interpretación de cuál es el algoritmo que se está calculando cambia según el punto de vista que adoptemos.
De manera similar, Putnam argumentó que podríamos ver una roca como la implementación de todos los autómatas de estado finito (y Chalmers tiene una respuesta, que no he terminado de leer: http://consc.net/papers/rock.html ).
((Finalmente, mencionaré que me inspiré para preguntar esto por esta interesante discusión entre Massimo Pigliucci y Eliezer Yudkowski: http://bloggingheads.tv/videos/2561 , donde en Eliezer parece encontrar obvio que un "subido " una copia de ti mismo tendría la misma conciencia, independientemente de los detalles de la implementación, y Massimo lo desafía en ese punto.))
EDITAR: encontré otra referencia interesante para este problema, aquí: http://www.biointelligence-explosion.com/parable.html (grep "chauvinism")
Usted (originalmente) preguntó cómo identificamos el algoritmo, y me gustaría sugerir que el enfoque del funcionalismo en general, y la teoría computacional de la mente (CTM) en particular, son funciones, no algoritmos; aquí hay un extracto del ensayo SEP sobre Funcionalismo :
El funcionalismo en la filosofía de la mente es la doctrina de que lo que hace que algo sea un estado mental de un tipo particular no depende de su constitución interna, sino de la forma en que funciona, o el papel que juega, en el sistema del cual es un parte.
Ahora, me gustaría repasar algunas definiciones correspondientes a computación; así es como Peter Smith define la tesis de Church-Turing en su libro An Introduction to Godel's Theorems , (p. 315):
La tesis de Church-Turing: Las funciones numéricas totales efectivamente computables son las funciones μ-recursivas/computables por Turing.
y la clase de funciones efectivamente computables (p. 15) (nota que efectivamente no significa eficientemente ):
Una función total de un lugar f : Δ → Γ es efectivamente computable si existe un algoritmo que se puede usar para calcular, en un número finito de pasos, el valor de la función para cualquier entrada dada del dominio Δ.
y finalmente, su definición de algoritmo (p. 14):
Un algoritmo es un conjunto de instrucciones paso a paso (instrucciones que se fijan antes de su ejecución), con cada pequeño paso claramente especificado en cada detalle (sin dejar lugar a dudas sobre lo que cuenta y lo que no cuenta). como ejecutar el paso, y no dejar lugar al azar). La idea, entonces, es que ejecutar un algoritmo (i) involucra una secuencia completamente determinada de procedimientos discretos paso a paso (donde cada pequeño paso es fácilmente ejecutable por un agente o máquina de cálculo muy limitado). (ii) No queda lugar para el ejercicio de la imaginación o la intuición o el juicio humano falible. Además, para ejecutar el algoritmo, (iii) no tenemos que recurrir a 'oráculos' externos (es decir, fuentes de información independientes), y (iv) no tenemos que recurrir a métodos aleatorios (lanzamientos de monedas) .
Entonces, el punto principal de un algoritmo es que se puede especificar en términos de pasos que son lo suficientemente pequeños o llamados mecánicos; a veces, un algoritmo se especifica en términos muy abstractos (por ejemplo, pseudocódigo en los libros de CS), pero bajo el supuesto de que, en principio, cada paso abstracto se puede especificar en pasos lo suficientemente pequeños si nos molestamos en llenar los espacios.
por lo tanto, y en respuesta a su pregunta sobre el nivel de abstracción de hardware frente a software, creo que realmente no importa lo que sucede en estos niveles, siempre que entendamos que, en principio, hay un nivel allí que satisface el criterio para un algoritmo. por ejemplo, un lenguaje de alto nivel, puede ser demasiado abstracto para contar como una especificación de un algoritmo en el sentido anterior, y el nivel de hardware también puede fallar en satisfacer nuestro requisito ya que se basa en fenómenos mecánicos cuánticos ocultos, pero el nivel de máquina el idioma, en algún punto intermedio, es probablemente lo suficientemente bueno.
Ahora, volviendo a las funciones: parece que los funcionalistas creen que la mente se puede explicar en términos de funciones y que, según CTM, estas funciones son efectivamente computables.
Por ejemplo, en Absent Qualia, Fading Qualia, Dancing Qualia , Chalmers defiende un principio que él llama el principio de invariancia organizacional , que involucra conceptos tales como la organización funcional del cerebro y los isomorfos funcionales ; reconoce su preocupación de que un sistema pueda analizarse en diferentes niveles de organización y escribe que:
cualquier sistema que tenga la misma organización funcional en un grano lo suficientemente fino tendrá experiencias conscientes cualitativamente idénticas.
y por suficientemente fino quiere decir:
suficientemente fina para determinar las capacidades conductuales y las disposiciones de un sistema cognitivo.
Complemento desvergonzado: planteo algunas objeciones a sus argumentos en http://philpapers.org/archive/AIDYAO.pdf ; se agradecerán los comentarios.
Tenga en cuenta que los algoritmos particulares para calcular estas funciones son prácticamente irrelevantes.
En cuanto a la creencia de Yudkowski en cargar la mente, esa creencia es bastante común entre los funcionalistas. Mucha gente, incluidos Chalmers, Marvin Minsky y Ray Kurzweil de Google, creen eso.
Voy a interpretar su pregunta en términos más amplios, como un argumento fenomenológico sobre la observabilidad del comportamiento/funcionamiento de una máquina computacional, en la medida en que se le puedan identificar y atribuir habilidades cognitivas.
Como puede imaginar (y creo que lo ha hecho), esta discusión es extremadamente rica y amplia, y no espero poder ir mucho más allá de la superficie aquí, pero creo que se pueden proponer algunos consejos metodológicos en este formato breve, que puede ser útil para futuras referencias.
En primer lugar, supongamos que el problema de la identificación, en ese escenario específico, asume que hay al menos tres instancias en juego (estoy siendo demasiado esquemático aquí, pero tengan paciencia, es solo un ejercicio):
La cuestión es que uno no necesita asumir que estos son diferentes niveles de abstracción, que son intrínsecos a la cosa que se observa. Da la casualidad de que mi sistema nervioso es una máquina computacional, pero del mismo modo puede identificarse como una máquina biológica, una máquina química o una máquina física (en el sentido específico de ser descriptible usando solo conceptos de la ciencia física) . Estos diferentes niveles de observación pertenecen a la mente que hace la observación, no a la cosa.
Ahora, la observación crucial, que Brian Cantwell Smith hace aquí , es que debido a que hay máquinas que hacen cosas computacionales, posiblemente muy inteligentes, el hecho de que estas máquinas hayan sido creadas por humanos no implica que la causa final de esos artefactos sea conocidos por esos humanos, o incluso controlados por ellos de alguna manera objetiva.
Por eso se puede decir, con bastante confianza, que la identificación implica al menos una elección de perspectiva. Es así, al menos principalmente, en el ojo del espectador.
Mozibur Ullah
nir
nir
Mozibur Ullah
nir
Mozibur Ullah
Mozibur Ullah
R. Barzell
carpincho
R. Barzell
R. Barzell