¿El argumento de Gödel de que las mentes son más poderosas que las computadoras tiene la laguna de la inconsistencia?

En "Raatikainen, P., 2005, "On the Philosophical Relevance of Gödel's Incompleteness Theorems", el autor argumenta que Penrose y otros usan el teorema de Gödel como un argumento contra el mecanismo (y presumiblemente una IA fuerte): que las mentes son más poderosas que computadoras debido a la capacidad del ser humano para reconocer la verdad de las oraciones de Gödel - son todas defectuosas.

El error básico de tal argumento en realidad es simplemente señalado. El argumento asume que para cualquier sistema formalizado, o una máquina finita, existe la oración de Gödel (que dice que no es demostrable en ese sistema) que es improbable en ese sistema, pero que la mente humana puede ver como verdadera. Sin embargo, el teorema de Gödel tiene en realidad la forma condicional, y la supuesta verdad de la oración de Gödel de un sistema depende de la suposición de la consistencia del sistema. Es decir, todo lo que el teorema de Gödel nos permite a los humanos demostrar con certeza matemática, de una teoría F formalizada arbitrariamente dada, es: F es consistente -> GF.

Lo que está diciendo aquí es que no hay garantía de que un sistema formal realizado por una computadora sea consistente. Por lo tanto, no hay garantía de que las oraciones de Gödel que los humanos reconozcan pero las computadoras no sean verdaderas en sí mismas, y las de los humanos no necesariamente están logrando algo que una computadora no pueda hacer.

Mis preguntas:

  1. ¿Cómo podríamos construir una computadora que no sea consistente? Me parece que cualquier computadora que construyamos estaría basada en máquinas de Turing, que están limitadas por el teorema de Gödel (a través del problema de detención).
  2. ¿Puede una máquina de Turing generar un sistema formal inconsistente? ¿Todo lo generado por un Turing no es consistente por definición, ya que sus reglas están contenidas en la memoria de la máquina de Turing?
  3. Y si este es el caso, que las máquinas de Turing solo pueden generar sistemas consistentes, entonces, ¿es falsa la refutación de Raatikainen de los argumentos de Penrose y similares?
"... indemostrable en ese sistema, pero que la mente humana puede ver que es verdad". ¿Tienes un ejemplo para eso?
Es una referencia a las oraciones de Godel que, en efecto, afirman su propia indemostrabilidad en relación con un sistema de codificación de Godel. Tales oraciones son indemostrables dentro de un sistema formal dado, pero son verdaderas en la interpretación estándar. Los sistemas formales no pueden probar su propia consistencia (según el segundo teorema de Gödel), mientras que los defensores del eje Gödel-Penrose-Lucas suelen mantener que los razonadores humanos pueden confiar en su propia consistencia. Uno podría objetar razonablemente que no podemos probar nuestra propia consistencia y, en la práctica, a menudo somos inconsistentes, al menos en diferentes momentos.
Hay un artículo interesante de Gaifman aquí: columbia.edu/~hg17/godel-incomp4.pdf en el que argumenta que lo que se sigue de los teoremas de Gödel es que, en última instancia, no podemos descifrar por completo nuestros propios procesos de razonamiento o poseer una especificación completa de a ellos.
@Bumble: Eso solo se sigue si asume que las mentes humanas son máquinas de estado finito completamente deterministas , con el sistema formal subyacente que incluye suficiente aritmética, y no pueden tomar decisiones libres para seleccionar diferentes "caminos de pensamiento"; vea mi respuesta un poco sobre el último punto. Solo por diversión, diría que PA no tiene una interpretación del mundo real, ni siquiera Q, porque el mundo es finito. ¡Muéstrame tu evidencia de que el mundo es infinito en cualquier aspecto y puedo cambiar de opinión!
Por cierto. Supongo que eso plantea la pregunta adicional sobre si el cerebro humano puede considerarse equivalente a una máquina de Turing y, de no ser así, si el cerebro humano puede calcular cosas que no son computables por Church-Turing.
Si solo mirara una oración de Godel y no supiera cómo está construida, un humano sin duda no podría decir si es verdadera o falsa, tendría que factorizar todos los números (lo que probablemente hace que sea imposible para cualquier humano justo allí) y tendría que conocer la clave del código subyacente de alguna otra fuente. Entonces, el ser humano solo sabe más que la máquina porque tiene más contexto, y si a la máquina también se le diera este contexto como axiomas, también sabría que la oración es verdadera. Pero la teoría ampliada necesitaría un conjunto diferente de oraciones de Gödel.

Respuestas (6)

Como tales, las máquinas de Turing no son consistentes ni inconsistentes; los sistemas formales sí lo son. Sin embargo, una vez que fijamos una codificación de (por ejemplo) la sintaxis del lenguaje de la aritmética, podemos ver algunas máquinas de Turing enumerando los teoremas de algunos sistemas formales (y cada sistema formalizado (sus teoremas) es enumerado por alguna máquina). Entonces, cuando la codificación se mantiene fija, tiene sentido llamar a una máquina, derivadamente, "consistente" o "inconsistente".

Entonces, construir una máquina de Turing inconsistente es sorprendentemente fácil: defina una máquina que simplemente enumere todas las oraciones del lenguaje: en particular, enumera una oración y su negación (para cada oración).

Sería bueno agregar referencias relevantes para ayudar a respaldar su respuesta. En particular, una referencia que discute la idea de que las máquinas de Turing no son consistentes ni inconsistentes, pero los sistemas formalizados sí lo son. Esto le da al lector un lugar para obtener más información y convierte su respuesta de una opinión en un informe sobre los resultados de otros. Bienvenido a este SE.
@FrankHubeny Creo que el autor de esta respuesta es el autor real del artículo que cito en mi publicación; en este caso, no sé si las referencias son necesarias :-)
Esto es sólo un recordatorio de los hechos básicos. Cualquier libro de texto los confirmará.

Para discusiones detalladas de los llamados argumentos de Lucas-Penrose, ver:

y

Particularmente relevantes son los comentarios que Gödel dio en una de las prestigiosas Gibbs Lectures en la American Mathematical Society en 1951.

Gödel afirmó que lo que implican los Teoremas (específicamente, el Segundo Teorema) es que las matemáticas son inagotables :

Es este teorema [es decir, el Segundo Teorema] el que hace particularmente evidente la incompletabilidad de las matemáticas. Porque hace imposible que alguien establezca un cierto sistema bien definido de axiomas y reglas y consistentemente haga la siguiente afirmación al respecto: Todos estos axiomas y reglas percibo (con certeza matemática) como correctos, y además creen que contienen todas las matemáticas . Si alguien hace tal afirmación, se contradice a sí mismo.

En la Conferencia Gibbs, por lo tanto, Gödel reconoció que [sus teoremas] no descartan la existencia de un procedimiento algorítmico (una máquina de computación, un probador automático de teoremas) equivalente a la mente en el sentido relevante [...]. Sin embargo, si tal procedimiento existiera, “nunca podríamos saber con certeza matemática que todas las proposiciones que produce [sean] correctas”. En consecuencia, bien puede darse el caso de que “la mente humana (en el ámbito de las matemáticas puras) [es] equivalente a una máquina finita que… es incapaz de comprender completamente su propio funcionamiento”: una máquina demasiado compleja para analizarse a sí misma hasta el punto de establecer la corrección de sus propios procedimientos. Gödel infirió que lo que se sigue de los resultados de incompletitud es, a lo sumo, una conclusión disyuntiva:

O las matemáticas son incompletables en el sentido de que sus axiomas evidentes nunca pueden estar comprendidos en una regla finita, es decir, la mente humana (incluso dentro de lo real de las matemáticas puras) supera infinitamente los poderes de cualquier máquina finita, o bien no hay existen problemas diofantinos absolutamente irresolubles del tipo especificado ... Es este hecho matemáticamente establecido el que me parece de gran interés filosófico.

En otras palabras, o la mente tiene realmente una naturaleza no algorítmica y no totalmente “mecanizable”, o existen problemas matemáticos absolutamente indecidibles. Pero [los teoremas de Gödel] no nos permiten ir más allá y concluir que la verdadera disyunción es la primera. Según Gödel, entonces, lo que se sigue de [ellos], y especialmente de [el Segundo], es que si nuestra mente es una máquina de computar, es tal que “es incapaz de comprender completamente su propio funcionamiento”.


Para más discusiones, ver:

y :


Comentario

No estoy de acuerdo con afirmaciones como:

existe la oración de Gödel (que dice que no es demostrable en ese sistema) que es indemostrable en ese sistema, pero que la mente humana puede ver como verdadera .

Supongamos algunos hechos "técnicos" con respecto a los teoremas de incompletitud de Gödel :

Cualquier sistema formal consistente F dentro del cual pueda llevarse a cabo cierta cantidad de aritmética elemental es incompleto; es decir, hay enunciados del lenguaje de F que no se pueden probar ni refutar en F

El enunciado indemostrable se construye de tal manera que:

F ⊢ G ↔ ¬ProvF(⌈G⌉)

y la prueba asciende a : :

si F es consistente , entonces F ⊬ G ,

ff F es 1- consistente [u otra condición, estrictamente "más fuerte" que la consistencia], entonces F ⊬ ¬G .

Hasta ahora, solo tenemos un resultado "sintáctico", sobre demostrabilidad en un sistema formal (adecuado).

Para hablar de verdad , tenemos que agregar el lado "semántico" [ver: Daniel Isaacson, Condiciones suficientes de indecidibilidad de la oración de Gödel y su verdad (2007)].

Suponiendo que el sistema F es correcto con respecto a la verdad en la estructura de los números naturales (llamados N ), tenemos que:

F ⊬ G , G es verdadero y F ⊬ ¬G .

Prueba

Suponga F ⊢ G ; entonces ProvF(⌈G⌉) y, por la condición F ⊢ G ↔ ¬ProvF(⌈G⌉) , tenemos que G es falsa . Entonces, por la solidez de F (es decir , F prueba solo oraciones verdaderas): F ⊬ G , contradiciendo nuestra suposición de que F ⊢ G . Así, por lógica proposicional: F ⊬ G .

De nuevo por la condición F ⊢ G ↔ ¬ProvF(⌈G⌉) , tenemos que ¬ProvF(⌈G⌉) es verdadero. Pero G ↔ ¬ProvF(⌈G⌉) , y por lo tanto G es verdadero

Entonces ¬G es falso ; entonces, por solidez de F : F ⊬ ¬G .

Conclusión : no se trata de "ver la verdad de...". Tenemos una demostración matemática estricta de un condicional :

"si F es sonido, entonces la oración de Gödel G (para F ) es verdadera ".

Por lo tanto, la prueba matemática con respecto a la verdad de G se basa en suposiciones . La suposición básica de la prueba anterior es la solidez del sistema F con respecto a los números naturales : una condición que es más fuerte que la consistencia .

En realidad :

la solidez implica consistencia, mientras que la consistencia es estrictamente más débil que la solidez.

Hay teorías que son consistentes pero poco sólidas ; un ejemplo simple es: F ∪ {¬G} .

Podemos construir una computadora que implemente una teoría formal inconsistente a la que no se aplica el teorema de Gödel al igual que podemos construir una computadora que implemente la aritmética de Peano. Un ejemplo simple es la aritmética relevante R# de Meyer que permite algunas contradicciones, pero usa lógica paraconsistente (sin la ley de explosión) para limitar su efecto. En R# Meyer pudo probar por medios finitos que los cálculos aritméticos nunca producen resultados contradictorios a pesar de la presencia de contradicciones más abstractas, no exactamente lo que quería Hilbert, pero más de lo que permite la aritmética consistente de Peano. Recientemente McKubre-Jordens y Weber extendieron R# al análisis inconsistente, hay otras teorías formales inconsistentes interesantes que pueden implementarse como las consistentes.

Sin embargo, uno no necesita inconsistencia para cuestionar los argumentos de Gödelian. El "superpoder" humano para reconocer la verdad de las oraciones de Gödel se deriva del hecho no místico de que son demostrables en la metateoría, por ejemplo, la oración de Gödel para la aritmética de Peano es demostrable en la aritmética de segundo orden. Por supuesto, cualquier teoría de prueba efectiva para la aritmética de segundo orden tendrá su propia oración de Gödel, demostrable en la siguiente, etc., y ninguna de ellas puede probarlas todas. Pero tampoco puede hacerlo ningún humano. Construir una oración de Gödel para una teoría efectivamente axiomatizada también es un proceso perfectamente algorítmico (según Gödel).

Entonces, esto se reduce a la capacidad humana históricamente atestiguada para encontrar nuevos axiomas y nuevas formas de razonamiento que no se formalizaron de antemano. Como los humanos los "encuentran", sin embargo, no están de acuerdo sobre su verdad y validez. Según los humanos llamados intuicionistas, las oraciones de Gödel no son verdaderas (o falsas), y tampoco lo es el axioma de elección o incluso la ley del tercero excluido. El postulado paralelo es solo "aproximadamente cierto" en estos días. Los axiomas "verdaderos" no son tanto "reconocidos" como recogidos y adoptados porque son útiles. Pero, ¿por qué no puede hacer lo mismo una IA elegante conectada a un generador de números aleatorios y con partes robóticas para interactuar con la "realidad"? Ya existen programas informáticos que generan conjeturas, como Graffiti, y algo como Prolog ya se puede usar para encontrar pruebas para ellos también. Las redes neuronales, simuladas en computadoras, pueden "inducir" nuevos patrones mediante el "aprendizaje", ¿qué les impide "inducir" el postulado paralelo?

Lo que los argumentos Gödelianos demostraron hasta ahora es que sus autores hacen presuposiciones que implican sus conclusiones sin ninguna mediación de Gödel. También podríamos decirlo sin rodeos: "la historia demuestra que los humanos pueden hacer lo que, en principio, ninguna computadora puede hacer". Lo creas o no, ningún teorema puede probarlo o refutarlo.

El teorema de Gödel de Franzen: una guía incompleta para su uso y abuso es una referencia canónica para disipar la mitología que rodea el resultado de Gödel.

Los sistemas inconsistentes son triviales de desarrollar. El problema con respecto a los sistemas inconsistentes y las IA fuertes es que es difícil para nosotros hacer una declaración de prueba para demostrar que cualquier IA específica es "fuerte", según la métrica que elijamos. La consistencia matemática es importante para todos nuestros sistemas de prueba existentes.

En consecuencia, si la IA se desarrolló usando un sistema inconsistente, tenemos pocas herramientas disponibles para hacerla "fuerte" intencionalmente.

Hacer un sistema inconsistente es trivial. Simplemente cree reglas que entren en conflicto. Por ejemplo, en programación, hay un problema muy real que surge al final de un proceso relacionado con la memoria alcanzable. Muchos lenguajes (java, python, C#, por nombrar algunos, además de shared_ptr de C++) tienen objetos que brindan garantías de vida útil: siempre que mantenga una referencia al objeto, tiene que permanecer. Sin embargo, puede encontrarse con situaciones en las que el objeto A se refiere al objeto B y el objeto B se refiere al objeto A, un "ciclo de referencia". Si ninguno de los objetos deja de referirse al otro, es probable que sean eternos.

Al menos, son eternos hasta que llega el final de un proceso, que viene con sus propias garantías de consistencia: "Los procesos se pueden terminar en un período de tiempo finito" y "los procesos liberan toda su memoria cuando se terminan". Así que tenemos que romper nuestra propia regla. Hay un período de tiempo al final de un proceso en el que no puede garantizar que todavía esté señalando algo que está vivo. En C++ en particular, esto puede resultar en situaciones que fallan porque le prometieron un invariante (este objeto me sobrevivirá), mientras que otro invariante entró en conflicto (el proceso finalizó).

Si necesita adaptarlo a una máquina de Turing, simplemente intente implementar una máquina de Turing dentro de un sistema que en realidad no puede implementar todas las máquinas de Turing "perfectamente". El sistema es inconsistente, porque afirma ser una máquina de Turing, mientras que los axiomas que definen la implementación contradicen estas afirmaciones.

Usted malinterpreta la consistencia. La consistencia es un concepto definido para los sistemas formales , que consta tanto de reglas como de cadenas de símbolos. Las reglas rigen exactamente qué cadenas pertenecen al sistema formal, que se dice que son derivables dentro del sistema formal. La consistencia solo significa que el sistema formal no genera una contradicción , donde la contradicción se define como una cadena fija como "0 ≠ 0". Eso es todo.

Una interpretación para un sistema formal es una asignación de cada cadena derivada de una manera inequívoca a un valor de verdad , que en la lógica clásica es "verdadero" o "falso". Además, una contradicción debe asignarse a "falso". Un modelo es una interpretación que asigna cada cadena derivada a "verdadero". Necesariamente, si existe un modelo para un sistema formal, entonces el sistema formal debe ser consistente.

Los sistemas formales se basan comúnmente en la lógica clásica de primer orden, que especifica qué cadenas son fórmulas bien formadas , afirmaciones que involucran símbolos de funciones, símbolos de predicados, símbolos constantes, operaciones booleanas y cuantificadores. Para cualquier sistema formal que obedezca a la lógica clásica de primer orden cuyas reglas sean verificables mecánicamente e incluya suficiente aritmética (por ejemplo, la aritmética de Robinson), existe alguna fórmula bien formada tal que ni ella ni su negación se deriven del sistema formal. Este tipo de fórmula se llama independiente .

La pregunta es si la mente humana sigue las reglas de algún sistema formal. Si es así, y el sistema formal incluye suficiente aritmética, y el sistema formal es consistente, entonces los humanos pueden probar que hay una oración independiente para él, específicamente la oración de Godel para él (dentro de un meta-sistema que prueba la consistencia de Peano Arithmetic ), pero puede deducir fácilmente en el metasistema que la oración es verdadera, lo que contradice la suposición de que la mente humana está modelada por un sistema formal que no deriva la oración de Godel. Hay varias otras oraciones independientes, pero la razón para mirar la oración de Godel es que es verdadera en el metasistema (que solo puede ser formalizado por un sistema formal más fuerte que el en cuestión).

La cuestión aquí es si la mente humana sigue las reglas de algún sistema formal consistente que incluya suficiente aritmética o no. El problema principal es que la consistencia de un sistema formal se define como si una cadena es derivable, pero las mentes humanas no son estáticas , por lo que ni siquiera está claro cómo se debe interpretar la consistencia. No he visto una definición muy cuidadosa de esto hasta ahora, pero este parece ser el último defecto en el argumento, incluso si aceptamos la consistencia de PA.

Técnicamente, necesitamos consistencia ω si usamos la oración original de Godel, pero Rosser reforzó el teorema de incompletitud y mostró que el teorema funciona incluso con consistencia simple y que hay una oración con la misma propiedad demostrable en el metasistema sin asumir consistencia ω , apropiadamente llamada la oración de Rosser.

La IA fuerte tal como la gente la entiende hoy (es decir, emulando el mismo tipo de inteligencia que un ser humano en nuestras computadoras habituales) es un engaño. Presupone que nuestras teorías sobre la naturaleza (¿debería decir la existencia misma?) son lo suficientemente completas para describir qué es la inteligencia y cómo emularla.

Este es un gran malentendido de la física y las matemáticas. Por ejemplo, nuestras teorías de la física nunca presuponen que la materia sea más que un montón de cosas inertes que interactúan sin ninguna forma de conciencia o inteligencia. Esto significa que las personas fuertes en IA creen firmemente que la conciencia y la inteligencia son algo emergente. Sin embargo, ¿cómo podrían surgir cosas no inertes como los sentimientos, la conciencia y la inteligencia de algo sin ninguna forma de percepción o vida? Es decir, ¿cómo podría existir alguna forma de percepción en un mundo inerte?

La física que entendemos y usamos todos los días permanecería sin cambios en un mundo sin percepciones: las cosas cambiarían sin propósito, sin que nadie (ni nada) lo notara.

Además, aún sin ser dualista, hay que notar que el mismo acto de comprender (ideas, conceptos, teorías, o incluso entre sí) es parte de la naturaleza. ¿Cómo podría el acto mismo de comprender ser una cosa inerte? ¿Qué pasa con el libre albedrío? ¿Por qué existiría el universo si fuera solo un montón de cosas inertes, libres de cualquier forma de percepción o libre albedrío, evolucionando sin propósito y de manera inadvertida?

Entonces, o la "vida" es parte de cada parte de la materia (uno podría suponer que la conciencia o las percepciones son tan fundamentales como sus contrapartes inertes) y, por lo tanto, nuestras teorías científicas son muy incompletas para describir y comprender qué son esas cosas, o personas fuertes de IA tienen que explicarnos cómo la percepción podría surgir de la nada. Buena suerte con este último.

Ahora bien, incluso si existe algún "elemento fundamental de conciencia o percepción", esto no significa en absoluto que seamos capaces de comprenderlo (es decir, de teorizar al respecto de manera relevante). La vida es una cosa bastante misteriosa, y ningún biólogo logró crearla a partir de una cosa sin vida (con la definición habitual de vida aquí). Es decir, ¿por qué sería posible siquiera comprender qué son la vida, la conciencia y las percepciones?

Poder describir cómo interactúan con el mundo físico y su parte inerte parece plausible, pero una descripción no es una explicación. Hay muy buenas razones para creer que está prohibido comprenderlo todo: si fuera posible comprenderlo todo, también sería posible comprender por qué es así, hasta el infinito. Por lo tanto, es mucho más humilde y maduro creer que los misterios nos rodean y dejar de ser tan arrogantes.

Obviamente, todavía se puede lograr algo mediante fenomenología pura sin poder explicar por qué funciona. Eso es muy cierto, pero entonces, ¿por qué las personas fuertes de IA creen tan firmemente que la vida no es más que algo clásico que uno puede emular con 0 y 1 cuando los biólogos han descubierto un código dinámico dentro de cada ser vivo llamado ADN? ¿No es el ADN el "verdadero código" de la conciencia y la inteligencia? En este sentido, ¿no deberían las personas fuertes en IA experimentar manipulando el ADN en lugar de perder el tiempo con la lógica clásica y nuestras teorías clásicas de computación?

Para terminar, permítanme recordar que las personas fuertes en IA han estado afirmando durante 50 años que las computadoras superarán a los seres humanos en la próxima década. Sus predicciones siguen fallando, y apuesto mi vida a que seguirán fallando si no cambian su paradigma: hoy en día ni siquiera pueden emular el cerebro de una abeja o una hormiga.

¿Qué pasa con el libre albedrío? Es un concepto causalmente incoherente. No cita ninguna fuente y usa 'personas fuertes de IA' sin señalar a quién se refiere, lo cual es simplemente una mala forma y se inclina a los testaferros. También pareces muy atrasado en el estado del arte en.m.wikipedia.org/wiki/Brain_simulation