¿No deberían considerarse equivalentes las declaraciones en función de su significado en lugar de las tablas de verdad?

Considere la siguiente tabla de verdad, que sirve para definir el conectivo lógico ⇔,

P | Q || P⇔Q
T | T || T
T | F || F
F | T || F
F | F || T

De acuerdo con la tabla de verdad anterior, el conectivo lógico ⇔ se define como la operación binaria que toma como argumentos dos enunciados Py Q, y produce otro enunciado que tiene el valor de verdad "verdadero" cuando los valores de verdad de Py Qson los mismos, y " falso" de lo contrario.

Habiendo definido de la manera anterior, uno puede probar (usando tablas de verdad) que el enunciado P ⇔ Qes equivalente a (es decir, tiene la misma tabla de verdad que) el enunciado (P ⇒ Q) ∧ (Q ⇒ P). Al mostrar estas declaraciones P ⇔ Qy (P ⇒ Q) ∧ (Q ⇒ P)son "equivalentes" usando sus tablas de verdad, estamos invocando una noción de equivalencia "verdadera funcional".)

Sin embargo, ¿existe una noción más rudimentaria de equivalencia, separada de la definición de equivalencia de la tabla de verdad? Puedo intentar sugerir por qué esto podría ser deseable. Por ejemplo, es un lugar común considerar el enunciado 3>2"equivalente" al enunciado 3-2>0, no solo porque ambos enunciados son verdaderos (y por lo tanto tienen los mismos valores de verdad, lo que nos permite decir que (3>2)⇔(3-2>0)es "verdadero" usando la definición anterior de ), sino también ¡ en que están diciendo lo mismo en términos de su contenido o significado ! Por lo tanto, podríamos elegir un nuevo símbolo como y decir (en un sentido más fuerte) que (3>2)≡(3-2>0).

Por otro lado, considere las declaraciones 3>2y 4+6=10. Dado que ambas afirmaciones son verdaderas, podríamos escribir (usando la definición anterior) que (3>2)⇔(4+6=10), lo que parece contrario a la intuición. O, para otro ejemplo, suponga que las afirmaciones "el cielo es azul" y "la hierba es verde" son siempre verdaderas. Entonces, dado que ambas declaraciones tienen el mismo valor de verdad, podríamos escribir nuevamente (usando la definición anterior) que "the sky is blue" ⇔ "the grass is green"es verdadera.

Aquí está mi punto: aunque en los ejemplos anteriores hemos exhibido equivalencia funcional de verdad , probablemente no pensaríamos en estas declaraciones como "equivalentes" en términos de su significado , ya que están diciendo cosas completamente diferentes. Por ejemplo, el contenido de 3>2y 4+6=10no están relacionados entre sí.

¿Me estoy perdiendo de algo? ¿Existe una noción más rudimentaria de equivalencia, separada de la definición de la tabla de verdad? ¿Deberíamos usar los símbolos y de manera diferente, tal vez reservándolos para enunciados equivalentes en su contenido o significado (como 3>2y 3-2>0) y no simplemente para enunciados como 3>2y 4+6=10)?

¡Gracias por tus pensamientos!

¡ Buena pregunta! ¡ Lo que permite buenas respuestas!
@DBK Gracias. ¡Hay muy buenas respuestas aquí! Lamentablemente, soy lento para analizarlos. ¡Antes de seleccionar una respuesta, me gustaría estar seguro de que entiendo la diferencia entre y (ya que la diferencia parece no ser lo que pensé que era)!

Respuestas (5)

Existe una diferencia entre consecuencia semántica expresada por tablas de verdad, y consecuencia sintáctica en un sistema deductivo , algunos autores utilizan ⊨ para la primera y ⊢ para la segunda, y la correspondiente diferencia de equivalencia. Este último puede usarse para capturar algo de lo que estás describiendo. En la teoría kantiana de la contención conceptual, la equivalencia "no solo porque ambos enunciados son verdaderos, sino también porque están diciendo lo mismo en términos de su contenido" se denomina equivalencia analítica , y se puede formalizar de la siguiente manera.

Tenga en cuenta que en sus ejemplos, la verdad de las declaraciones depende del uso de las leyes de la aritmética. Se puede seleccionar un subconjunto de ellos en relación con el cual 3>2 y 3-2> 0 siguen siendo demostrablemente equivalentes, pero 4+6=10 no es demostrable. De manera más general, puede designar algunos axiomas que acepta como "analíticos" (digamos leyes de lógica pura únicamente) y otros como "sintéticos" (digamos leyes aritméticas). La equivalencia se declara analítica si solo se utilizan axiomas analíticos para derivarla. Sin embargo, con analiticidad puramente lógica 3 > 2 y 3 - 2 > 0 no son analíticamente equivalentes. Y no deberían serlo si lo piensas. El último implica 0 y resta, mientras que el primero no, por lo que agrega contenido y propiedades aritméticas adicionales. Pero puede obtener lo que desea moviendo parte de la aritmética a la columna analítica. Por ejemplo,¿Tenía razón Locke en que el conocimiento analítico es vacío? .

La raíz del problema es la definición de condicional material (y equivalencia) en términos de tablas de verdad. " El condicional material no siempre funciona de acuerdo con el razonamiento cotidiano si-entonces... Un problema es que el condicional material permite que las implicaciones sean verdaderas incluso cuando el antecedente es irrelevante para el consecuente. " Condicional que tiene en cuenta la "relevancia" se denomina condicional indicativo , y una teoría de eso no puede ser tan simple o formal como la del condicional material precisamente porque tiene que tener en cuenta "significados", y esos son pocos.

Entiendo lo que dices, pero la implicación en la lógica clásica no tiene nada que ver con el "significado" de las proposiciones. En particular, 3>2y 4+6=10son de hecho enunciados equivalentes.

La razón de tener dos símbolos para representar la equivalencia lógica es más o menos así: dentro de una teoría dada de las matemáticas A construimos un sistema lógico B. (B) simplemente consiste en (un conjunto de) cadenas de símbolos llamados "proposiciones", como Q ⇒ Po P∧Pjunto con la semántica o un cálculo sintáctico para derivar lo que uno llama "proposiciones válidas" (en su caso, son "tablas de verdad"). El símbolo es entonces solo un carácter, entonces puede o no aparecer en estas cadenas y dentro de B significa que dos proposiciones son equivalentes. Por otro lado, dadas dos proposiciones Py Q(esas son cosas en A, no se puede hablar de proposiciones individuales de B en B) escribimos P ≡ Qpara decir que P⇔Qresulta ser una proposición válida,es simplemente una relación en el conjunto de proposiciones, que te dice dentro de A, que dos proposiciones de B son equivalentes. Sin embargo, si no está estudiando lógica matemáticamente, puede simplemente "olvidar" que A y el símbolo alguna vez "existieron", ya que no lo necesita (la mayor parte del tiempo).

Si desea que su implicación respete el significado de las proposiciones, debe echar un vistazo a la "lógica de relevancia" ( http://plato.stanford.edu/entries/logic-relevance/ ). Lamentablemente, no puedo darte más información al respecto.

Creo que lo que estás captando es la distinción fregeana entre sentido y referencia . El referente de un término t es el objeto que t selecciona 'en el mundo', mientras que el sentido de t es, aproximadamente, algo así como la idea asociada con t . ( MUY aproximadamente. Frege llama al sentido del término el "modo de presentación" del término; una forma de pensar en el sentido es como la forma en que un término se refiere. Nótese también que al llamar al sentido de un término una "idea ' No quiero decir que el sentido sea algo mental).

Frege identifica el referente de una oración (bien formada) con el valor de verdad de esa oración. Esto es consistente con su reconocimiento de que '3>2' y '4+6=10' son funcionalmente equivalentes en verdad y, sin embargo, 'no significan lo mismo', es decir, son sinónimos (supongo que esto es lo que Ud. estás tratando de capturar cuando hablas de contenido). Frege explicará esto apelando a una diferencia de sentido entre las dos oraciones (mejor: las proposiciones expresadas por esas oraciones). De manera similar, las oraciones 'todos los solteros son hombres solteros' y 'todas las zorras son zorras' son (necesariamente) verdaderas, por lo tanto, funcionalmente equivalentes a la verdad, pero no querríamos decir que son sinónimos.

Para obtener más información, puede consultar http://plato.stanford.edu/entries/frege/#FreLan para ver una discusión sobre la filosofía del lenguaje de Frege. El mismo Frege es un escritor increíblemente claro, y probablemente podría ir directamente a su "Sobre el sentido y la referencia" (simplemente búsquelo en Google, puede encontrarlo en todas partes en línea), donde establece esta distinción con cierto detalle.

En realidad, los dos símbolos en cuestión, y , tienen comportamientos muy diferentes en lógica proposicional. Para el 99% de las situaciones, puede intercambiarlos y salirse con la suya. Sin embargo, en el último 1% la diferencia es fundamental para el uso de la lógica proposicional.

La diferencia es que el significado de está formalmente definido en la definición de lógica proposicional, mientras que no lo está. está relacionado con el operador de implicación por la definición iff A ⊢ B AND B ⊢ A then A ≡ B. La implicación, , es diferente del operador condicional porque el significado de se define formalmente y se define informalmente.

¿Por qué esta rareza? Surge cuando se intenta definir las reglas del lenguaje de la lógica proposicional. ¡No podría usar la declaración (A⇔B) ⇔ ((A⇒B) ^ (B⇒A))para definir el operador porque terminaría usándolo en su propia definición! Es imposible escapar de este ciclo circular, sin importar cuántos operadores inteligentes defina formalmente. La solución es que se usa informalmente para definir , y luego se usa para definir :(A⇔B) ≡ ((A⇒B) ^ (B⇒A))

Una vez que definimos de esta manera, podemos salirnos con la nuestra tratando y como la misma cosa. Sin embargo, en esta fase inicial de arranque, la diferencia es esencial para la construcción de la lógica proposicional y no puede subestimarse.

Cort, gracias por tu respuesta! ¡Ahora me pregunto no solo la diferencia entre y , sino también la diferencia entre y ! En mis clases de matemáticas solo lo he visto usado antes, nunca . Algunas preguntas de seguimiento: el símbolo está definido por su tabla de verdad, ¿correcto? ¿ Tiene una tabla de verdad diferente a ? Noté que dijiste que no está definido formalmente, pero ¿no se puede formalizar todo en lógica? Has despertado mi interés en la construcción de la lógica proposicional; ¿Hay algún texto que pueda recomendar que explique esta construcción con más detalle? ¡Muchas gracias!
@EthanAlvaree La respuesta técnica es que no está definida por una tabla de verdad y opera con declaraciones, no con valores, pero una vez que ha definido completamente todos los operadores en la lógica proposicional, descubre que puede construir una tabla de verdad alimentándola con declaraciones que están probadas verdaderas y declaraciones que se probaron falsas, y encontrará que la tabla de verdad se ve idéntica a la tabla de verdad que define . Tenga en cuenta que intencionalmente me acerqué a la "tabla de verdad" un poco al revés. Resulta que no todo en lógica puede formalizarse. El comportamiento del operador "implica", ,
es la pequeña pieza que no se puede formalizar en su propio lenguaje. Es tan abrumadoramente simple que la mayoría de la gente está dispuesta a descartarlo como una verdad evidente. Si tratas de deshacerte de él, rápidamente te encuentras corriendo en círculos o extendiéndote a un número infinito de pasos, o más comúnmente, terminas formalizándolo en un idioma diferente (como el inglés), para el cual no hay formalización.
La página de wikipedia sobre lógica proposicional en realidad toca estos temas, pero no profundiza en su significado más profundo, porque para el 99% del uso de la lógica proposicional, no es necesario.
Para un paseo divertido: considere tratar de resolver este problema definiendo formalmente en una lógica proposicional de "orden superior", una lógica que asumimos que ya está definida. Entonces podemos definir ese lenguaje y así sucesivamente. En teoría, si continúa esto hasta el infinito, eventualmente debería llegar al comportamiento "verdadero" de . Sin embargo, hay una trampa. Para describir ese viaje al infinito, necesitas saber contar. Debe poder hacer pruebas con respecto a la aritmética básica (como probar 2+3=5). Alfred Tarksi demostró que tal lenguaje no puede definir su propia semántica. Puedes
demuestre que, sin importar cómo el idioma intente sortear el problema, siempre hay una manera de probar que el idioma no define su propia semántica (también conocido como el valor de Verdad de cualquier declaración arbitraria). Al tratar de salirnos con la nuestra con una reductio ad infinitum, en realidad invocamos una regla que demuestra que ¡nunca podremos lograr nuestro objetivo!
Al final, casi todo el mundo se salta ese detalle, porque solo importa en las circunstancias más peculiares. Sin embargo, si lo piensas bien, si has probado Py P⇒Q, usas modus poens, para probar Q. Pero, ¿qué significaba realmente "usar modus poens"? En realidad, está utilizando ese metaoperador, para decir P, P⇒Q ⊢ Q, o en inglés, "'P' y 'si P entonces Q' implica 'Q'", y es ese paso de implicación lo que le permite escribir Qcomo una declaración verdadera. sin embargo, si nota, hay una peculiaridad, ya que en realidadP, P⇒Q no es una frase proposicional. No hay operador de coma.
Puede ver esto resuelto viéndolo en la forma (P⇒Q)^P⇒Q, pero ¿cómo puede probar que puede construir tal declaración usando sus propios nombres de variables y estar seguro de que debe ser verdad? El paso de implicación, que se anotaría formalmente con el metaoperador, se incluye en la "justificación" de su declaración al invocar el nombre "modus poens".

Para los propósitos de la lógica, que puede considerar argumentos matemáticos, políticos o filosóficos, o datos informáticos codificados, es más general considerar solo el valor de verdad de las declaraciones completamente aparte de su significado. De manera similar, generalmente encontramos más útil considerar 2+3=5 independientemente de si los números son de cerdos, milimicrones cuadrados, gotas de lluvia o apariciones de la letra r en una línea de las obras completas de Shakespeare, en lugar de tener que definir aritmética separada para un par de palomas y pares de zapatos.