Completitud y coherencia de los sistemas morales (ética)

Antes de formular mi pregunta: no tengo educación formal en filosofía, pero estoy expuesto a los conceptos básicos de la mayoría de los sistemas morales (utilitarismo, altruismo, etc.)

¿Es posible demostrar que es posible o imposible tener un sistema moral que sea consistente (funciona de manera similar en todas las situaciones sin crear paradojas/dilemas) y completo (aplicable a todas las situaciones imaginables)?

¿Usando algo similar al Teorema de incompletitud de Gödel o usando lógica axiomática?

Por supuesto, la mejor manera de sortear la pregunta sería asumir un sistema moral en el que todas y cada una de las acciones son aceptables, es decir, dicho de manera más sucinta, no adherirse a ningún sistema moral en absoluto. Esto no es lo que pretendo, y me gustaría exceptuar tal sistema moral.

Cuando digo 'sistema moral', me gustaría que se limitara a aquellos sistemas que tienen axiomas bien definidos (con la excepción del sistema mencionado anteriormente).

El primer paso es encontrar los sistemas de axiomas relevantes. ¿Conoces algunos?
@Mauro, no tengo en mente ningún sistema de este tipo. Mi pregunta se refiere a una prueba que pueda mostrar de manera concluyente que no todos los sistemas morales son completos y consistentes o que existen sistemas morales que satisfacen esos parámetros.
Pero puede pedir consistencia solo si tiene una teoría "formalizada" disponible: lógica subyacente (reglas de inferencia) y axiomas específicos de "teoría moral".
Gracias @Mauro, entraré en esto.
Para agregar al punto: si bien puede haber formalizaciones completas y consistentes de los sistemas éticos, terminas con algo puramente formal o necesitas una formalización de todas las situaciones moralmente relevantes, lo que equivale a una formalización completa y consistente del lenguaje natural. . Esto ha demostrado ser fútil en las primeras décadas del siglo XIX. Las relaciones prácticas con el mundo no son formales.
El razonamiento moral no es deductivo ni axiomático, emplea juicios analógicos sobre casos específicos basados ​​en principios vagos, en lugar de derivaciones inferenciales de leyes generales. Así que la idea general realmente no tiene sentido. Hay algo llamado ética formal , pero solo cubre la forma de los principios éticos en lugar de su contenido, por lo que está (muy) incompleto por diseño. Ver también ¿Son las analogías entre la ética y las matemáticas filosóficamente coherentes?
Esto me recuerda a Thelimia y Alister Crowley en pocas palabras, "haz lo que uno quiere, siempre y cuando no impida que otros lo hagan".
@scott Rousseau y Kant lo expresaron de manera similar antes: la libertad de cada individuo debería tener su límite en la libertad de los demás.

Respuestas (4)

Bueno, en lo que respecta al utilitarismo y otros sistemas morales graduados (también conocidos como sistemas morales consecuencialistas), son bastante complejos. Para formalizarlos tendremos que utilizar una especie de lógica de muchos valores (más sobre esto más adelante).

En cuanto a los sistemas deontológicos, entonces son booleanos y, por lo tanto, cualquier sistema simple de lógica modal de dos valores funcionará. Es decir, la moralidad deóntica puede formalizarse, y ha sido, en el lenguaje de la lógica modal. Además, si el sistema se ha formalizado, entonces podemos simplemente verificar ese sistema correspondiente para C&C (consistencia e integridad). El sistema que refleja la ética deontológica generalmente se conoce como Lógica Deóntica . Además, podemos ajustar la lógica deóntica para reflejar cualquier sistema deontológico particular ya sea a) restringiendo las relaciones de accesibilidad o b) introduciendo nuevos axiomas.

En cuanto a los sistemas modales graduados como el utilitarismo, entonces, como dije antes, eso es complicado:

Supongamos que tenemos una acción A tal que maximiza la felicidad de x cantidad de personas en el escenario y maximiza la felicidad de y cantidad de personas en el escenario ( xy ). La acción A , entonces, se convierte en una función que toma el(los) escenario(s) Sⁿ , y la(s) cantidad(es) xₙ , y escupe una obligación, o un valor de permiso. Por lo tanto, como puede ver, este valor no tiene por qué ser T o F; puede ser cualquier número real [puedo explicar esto más si es necesario]. En consecuencia, el único sistema lógico apto para esta tarea sería la lógica difusa.. Podría haber otros sistemas. De hecho, cualquier sistema lógico multivaluado podría funcionar. El problema, sin embargo, es formalizar la ética no deóntica. Esto ha sido todo un desafío, especialmente porque la ética consecuencialista es esencialmente (discutible) subjetiva.

Como puede ver, C&C no es un punto de preocupación para la ética consecuencialista. Lo importante es mucho más fundamental: la formalización.

Espero haber respondido a su pregunta, siéntase libre de pedir cualquier aclaración. Saludos.

(Esta respuesta es esencialmente un seguimiento de la respuesta de @BertrandWittgenstein'sGhost)

En primer lugar, no debemos confundir los sistemas morales y sus propiedades con las formalizaciones teórico-modelo de los mismos. Considero que la pregunta es sobre esto último y creo que se puede negar la posibilidad de formalizaciones consistentes, completas y útiles/prácticamente aplicables sobre la base de la paradoja de Chisholm . Hay otros argumentos aplicables que se pueden encontrar en este artículo, pero me centraré en ese.

La paradoja de Chisholm destaca un problema principal de la ética formal: la consistencia de las proposiciones del lenguaje natural y sus formalizaciones pueden diferir en el caso de las proposiciones normativas (más fácilmente y más obvias que en el caso de las descriptivas). En otras palabras: si bien las oraciones normativas pueden ser perfectamente independientes y consistentes (intuitivamente), es posible que no haya una formalización apropiada que sea consistente.

Esto es consistente con lo que los filósofos modernos como Sellars o Putnam tienen que decir sobre las oraciones normativas: aparte de las oraciones descriptivas, son, en cierto sentido, tanto creadoras de hechos (debo hacer porque lo digo) como sustentadoras de hechos (yo lo digo porque se adhiere a normas intersubjetivamente válidas y la gente está de acuerdo en eso, es decir, yo juego 'correctamente' el juego del lenguaje moral). El punto es que los hechos normativos son aún más plásticos que los hechos descriptivos (estos últimos también lo son debido a la naturaleza normativa del lenguaje mismo). ((ni los 'hechos' normativos ni descriptivos deben entenderse en el sentido de hechos objetivos favorecidos por el realismo externo aquí))

El mejor método que se me ocurre es proponer un sistema simple y luego probarlo con sus parámetros.

El primer ejemplo que me viene a la mente es la moralidad de 'no hacer daño' , donde todo está permitido siempre que no dañe a otra persona. Ahora, podemos entrar en otra discusión sobre lo que lastima a otra persona, pero por el bien de este argumento, propongo que constituye dolor físico y/o emocional en lugar del "bien mayor" de la persona.

Este sistema es definitivamente completo ya que tiene dos categorías mutuamente excluyentes. Me intriga escuchar cómo puede ser inconsistente.

No creo que nadie haya intentado medio exitosamente deducir un sistema moral (como un todo) y ciertamente no estoy preparado para la tarea. Lo que es posible, en teoría, es deducir lo que es moralmente justo caso por caso. Ahora, eso no es práctico, pero al menos es posible. También se puede acelerar razonando sobre algunas reglas que se aplican a una variedad de casos (como no hacer daño) y ampliarlas cuando sea necesario.

Una forma interesante de probar que un sistema moral es probablemente correcto sería probar razonablemente que una fuente (que ha hecho afirmaciones morales) es probablemente infalible.

Si no entendí el punto de su pregunta, me encantaría escuchar un ejemplo de lo que tenía en mente.

Salud,

dominik

Si tiene referencias de personas que toman una posición similar, esto fortalecería su respuesta y le daría al lector un lugar para obtener más información. ¡Bienvenido!
Interesante. Eso se parece mucho a un sistema moral deontológico. Sería interesante ver cómo funcionaría el problema del trolebús: no hacer nada y dañar a otras personas cuando hay otros posibles cursos de acción, ¿sería eso una violación de la moralidad de 'no hacer daño'? Siéntase libre de llamarme por inferencias incorrectas o tontas :).
@Prosopon La forma más común de lidiar con eso es negar que la responsabilidad por las consecuencias de la inacción pesa tanto como las consecuencias del compromiso activo. Sin embargo, dependiendo de la versión del dilema del tranvía en cuestión, incluso eso no hace mucha diferencia.
@Frank Hubeny No conozco a ninguna persona prominente con dicho sistema ético, la mayoría de los filósofos de la moralidad probablemente tengan algunas teorías más complejas. Solo estaba tratando de ilustrar en términos sencillos un sistema moral consistente y completo. Gracias por la cálida bienvenida: D Solo trato de ayudar aquí, aunque no soy un experto.
@Prosopon es un sistema moral deontológico. Dado que su único principio es 'No hacer daño', en un problema donde el daño (igual o desigual) es inevitable, lo mejor que puede hacer es no hacer nada, lo que sería completamente moral, según este sistema, ya que no hay obligación moral de prevenir el daño. Un mal sistema, pero se ajusta a los criterios.
@FrankHubeny por error no te etiquetaron correctamente en el comentario anterior ^

Ya que inmediatamente está hablando de consistencia e integridad, comencemos con la teoría de la computación, en lugar de la ética o la lógica de presentación.

Esos sistemas que tienen axiomas bien definidos y permiten la aritmética de enteros notoriamente no están completos a través de alguna versión del razonamiento de Goedel. No importa cuál sería la semántica correspondiente. Entonces, si tiene este objetivo, necesitaría seguir un tipo de razonamiento muy extraño, uno en el que contar cosas nunca puede afectar el resultado ético.

Pero entonces, ¿puede cualquier sistema de este tipo ser lo suficientemente preciso como para que alguien lo considere 'completo'? Enormes porciones de financiación tendrían que ser inmediatamente excluidas. La mayoría de nosotros pensamos que el valor moral de la ganancia y el riesgo realmente depende bastante de los detalles aritméticos.

El kantianismo (como se emplea ingenuamente, no necesariamente como lo imaginó rígidamente el propio Kant) tiende a descartar la aritmética o la complejidad que la requeriría como parte intuitiva de la definición de una máxima. Pero luego, al centrarse en la autonomía, a menudo da la respuesta 'que depende de una negociación arbitraria entre los involucrados'. ¿Eso cuenta como completo?

Un problema básico aquí es que los sistemas morales (y más concretamente, los legales) no son consistentes por naturaleza, generalmente están sobredeterminados. Entonces, hay numerosas respuestas correctas igualmente buenas, ninguna de ellas perfecta, pero las combinaciones arbitrarias de esas múltiples respuestas correctas no están sujetas a un razonamiento consistente sin paradojas.

Esto sugiere que cualquier sistema ético real no es axiomático, sino algorítmico, y consiste en procesos de negociación que rigen el intercambio aceptable de poder y buscan un equilibrio consistente. (El punto al que generalmente vuelvo, el proceso social central es un juego de lenguaje). Pero, según alguna versión de la tesis de Turing, los sistemas algorítmicos suficientemente poderosos casi siempre permiten preguntas que tienen el problema de la detención y no convergen. En cambio, el mundo está lleno de 'conjuntos de Julia': los algoritmos se atascan en una regresión infinita cerca de los límites fractales entre las cuencas de atracción. Entonces esos tampoco van a estar completos.

La tendencia en algo así como un consecuencialismo predictivo es asumir que lo mejor que puede esperar si quiere algo completo es un sistema que involucra compromisos ad-hoc, por lo que es inconsistente por diseño, pero tiende a ser consistente con el tiempo. El "utilitarismo de reglas" con algún tipo de corte en la complejidad sería un ejemplo: parece ser lo que a los jueces les gustaría imaginar que hacen.