Una intrigante definición de moralidad

La definición de moralidad es un tema muy debatido en la filosofía. En esta publicación, proporcionaré una posible definición de moralidad e intentaré argumentar por qué la definición es generalizada y consistente. Se agradecería si alguien puede proporcionar algunas ideas sobre el argumento previsto.

En lugar de definir la moralidad, definiría un "conjunto moral" que es un poco más riguroso matemáticamente que el concepto abstracto de moralidad. La definición es la siguiente:

Definición

Para una Meta definida, el conjunto de instrucciones/leyes que maximiza la probabilidad de alcanzar esa Meta se denomina conjunto moral.

Solicitud

Digamos que la Meta es la felicidad de la humanidad. Podemos ver que gran parte de las acciones que se consideran "morales" en el sentido normal se pueden clasificar en el conjunto moral bajo esta definición. Por ejemplo, podemos considerar decir la verdad moral. Vemos que decir la verdad (con algunas excepciones) garantiza una mayor probabilidad de éxito que utilizar la falsedad, ya que la falsedad puede extrapolarse a muchos más males. Por lo tanto, basta con afirmar que decir la verdad se puede clasificar en el conjunto moral. (Hay un problema menor de comportamiento después de mucho tiempo en este argumento. Por ejemplo, seguramente es posible que aunque la falsedad pueda resultar en una disminución de la felicidad por el momento, pero después de un tiempo finito, la felicidad debida a un conjunto moral que contiene leyes de decir la verdad puede ser aproximadamente igual a un conjunto moral que contiene leyes de falsedad. Por lo tanto, no tendríamos preferencia por decir la verdad en esta situación. Sin embargo, esto se contabiliza en la definición modificada que se da a continuación.)

Un subconjunto de ejemplos justifica una pequeña modificación a esta definición. Si nuestra Meta tiene una medida, entonces puede existir una Ley A y una Ley B donde ambas maximizan la probabilidad de alcanzar la Meta pero la Ley B también garantiza que la Meta que alcanza tiene una medida más alta que la Ley A.

Suponga que la Meta es maximizar el conocimiento matemático. La Ley A aboga por una simbología que es muy difícil de aprender y usar. La Ley B, sin embargo, aboga por el uso de simbología que es muy fácil de usar y dominar. Vemos que tanto la Ley A como la Ley B, en términos de maximizar la probabilidad de alcanzar la meta, son virtualmente indistinguibles. Pero es innegable que debemos optar por la Ley B ya que facilita todo el proceso.

Por lo tanto, se propone una definición modificada

Definición

Para una Meta definida, el conjunto de instrucciones/leyes que maximiza la probabilidad de alcanzar esa Meta y optimiza la Meta misma se denomina conjunto moral.

En primer lugar, esta definición hace que la moralidad sea subjetiva (sobre el dominio de los posibles objetivos). Además, una ventaja de usar esta definición de moralidad es que reduce los dilemas morales a problemas de optimización y estadística.

Los argumentos anteriores que se dieron en apoyo de ninguna manera fueron una prueba rigurosa de la definición. Todos ellos estaban destinados a arrojar algo de luz sobre la motivación detrás de la definición.

Se agradecería que alguien analizara la definición anterior y proporcionara alguna referencia (si la definición ya está adoptada en la literatura filosófica) o proporcionara alguna idea (que se puede usar para pulir el argumento o entender por qué la definición es completamente incorrecta) .

Editar:

Sobre el tema de la elección del objetivo:

El problema viene principalmente con la elección de la meta. Lo he dejado para un análisis más detallado en este punto, y decidir la elección óptima de Goal (si es necesario) es la razón por la que tuve que publicar esta pregunta.

Es muy posible que el Objetivo pueda ser elegido algo muy ridículo como construir estructuras de Lego o, simplemente para contradecir la intención principal, la inmoralidad. Sin embargo, originalmente se planteó la hipótesis, principalmente debido a la naturaleza de la humanidad, que la Meta se elegiría racionalmente. Si el consenso racional de la humanidad está de acuerdo en que debemos luchar por la inmoralidad (y, en consecuencia, definir la Meta como un aspecto inmoral), entonces creo que eso definirá la construcción del conjunto moral. Sin embargo, no estoy de acuerdo con que un consenso racional resulte en una elección tan pobre del Objetivo. (Esto es totalmente subjetivo en este momento).

Los comentarios no son para una discusión extensa; esta conversación se ha movido a chat .
Esto es bien conocido como ética teleológica y la selección de varias "metas" cubre una amplia gama de posiciones.
La definición dada fallaría en muchos otros contextos morales. Su definición no es absoluta y solo cubriría una pequeña muestra. La moral se preocupa por la filosofía de ser normativa. Lo que describes está más cerca de la ética práctica o aplicada. Por lo tanto, podría usar otra terminología que no sea moralidad para circunstancias específicas que le interesen con la publicación. Todos los campos de la ética no cubren la moralidad.
@Logikal, para mí, la moralidad es exactamente lo contrario de lo que dice OP. Es una voluntad de seguir tabúes, tradiciones, etc. y por lo tanto un concepto inherentemente inútil, ya que no tiene un objetivo.
Esto es realmente interesante, pero la pregunta real está enterrada debajo de algunas paredes de texto, y en este momento se lee un poco más como una publicación de blog o un ensayo. Solo recomendaría reorganizar para enfatizar el aspecto de la pregunta, ya que este es un sitio de preguntas y respuestas y no un foro.

Respuestas (1)

En un sentido pragmático, una definición similar a la dada puede ser relevante para la inteligencia artificial. De hecho, su definición se corresponde estrechamente con una clase de algoritmos de aprendizaje automático. Se podría definir una función objetivo correspondiente a la probabilidad (o calidad) de la meta, y utilizar técnicas de búsqueda, optimización o aprendizaje para maximizarla. Tales son el tema de la investigación activa.

Además, si asumimos que el conjunto moral es el conjunto de acciones morales permisibles , su primera definición sería una especie de lógica deóntica probabilística . Las más estudiadas en filosofía son las lógicas deónticas estándar, que adaptan la semántica kripkeana a la lógica modal alética. Si está interesado en antecedentes, detalles e historial adicionales sobre la lógica deóntica estándar, puede consultar el artículo de SEP . Sin embargo, ha habido problemas potenciales con tales axiomatizaciones.

Sin embargo, independientemente de la lógica precisa, tal definición implica un tipo de consecuencialismo con respecto a un bien correspondiente a la probabilidad de alcanzar (y calidad de, para la segunda definición) el objetivo dado (aunque generalmente se supone que el consecuencialismo se refiere al consecuencialismo hedonista). o utilitarismo, tal vez correspondiente a su objetivo de muestra de la felicidad de los humanos).

Sí, la definición pretendía utilizar estos algoritmos de optimización para reducir los dilemas morales a un mero problema de encontrar máximos o mínimos.
Entonces, los principales problemas son probablemente la incertidumbre y la definición de la función objetivo. Las lógicas deónticas en filosofía tienden a centrarse en la inferencia deductiva, las de la informática tienden a ser inductivas, lo que potencialmente nos deja inseguros sobre si algo está permitido o no. También podría ser interesante considerar restringir el conjunto moral de acciones permisibles por condiciones deónticas (axiomas en una lógica deóntica). Ese podría ser un buen punto de partida para algo como las leyes de la robótica de Asimov.
Le puede interesar esto: 'Google y otros están construyendo sistemas de inteligencia artificial que dudan de sí mismos' technologyreview.com/s/609762/…