La definición de moralidad es un tema muy debatido en la filosofía. En esta publicación, proporcionaré una posible definición de moralidad e intentaré argumentar por qué la definición es generalizada y consistente. Se agradecería si alguien puede proporcionar algunas ideas sobre el argumento previsto.
En lugar de definir la moralidad, definiría un "conjunto moral" que es un poco más riguroso matemáticamente que el concepto abstracto de moralidad. La definición es la siguiente:
Para una Meta definida, el conjunto de instrucciones/leyes que maximiza la probabilidad de alcanzar esa Meta se denomina conjunto moral.
Digamos que la Meta es la felicidad de la humanidad. Podemos ver que gran parte de las acciones que se consideran "morales" en el sentido normal se pueden clasificar en el conjunto moral bajo esta definición. Por ejemplo, podemos considerar decir la verdad moral. Vemos que decir la verdad (con algunas excepciones) garantiza una mayor probabilidad de éxito que utilizar la falsedad, ya que la falsedad puede extrapolarse a muchos más males. Por lo tanto, basta con afirmar que decir la verdad se puede clasificar en el conjunto moral. (Hay un problema menor de comportamiento después de mucho tiempo en este argumento. Por ejemplo, seguramente es posible que aunque la falsedad pueda resultar en una disminución de la felicidad por el momento, pero después de un tiempo finito, la felicidad debida a un conjunto moral que contiene leyes de decir la verdad puede ser aproximadamente igual a un conjunto moral que contiene leyes de falsedad. Por lo tanto, no tendríamos preferencia por decir la verdad en esta situación. Sin embargo, esto se contabiliza en la definición modificada que se da a continuación.)
Un subconjunto de ejemplos justifica una pequeña modificación a esta definición. Si nuestra Meta tiene una medida, entonces puede existir una Ley A y una Ley B donde ambas maximizan la probabilidad de alcanzar la Meta pero la Ley B también garantiza que la Meta que alcanza tiene una medida más alta que la Ley A.
Suponga que la Meta es maximizar el conocimiento matemático. La Ley A aboga por una simbología que es muy difícil de aprender y usar. La Ley B, sin embargo, aboga por el uso de simbología que es muy fácil de usar y dominar. Vemos que tanto la Ley A como la Ley B, en términos de maximizar la probabilidad de alcanzar la meta, son virtualmente indistinguibles. Pero es innegable que debemos optar por la Ley B ya que facilita todo el proceso.
Por lo tanto, se propone una definición modificada
Para una Meta definida, el conjunto de instrucciones/leyes que maximiza la probabilidad de alcanzar esa Meta y optimiza la Meta misma se denomina conjunto moral.
En primer lugar, esta definición hace que la moralidad sea subjetiva (sobre el dominio de los posibles objetivos). Además, una ventaja de usar esta definición de moralidad es que reduce los dilemas morales a problemas de optimización y estadística.
Los argumentos anteriores que se dieron en apoyo de ninguna manera fueron una prueba rigurosa de la definición. Todos ellos estaban destinados a arrojar algo de luz sobre la motivación detrás de la definición.
Se agradecería que alguien analizara la definición anterior y proporcionara alguna referencia (si la definición ya está adoptada en la literatura filosófica) o proporcionara alguna idea (que se puede usar para pulir el argumento o entender por qué la definición es completamente incorrecta) .
Sobre el tema de la elección del objetivo:
El problema viene principalmente con la elección de la meta. Lo he dejado para un análisis más detallado en este punto, y decidir la elección óptima de Goal (si es necesario) es la razón por la que tuve que publicar esta pregunta.
Es muy posible que el Objetivo pueda ser elegido algo muy ridículo como construir estructuras de Lego o, simplemente para contradecir la intención principal, la inmoralidad. Sin embargo, originalmente se planteó la hipótesis, principalmente debido a la naturaleza de la humanidad, que la Meta se elegiría racionalmente. Si el consenso racional de la humanidad está de acuerdo en que debemos luchar por la inmoralidad (y, en consecuencia, definir la Meta como un aspecto inmoral), entonces creo que eso definirá la construcción del conjunto moral. Sin embargo, no estoy de acuerdo con que un consenso racional resulte en una elección tan pobre del Objetivo. (Esto es totalmente subjetivo en este momento).
En un sentido pragmático, una definición similar a la dada puede ser relevante para la inteligencia artificial. De hecho, su definición se corresponde estrechamente con una clase de algoritmos de aprendizaje automático. Se podría definir una función objetivo correspondiente a la probabilidad (o calidad) de la meta, y utilizar técnicas de búsqueda, optimización o aprendizaje para maximizarla. Tales son el tema de la investigación activa.
Además, si asumimos que el conjunto moral es el conjunto de acciones morales permisibles , su primera definición sería una especie de lógica deóntica probabilística . Las más estudiadas en filosofía son las lógicas deónticas estándar, que adaptan la semántica kripkeana a la lógica modal alética. Si está interesado en antecedentes, detalles e historial adicionales sobre la lógica deóntica estándar, puede consultar el artículo de SEP . Sin embargo, ha habido problemas potenciales con tales axiomatizaciones.
Sin embargo, independientemente de la lógica precisa, tal definición implica un tipo de consecuencialismo con respecto a un bien correspondiente a la probabilidad de alcanzar (y calidad de, para la segunda definición) el objetivo dado (aunque generalmente se supone que el consecuencialismo se refiere al consecuencialismo hedonista). o utilitarismo, tal vez correspondiente a su objetivo de muestra de la felicidad de los humanos).
Felipe Klocking
Conifold
lógico
rus9384
Caín