¿Sería esta moral verdaderamente objetiva?

Trabajaré bajo la suposición de que el consenso científico general es correcto y que la evidencia, de hecho, apunta ineludiblemente hacia el hecho de que somos primates con un lóbulo frontal y un cerebro bien desarrollados para pensar de manera abstracta y crítica y esa creación especial. es, para todos los efectos, inexacta en el mejor de los casos.

Creo que los "deberes" morales objetivamente buenos y objetivamente malos pueden discernirse a través de la Ciencia. La Ley de es/debería de Hume parecería indicar que la ciencia sólo puede decirnos qué es, pero si definimos la moralidad como "aquello que es mejor para el más alto grado de bienestar humano", entonces sí creo que podemos determinar qué es lo que es. es lo mejor para el bienestar humano y, en consecuencia, lo que "debemos" hacer.

De todos modos, si este fuera el caso, ¿se definiría esto como un estándar moral objetivo? Matt Dillahunty lo describió bastante bien, así que permítanme parafrasear:
La moralidad, como el ajedrez, tiene jugadas objetivamente buenas y objetivamente malas si definimos el objetivo como ganar el juego. Nosotros "deberíamos" hacer lo que es objetivamente bueno y "no deberíamos" hacer lo que es objetivamente malo, de acuerdo con las reglas vigentes, ya que eso es lo que nos acerca a nuestro objetivo.

Ahora bien, si las reglas del ajedrez hubieran sido distintas de lo que son, por ejemplo, si el objetivo fuera perder a tu reina lo más rápido posible, todavía habría movimientos objetivamente buenos y objetivamente malos, pero serían diferentes de lo que son. son hoy. ¿Seguiría siendo esto una forma de moralidad objetiva?

Mi objetivo, aquí, no es discutir si tengo o no razón en mis puntos de vista sobre la moralidad. Gracias.

Pensamientos interesantes... pero no estoy muy seguro de cuál es la pregunta. Tendría que estar de acuerdo con su evaluación general de que todavía podríamos tener definiciones objetivas de lo bueno y lo malo si creyéramos que hay objetivos. Esto se llama el argumento de la función. A Aristóteles se le ocurrió.
Seguiré adelante y especificaré mejor la pregunta: "¿Sería esto una forma de moralidad objetiva?" Creo que existiría una moralidad VERDADERAMENTE objetiva independientemente de cómo evolucionemos o incluso si eliminamos todas las mentes conscientes del Universo.
Entonces creo que el término técnico para lo que quieres decir es universal en lugar de objetivo . es decir, "¿sería eso una forma de moralidad universal?"
pd, puede editar su pregunta original en lugar de responder en los campos de comentarios.
Para explicar lo universal frente a lo objetivo utilizando la analogía del ajedrez, una jugada objetivamente mala es aquella que el análisis muestra que no tiene mérito. Un movimiento universalmente malo es uno que siempre pierde. Así que colgar a tu reina es objetivamente malo, pero que te den jaque mate es universalmente malo.

Respuestas (5)

Esta es la ruta de Sam Harris para ignorar las dificultades de definir una moralidad objetiva (se la asigno porque él fue, hasta donde puedo decir, el defensor temprano más vocal y prominente de esta posición).

De hecho, es muy fácil definir una moralidad objetiva. Es muy difícil justificarlo . He aquí una moral objetiva: lo que aleja al ser humano del centro de la tierra es bueno. Lo que los acerca es malo. (Entonces, obviamente, todos deberíamos vivir lo más alto que podamos en las montañas y tratar el buceo como un pecado grave).

No hay duda de que la ciencia es una herramienta maravillosa para proporcionarnos información sobre muchas cosas. No sorprende que tenga mucho que decir sobre el bienestar de los humanos.

Los problemas vienen cuando empiezas a preguntarte por qué: ¿por qué bienestar en lugar de felicidad? ¿Por qué solo humanos? ¿Cómo puede cuantificarlo de una manera correcta, no solo fácil / medible? ¿Cómo se combinan puntuaciones de diferentes humanos?

Harris esquiva la pregunta, esencialmente diciendo: "Espera, espera, espera. Hay casos fáciles: la malaria disminuye inequívocamente el bienestar humano, ¡y la ciencia nos lo dirá!"

Esto también ignora el punto. Sí, hay casos fáciles, y ya son fáciles sin este supuesto marco de moralidad. Casi nadie aboga seriamente por permitir que la malaria se propague o se propague. Pero hay otros problemas comunes, como el aumento de las disparidades de riqueza o el conflicto entre el crecimiento económico y la degradación ambiental o si es noble o malo dar a conocer la difícil situación de los niños hambrientos en África, donde simplemente debe responder muchas de estas preguntas.

Entonces, la ciencia es una herramienta increíble y podemos aplicarla para ayudarnos a responder preguntas de moralidad, pero no nos dice que la métrica debe ser "bienestar humano" más de lo que nos dice que debe ser "distancia". del centro de la tierra".

Sin embargo , nos dice algunas cosas sobre la moralidad que tendemos a ignorar. Por ejemplo:

  1. Si la moralidad tiene que ver con los humanos, y si la existencia es mejor que la inexistencia, es mejor que su moralidad nunca recomiende un curso de acción que conduzca a la extinción de los humanos.

  2. Como criaturas evolucionadas, muchos de nuestros impulsos más fuertes están ahí porque son (o fueron) necesarios o útiles en un contexto evolutivo: amor a la familia, deseo sexual, aversión a ser esclavizados, etc. ignorar a los demás es aún más probable que sea emocionalmente inviable que algo más completo porque todos están ahí por una razón. (Por determinar: si tener en cuenta la razón subyacente suele ser suficiente, o si siempre debe tener en cuenta todos los casos especiales).

  3. Somos niños y niñas lo suficientemente grandes ahora, tecnológicamente, que podemos arruinar nuestra caja de arena. Tratar la moralidad como interacciones egocéntricas entre individuos sin considerar nuestro impacto más amplio pasa por alto lo que ahora es un impacto muy importante de los humanos sobre otros humanos. (Por determinar: ¿debería eso también caer bajo la moralidad, o debería haber un segundo conjunto de reglas? Si hay un segundo conjunto, ¿cómo se juzga cuando la moralidad y la conservación dan respuestas diferentes?)

Por eso, lo más parecido a una moralidad científicamente objetiva es algo así: las cosas son buenas en la medida en que maximizan las posibilidades de supervivencia indefinida de la vida humana (si no es posible, retroceden a otra vida en proporción a cuán estrechamente relacionadas es); las cosas son malas en la medida en que la ponen en peligro.

Y tampoco es completamente objetivo; ese es solo el comportamiento que el universo recompensa con la existencia continua. Tampoco está claro que sea suficiente para construir una moral integral. Pero, por lo que he visto, es lo más lejos que uno puede llegar cuando se apoya solo en la ciencia.

Estoy de acuerdo con ésto. La frase que Harris usa consistentemente es que una vez que aceptas la premisa de que maximizar el bienestar de las criaturas conscientes es una meta que vale la pena perseguir, "hay verdades objetivas que conocer" sobre cómo hacerlo. No tengo conocimiento de que él abrace la idea de una moralidad objetiva que existe fuera de ese contexto. Estoy de acuerdo en que no hay una forma objetiva de verificar que este es el mejor objetivo posible a seguir. Sin embargo, en ausencia de una alternativa fuerte, ciertamente parece ser la más noble...
Además, pocos argumentarían que los preceptos morales se aplican en ausencia de seres conscientes, por lo que es fácil imaginar que la moralidad está de alguna manera directamente ligada a su experiencia.
@eclipz905 - Bueno, ¿no notaste mi punto de que es difícil saber cómo calcularlo si hay más de un ser consciente? Puede que no se sienta como "noble", pero la versión inspirada en la evolución que mencioné anteriormente no sufre ese problema. (Personalmente, creo que un límite estricto para los seres conscientes en un universo donde pueden surgir linajes de seres conscientes, en escalas de tiempo lo suficientemente largas, de los no conscientes para ser más que un poco dudoso).
@RexKing Uso 'consciente' liberalmente, para abarcar a todos los seres, incluso minuciosamente, capaces de experimentar alegría y sufrimiento. Este tipo de utilitarismo otorga una consideración moral proporcional al rango de experiencia de cada ser. Se da la mayor consideración a los seres con el rango más amplio, y se reduce a cero la consideración de las entidades que se cree que no tienen un rango de experiencia. Su publicación plantea el punto de que esta redacción puede necesitar refinamiento. No diría que los organismos unicelulares experimentan alegría y sufrimiento, pero diría que tenemos una obligación ética mayor con ellos que con las rocas.

El ángulo de '¿Cómo diablos definirías "mejor"?' es obvio y ya está tomado. Y alguna forma de eso es la respuesta correcta.

Pero incluso si definió mejor, de la mejor manera posible, y todos estuvimos de acuerdo, todavía quedan dos obstáculos enormes.

1) Kuhn: La ciencia es una sucesión de modelos, esos modelos seguirán cambiando. Las cosas que parecían ser las mejores, dado el mismo estándar, bajo un modelo, pueden resultar mal concebidas cuando cambia el modelo. Y no se puede predecir cómo cambiará el modelo.

Feyerabend: Más allá de eso, no se puede saber qué partes de la ciencia son estables observando el estado actual o la tendencia histórica. Así que realmente no puedes adivinar qué ciencia es segura de usar. Necesita alguna meta-decisión sobre cómo medir los riesgos y las recompensas de confiar en la ciencia sin probabilidades genuinas disponibles. "Actúa según lo que crees en este momento" es solo una decisión religiosa, una fe en que el universo es de alguna manera honesto contigo.

2) Neitsche: Lo que es bueno para la masa rara vez es bueno para la especie. Si la moralidad humana funciona como la evolución, entonces el progreso depende de que algún individuo cree nuevos modelos a partir de lo que actualmente es una desventaja. Favorecer al todo, o incluso favorecer a cada individuo, limitará nuestra singularidad al eliminar las desventajas y restringe el menú de desventajas que podría ser la base adecuada para pensar en el futuro. "Elige tu delirio" requiere algunos esquizofrénicos realmente infelices de vez en cuando, para señalar cuán estúpida se vuelve la cordura ocasionalmente.

Entonces, lo que es bueno para los humanos actuales puede ser malo para los humanos futuros, y se necesita otro proceso de toma de decisiones meta para equilibrar el avance del proceso con su estabilidad actual.

Hay entonces, tres capas de borrosidad que no puedes aclarar (que atribuiré de la siguiente manera a Isaac Asimov):

  • La pregunta del robot: cómo juzgar 'el bien de la humanidad'
  • La pregunta de Waldos: cómo decidir en qué ciencia confiar y en qué medida, y
  • La pregunta de Hari Seldon: si valorar más a la humanidad real o potencial.
No entiendo el punto (2), infiero que tiene algo que ver con el conflicto que puede surgir entre cada agente que actúa en su interés frente a lo que es del interés del grupo en su conjunto.
@Dave Creo que la idea es que lo que es bueno para las masas no es necesariamente lo que en última instancia es bueno para las masas. Por eso el valor de la democracia no es que produzca los mejores gobiernos/decisiones posibles (obviamente no lo hace); el valor es que hace menos probable un patrón de las peores decisiones. Así que Nietzsche está diciendo que es muy poco probable que la democracia salve a la humanidad de sí misma. Lo mismo implica cualquier moralidad objetiva que no defina "bueno" como la voluntad de la mayoría (lo que sería una forma dudosa de moralidad objetiva).
@goldilocks Creo que eso es cierto, pero no a dónde iba. (Creo que todo eso está incluido en la primera pregunta, que omití.) Estoy mirando más directamente a la Genealogía de la Moral. Por ejemplo: ¿Decidiríamos mantener los barrios marginales si se probara que grandes hombres de medios humildes desempeñaron un papel arquetípico muy productivo en el avance humano? Depende de si valoramos lo real o lo potencial. Así que no es algo objetivo.

Algunos buenos puntos ya, solo algunos breves para agregar:

La moralidad, como el Ajedrez, tiene jugadas objetivamente buenas y objetivamente malas si definimos el objetivo como ganar el juego. Nosotros "deberíamos" hacer lo que es objetivamente bueno y "no deberíamos" hacer lo que es objetivamente malo, de acuerdo con las reglas vigentes, ya que eso es lo que nos acerca a nuestro objetivo.

Una respuesta teísta-objetiva común a esto (CS Lewis es el primero que viene a la mente) es algo así como: alguien creó las reglas del ajedrez, entonces, ¿quién creó estas reglas de moralidad? O no hay reglas, o estás diciendo que nosotros como sociedad hicimos las reglas, en cuyo caso lo que has propuesto no es una moralidad objetiva sino una moralidad subjetiva. Es subjetivo porque las diferentes culturas tienen diferentes normas sobre cómo comportarse/lograr el mayor bien/evitar causar vergüenza/etc.

Hayek escribió sobre algo similar a lo que mencionas (se refirió a estas reglas definidas orgánicamente como leyes , y a las reglas creadas por diseño del gobierno las llamó legislación ). Pero también fue muy explícito en que estas reglas podrían (¡de hecho, deberían!) cambiar con el tiempo y, por lo tanto, son subjetivas.

Está el ejemplo de Herodoto sobre la cultura cuyas "reglas actuales" los acercaron "a [su] objetivo" al quemar a sus muertos, la otra cultura que hizo lo mismo al comerse a sus muertos, y quienes encontraron las ideas de moralidad de los demás con respecto al tratamiento. de los muertos abominables. Claramente, esto no podría ser una moralidad objetiva.

"lo que es mejor para el más alto grado de bienestar humano",

Esto no es nada objetivo. ¿Sería digno de hacer lo que hace que el sádico y el abusador de niños y el necrófilo "bien" hagan? Se basa en el estándar subjetivo y arbitrario de bienestar pero, como dije, el bienestar y la moralidad no se equiparan automáticamente.

Puede pensar que tiene una buena idea de qué bienestar debería tener una persona, pero hay muchos casos de personas verdaderamente malvadas que hacen cosas malas pensando que están haciendo el bien. Esto no conducirá a un mejor mañana, simplemente permitirá que el mal decida sobre cualquier punto de vista arbitrario del bienestar para justificar cualquier acto malvado.

Esto es incluso si evitamos los muchos problemas y trampas que puede encontrar con las vistas del primer párrafo.

Podría ser objetivo si está dispuesto a afirmar que algún bien o conjunto de bienes son los mejores para todos los humanos. Está reduciendo eso al interés subjetivo en su respuesta, lo que conduce a las contradicciones que supone.
Por "grado más alto de bienestar humano", me refiero a lo que es esencialmente la "mayor cantidad de bienestar" para todos los humanos. Si la mayoría de los humanos, o quizás incluso un porcentaje considerable, fueran BDSM/pedófilos/necrófilos, su objeción sería válida y relevante. Si la gran mayoría de las personas fueran masoquistas (es decir, disfrutan del dolor), creo que la moralidad habría evolucionado de manera diferente, pero ¿no habría todavía decisiones objetivamente buenas que causarían la mayor cantidad de felicidad general?
"Hay muchos casos de personas verdaderamente malvadas que hacen cosas malas pensando que están haciendo el bien" -> Parece oximorónico. Las personas verdaderamente malas hacen cosas malas pensando que están haciendo el mal. ¿Por qué una persona malvada haría algo pensando que estaba haciendo el bien? Eso sería contrario a sus fines.

La distinción es/debería le dice que no puede definir un término normativo sin referirse recursivamente a otro término normativo. Aquí no escapas al problema: eliminas un "debe" por un "mejor", pero ¿qué es lo mejor? De manera similar, en el ajedrez, debes especificar el objetivo y las reglas.

El punto de naturalizar la moralidad no es que una vez dadas las normas, los medios puedan ser objetivos (todos están de acuerdo con eso). Una moral es objetiva si las metas y normas se especifican objetivamente.

La distinción es/debería solo se aplica a los sentidos modernos de la moralidad. Ver los artículos de GEM Anscombe "Modern Moral Theories". Puede ser posible especificar deberes basados ​​en es-es utilizando datos genéticos. Por ejemplo, deberías alimentar a un gato con carne no se deriva de ningún reclamo normativo anterior, sino de lo que es ser un gato.
Me parece que la oración se puede parafrasear "deberías alimentar a un gato con carne si quieres alimentar a un gato " (lo cual es una norma implícita).
La distinción es/debería solo puede aplicarse a los sentidos modernos de la moralidad, pero es de lo que se trata la pregunta. No veo cómo esta información es relevante para mi respuesta.
No es realmente una "norma implícita". Es una necesidad biológica. ¿ES la gravedad "una norma implícita"? No estoy seguro de por qué la pregunta se limita solo a los sentidos modernos de la moralidad. No parece especificar un período de tiempo o una restricción a las consideraciones humeanas.
La norma implícita no es que el gato necesite carne. Es que debes alimentar al gato desde el principio. De todos modos, me parece que la distinción todavía es ampliamente aceptada y utilizada en la argumentación de hoy. Quizás no todos estén de acuerdo con Anscombe.
Si cree que la distinción ya no es relevante, ¿por qué no publica una respuesta?
Con respecto a por qué no publico respuestas. En primer lugar, creo que la pregunta aún no está formulada con suficiente claridad frente a la confusión entre lo universal y lo objetivo. En segundo lugar, realmente no tengo tiempo para hacerlo. Tercero, estoy más que dispuesto a dejar preguntas que otros puedan responder a otros.
Con respecto a la afirmación implícita de la norma, la afirmación de que los gatos necesitan carne no parece depender de la norma. Sí, hay una cuestión de si debo alimentar a los gatos con carne (en realidad, personalmente no me gustan los gatos). Pero la "normalización" parece ocurrir en la medida en que los gatos y la carne forman un par, no solo en si quiero tener un gato. Si el mundo tiene características objetivas como esa, al menos en ocasiones pueden convertirse en características morales de maneras que no dependen de mis caprichos.
Claramente, toda la moralidad depende de cuándo nos importa, porque la moralidad generalmente se trata de preguntas sobre lo que debemos hacer. Pero la objetividad de la moralidad depende de si estas cosas encajan con otras características de la realidad. El problema es/debería ocurrir principalmente para los kantianos y es pregonado principalmente por los consecuencialistas.
Todavía no me convence el ejemplo del gato (creo que no sería una "norma" si nadie persiguiera objetivos como alimentar a los animales) y sigo pensando que quienes buscan naturalizar la ética están preocupados por hacer que las normas sean objetivas, no las medios para alcanzar estas normas...