¿Existe una descripción secular útil, nominalmente calculable, del bien?

Estoy buscando algo así como un algoritmo de aplicación general para determinar cuál de varias opciones posibles es 'más buena'.

Algunas calificaciones para ese algoritmo deberían ser que: (a) sea aplicable a una entidad inteligente general. (b) debería ser, asumiendo información equivalente, invariable entre entidades inteligentes. (c) no debería resultar en un futuro obviamente distópico. [p. ej., el utilitarismo, por lo que puedo decir, es víctima del problema de los 'adictos a todos a la superheroína']. [otros son víctimas del problema de 'entonces, acaba con la humanidad'] (d) debería ser aplicable a todas las opciones en este universo (e) no debe ser fácilmente rompible por hipótesis (f) debe ser utilizable en el contexto de información incompleta

Una posibilidad es asignar a cada partícula del universo un estado cuántico. Y estimar la incertidumbre en los estados cuánticos resultantes de todas las partículas del universo desde t=ahora hasta t=fin para cada elección posible. (esto es más fácil de visualizar suponiendo que el universo está dentro de un pozo potencial y con invariancia del número de partículas, generando así un número finito de estados posibles) Y asignar la elección con la mayor incertidumbre estimada al lado 'máximo bueno'.

¿Existe un algoritmo generalmente aceptado en ese sentido? ¿O hay razones para creer que tal algoritmo es imposible? Las referencias serían útiles.

Primer comentario, puede valer la pena dejar de lado "secular" porque si no existe uno para un código moral secular, no está del todo claro que los mismos estándares de evaluación no descartarían simultáneamente todas esas descripciones teístas. Segundo punto, debería haber muchas descripciones triviales de este tipo: "Las cosas redondas son buenas" o "La elección de extender la pierna es buena". Por supuesto, estos carecen de otra propiedad importante de las descripciones morales: tener motivación para aceptarlas.

Respuestas (2)

No entiendo muy bien lo que se supone que significa tu sugerencia sobre los estados físicos cuánticos. Tal vez (estoy especulando) lo que tienes en mente es el concepto de que la vida inteligente es "buena", ¿y estás buscando una forma casi objetiva de medir y comparar la existencia de vida inteligente?

De todos modos, si entiendo correctamente el algoritmo que está buscando, primero necesita una definición de "bueno" según criterios objetivos y, en segundo lugar, un método para medir esos criterios objetivos.

Supongo que se supone que la definición de bueno está razonablemente cerca de los valores éticos habituales. Para decirlo de otra manera, debería estar más o menos de acuerdo con el juicio intuitivo de que el sufrimiento y la brutalidad "no son buenos".

¿Significa eso que necesitamos un método objetivo para definir y medir el sufrimiento? Para el sufrimiento físico eso podría ser factible, pero ¿qué pasa con el sufrimiento emocional? Eso se vuelve muy complicado debido a las diferentes personalidades y diferentes valores culturales. (Por ejemplo, si una persona vengativa publica fotos de su ex amante desnudo en Internet, algunas de las víctimas podrían ignorarlo, otras se sentirían profundamente humilladas y avergonzadas. En un entorno cultural extremadamente mojigato, la víctima podría incluso sentirse llevado al suicidio.)

Sin embargo, podríamos obtener una aproximación razonablemente cercana a esas condiciones marco éticas intuitivas si asumimos que el sufrimiento emocional sería en la mayoría de los casos una consecuencia de la injusticia, y la injusticia podría medirse objetivamente por cosas como la distribución de la riqueza y la ocurrencia de violencia física. Supongo que a lo largo de líneas como esa se podría construir un algoritmo.

Pero solo se aplicaría a los humanos. Quiere un algoritmo que se aplique a todas las entidades inteligentes. Sin embargo, una inteligencia no humana podría tener valores y éticas totalmente diferentes. Por ejemplo, en una historia de ciencia ficción, Stanley Weinbaum imaginó una planta inteligente que no tiene ni la capacidad ni el deseo de influir en su entorno; Incluso, honestamente, no le importa en absoluto si lo matan y se lo comen.

Con eso en mente, considero poco probable que se pueda encontrar un algoritmo satisfactorio de "talla única". Por supuesto, las preocupaciones relativistas sobre el sufrimiento emocional podrían ignorarse y dictarse algunos valores objetivos, como "cuanto más existan entidades inteligentes, mejor. Y cuanto más se les permita actuar de manera inteligente y creativa, es decir, crear cosas ordenadas pero impredecibles, mejor". "

Con un algoritmo como ese, queda su condición (c) para satisfacer. No quieres un futuro distópico "obviamente". ¿Qué es "obviamente"? Supongo que eso me lleva a la suposición que ya hice, que los resultados del algoritmo no deberían ser diferentes de la ética "intuitiva". Pero también insinúa el problema de que si un algoritmo imprudente estuviera en el poder e inadvertidamente construyera un futuro distópico, uno debería poder detenerlo con algún tipo de ruptura de emergencia, es decir, volver a la ética intuitiva.

Ese problema tiene algunas similitudes con la pregunta clásica si el fin justifica los medios. Supongo que mucha gente se siente incómoda con ese concepto porque, al igual que su algoritmo, podría generar conflictos con la ética intuitiva que son difíciles de digerir (como los asesinatos políticos a gran escala). Con eso en mente, podría parecer más seguro decidir los problemas éticos caso por caso y aceptar que de vez en cuando suceden malos juicios y los "nuevos juicios" deberían seguir siendo posibles.

Respuesta corta ...

Dependiendo de cómo interpretemos su pregunta, sus mejores apuestas parecen ser una elección entre...

Respuesta larga ...

Si observa esto desde una perspectiva de "ojo de Dios" de la toma de decisiones para el futuro de la inteligencia, entonces, en el mejor de los casos, conduce a una solución vacía y, en el peor de los casos, es imposible (bajo cualquier definición razonable de bien). Primero, diferentes entidades consideran cosas diferentes como buenas, lo que significa que (a) y (b) son imposibles. Además, por (c) parece tener una idea objetiva de "bien" que es independiente de las entidades involucradas. Entonces, la única forma de resolver esto es definir arbitrariamente "bueno" como aquello que satisface af, pero dado que ya tenemos una idea de lo que es "bueno" (incluso si no podemos definirlo con precisión), estaríamos jugando juegos de palabras en este punto.

Tampoco defines distópico; por ejemplo, si todos fueran adictos a la superheroína, pero el suministro fuera infinito y no hubiera efectos nocivos, ¿sería tan malo? Puedo pensar en muchas personas que dirían que sería mucho mejor que lo que tenemos ahora... ¿Qué pasa con los esclavos controlados mentalmente, programados para ser felices? ¿Es mejor nuestra cultura de trabajadores infelices? ¿Es la libertad un bien tan absoluto que triunfa sobre la felicidad del individuo?

Además, ¿qué quiere decir con "rompible por hipotéticos"?

Además, creo que el argumento del estado cuántico es irrelevante; ni siquiera sabemos cómo la materia da lugar a la conciencia y "bueno" (en cualquier definición no vacía) es una propiedad de la conciencia perceptora (cargada de valores).

Entonces, los criterios son...

(a) Is applicable to a general intelligent entity.
(b) Is, assuming equivalent information, invariant between intelligent entities. 
(c) Should not result in an obviously dystopian future.
(d) Should be applicable to all choices in this universe 
(e) Should not be easily breakable by hypotheticals 
(f) Should be usable in the context of incomplete information

Una vez más, habiendo demostrado que esto no se puede hacer en ningún sentido universal, puede ser hora de mirar esto desde la perspectiva de un individuo.

Bueno, algunas cosas saltan...

(a) is a subset of (b)
(c) can't be guaranteed thanks to (f)
(e) is too vague to use

Como resultado, elimino (a), (c) y (e). Esto nos deja con...

(b) Is, assuming equivalent information, invariant between intelligent entities. 
(d) Should be applicable to all choices in this universe 
(f) Should be usable in the context of incomplete information

Esencialmente, la pregunta se convierte en una función de elección para cualquier individuo. Ahora, la forma más cercana de preservar su pregunta original es preguntar cómo deben comportarse los individuos para maximizar el bien universal. Para eso, podría probar la primera formulación del imperativo categórico de Kant como su función de elección:

Obrad sólo según aquella máxima por la que al mismo tiempo podáis querer que se convierta en ley universal sin contradicción.

Ahora bien, esto no está cuantificado, pero es un algoritmo.

Alternativamente, si desea saber cómo un individuo puede maximizar su propio bien, entonces lo más parecido a una respuesta es la utilidad . Creo que las funciones de utilidad tienen fallas, pero parecen ser el mejor punto de partida. Aquí hay un pasaje del enlace anterior (suponga que "pagar" es cualquier intercambio de valores, no solo dinero):

La utilidad se toma como correlativa del Deseo o la Necesidad. Ya se ha argumentado que los deseos no pueden medirse directamente, sino sólo indirectamente, por los fenómenos externos a los que dan lugar: y que en aquellos casos en los que la economía se ocupa principalmente, la medida se encuentra en el precio que una persona está dispuesta a pagar. pagar por el cumplimiento o satisfacción de su deseo