En un episodio, Doctor Who descubre que está atrapado en una isla de terror y descubre que su máquina del tiempo con la que podría escapar está congelada en la roca más dura de la tierra. También descubre que cada vez que muere, algún tipo de máquina hace otra copia de él, una copia sin recuerdos de esos hallazgos. Cada vez que se da cuenta de eso, corre hacia su máquina del tiempo y golpea la roca con el puño unas cuantas veces, segundos antes de que los monstruos lo atrapen.
A partir de la constelación de estrellas, descubre que estuvo allí, muriendo y replicándose, durante unos miles de millones de años.
Ahora bien, desde el punto de vista utilitarista, una tortura que dure miles de millones de años es lo peor que puede pasar. Y eso tiene sentido desde la perspectiva fisicalista porque si sumamos todos los sentimientos de todos los Doctores a lo largo de mil millones de años, hay un montón de hormonas de estrés (físicas) medibles en las que se basa.
Pero esta declaración asume que dolor + dolor = 2 dolores . Eso suena bastante razonable, pero ¿son los mil millones de dolores por los que ha pasado el Doctor realmente mucho peor que uno solo cuando el Doctor no recuerda lo que sucedió antes?
Mi punto es, ¿hay algún tipo de "modelo de dolor" que tenga sentido desde la perspectiva de un fisicalista, otro desde el utilitarismo? (no necesariamente tiene que ser un modelo moral)
¿Hay otra forma de evaluar materialistamente la moralidad de algo sin simplemente agregar y contraer dolores y placeres?
He argumentado en otra parte que esta noción de una métrica global para la moralidad está condenada al fracaso https://philosophy.stackexchange.com/a/26553/9166 . Pero, siendo un hipócrita, todavía tengo uno favorito, que siento que tiene una motivación fisicalista.
Cualquier voto por una versión fisicalista de la utilidad no podría vincularse realmente al placer humano. No jugamos ningún papel especial en la física, por lo que no parece haber una base para ningún sistema basado en la física que nos proporcione un papel especial en particular. Una distinción genuina requiere una diferencia.
Podría argumentar a favor de una utilidad que marque una diferencia genuina entre lo vivo y lo no vivo, pero vivir no requiere una sensación de placer. Las amebas viven. Uno duda de que sufran, a pesar del Buda.
Entonces, entre los criterios singulares para la ética que se han propuesto de manera destacada, nos vemos reducidos a un rango que va desde Schopenhauer hasta Nietzsche. La utilidad tiene que estar en el valor de supervivencia o en la capacidad general de moldear las propias circunstancias. En mi opinión, lo que estos tienen en común en relación con la física es que se trata de información. La supervivencia implica crear copias genéticas que mantienen la información que ya está aquí, el poder implica insertar información que es específica para ti en el entorno.
Votaría por esto como un enfoque de la utilidad y adoptaría la 'Teoría de la risita cósmica' de Terrence McKenna. Lo que es bueno es lo que en general produce la mayor oportunidad para la novedad. Para mí, esto sugiere una especie de kantianismo cuantitativo y evolutivo. Como el proceso que nos produjo, la evolución, no solo la forma biológica, sino el proceso general de elaboración de la información, es buena en sí misma. No es solo nuestra causa, es para lo que estamos aquí.
La autonomía debe ser respetada no como una fuerza de la verdad, sino como el conducto para que los seres atribuyan novedad al mundo. Y eso significa que no es una cualidad absolutamente inviolable, pero aparte de eso, creo que Kant tiene los principios básicos correctos.
No podemos saber qué tipo de autonomía liderará la evolución futura, por lo que destruirla o dirigirla innecesariamente es un riesgo innecesario. Al mismo tiempo, estamos hechos de autonomía, y limitarnos sin sentido es un riesgo igual. Eso lleva a algo así como la versión de medios y fines del imperativo categórico, como la medida de utilidad que crea un mundo donde se sirve la información. Más igualdad es mejor, más variedad es mejor, más complejidad es mejor, siempre que sea natural. La supervivencia y un cierto nivel de comodidad son necesarios para contribuir, entre los miembros de la mayoría de las especies, por lo que el utilitarismo de reglas aproximado, con un sesgo a sopesar el dolor sobre el placer, es un vago corolario.
Creo que la preocupación humana innata por la equidad en la competencia social no es un atributo idiosincrásico que tengamos como especie de primates con objetivos sociales determinados. Quiero decir, lo es, pero también expresa algo más general, y podemos confiar en ese instinto para señalar un principio más general del cual es básicamente una variante local.
Hay 3 valores de dolor que nos gustaría evaluar aquí:
Sea A = el dolor soportado por Doctor Who experimentando este dolor exactamente una vez.
Sea B = el dolor soportado en la situación que describiste. es decir, sufre este dolor miles de millones de veces, olvidando cada vez sus experiencias anteriores.
Sea C = el dolor soportado en la situación que describiste, menos la amnesia. es decir, el Dr. que muere miles de millones de veces y recuerda todas y cada una de las atrocidades
Todos podemos estar de acuerdo en que A ≤ B ≤ C . Lo que nos gustaría mostrar es que A < B < C .
Para mostrar B < C , necesitamos considerar la "función de utilidad del dolor" de un pensador racional. Su postulado:
dolor + dolor = 2 dolores
asumiría que esta función es lineal . Sin embargo, creo que después de un examen más detenido podemos estar de acuerdo en que este no es el caso. Creo que la función de utilidad del dolor de la mayoría de las personas es, de hecho, algún tipo de función convexa. Es decir, a medida que aumenta el dolor, la utilidad negativa total de cada unidad sucesiva infligida empeora cada vez más. Incluso para los tipos de dolor más triviales, existe un cierto infierno en la idea de tener que soportarlo durante un período prolongado de tiempo. En su ejemplo, dado que el Dr. Who olvida cada vez las atrocidades de su muerte anterior, este efecto combinado no es un factor. Por lo tanto, está bastante claro que la situación amnésica es preferible.
Para A contra B , creo que un utilitarista diría que estos dos son iguales. Los utilitaristas tratan de optimizar el bienestar de un actor. Debido a que las experiencias anteriores se borran de su memoria, no afectarían su bienestar.
tl; dr - Hay otra manera. se llama utilitarismo.
Bueno, eso fue un poco demasiado simplista, pero déjame explicarte. El utilitarismo es un término con múltiples significados. Por un lado, es una visión defendida por Jeremy Bentham y luego una visión no idéntica relacionada defendida por JS Mill. Por otro lado, es una posición ética contemporánea cuando se usa como sinónimo de consecuencialismo con respecto al dolor y al placer.
Parte de la razón por la cual la palabra tiene esta definición multidimensional es que la versión de Mill deja algunas preguntas importantes sin resolver. Aquí hay algunos:
Hay varios otros problemas en los que la gente ha pensado con respecto a esto. Y para abordar lo anterior, ahora existen varias variantes del utilitarismo. Un filósofo llamado Hare trabajó en lo que llamamos utilitarismo de reglas versus utilitarismo de actos, lo que sugiere que la tarea en casos individuales es seguir reglas diseñadas para optimizar el placer (en lugar de calcular lo que es más placentero cada vez de novo).
Con estos antecedentes en mente, volvamos a su reclamo:
Ahora bien, desde el punto de vista utilitarista, una tortura que dure miles de millones de años es lo peor que puede pasar. Y eso tiene sentido desde la perspectiva fisicalista porque si sumamos todos los sentimientos de todos los Doctores a lo largo de mil millones de años, hay un montón de hormonas de estrés (físicas) medibles en las que se basa.
Aquí has hecho bastantes suposiciones sobre lo que supuestamente debe ser el utilitarismo. Por un lado, has asumido algo sobre la relación entre el cálculo y el tiempo. Por otro lado, has identificado el dolor con ciertas hormonas.
Pero esta declaración asume que dolor + dolor = 2 dolores. Eso suena bastante razonable, pero ¿son los mil millones de dolores por los que ha pasado el Doctor realmente mucho peor que uno solo cuando el Doctor no recuerda lo que sucedió antes?
Creo que la pregunta contemporánea con respecto al tipo de ejemplo que planteas sería sobre la memoria. ¿Son los dolores que no podemos recordar de igual valor que los dolores que alguien puede recordar? Esta no es una pregunta que respondiera la definición original de utilitarismo; es una pregunta a la que los utilitaristas contemporáneos pueden elegir respuestas.
Un segundo problema es que algunas formas más sutiles de utilitarismo (y quizás el propio Mill) pueden ver el problema de optimización como la cantidad total de dolor dividida por la cantidad total de seres conscientes, por lo que en lugar de solo agregar dolor para cada nuevo médico, pueden ver el nivel promedio de dolor como si no se moviera realmente.
Para resumir, creo que está dando con un problema para una especie de utilitarismo y, a través de esto, está moviendo/mejorando su versión del utilitarismo para resolver estos problemas de una manera que le resulte atractiva.
Dicho todo esto, el fisicalismo no implica necesariamente el utilitarismo. Tanto la ética de Kant como la de Aristóteles son compatibles con una comprensión fisicalista del universo. Lo mismo puede decirse de varias vistas en el este también.
Conifold
Probablemente
usuario9166