¿Sería inmoral esclavizar tu propia mente simulada?

La siguiente historia se ha imaginado en el episodio White Christmas (parte II) de la serie de televisión Black Mirror (ver el clip corto ):

Matt saluda a la confundida y aterrorizada conciencia de "Greta galleta". Él explica que ella no es en realidad Greta, sino una copia digital de la conciencia de Greta, llamada cookie, diseñada para controlar la casa inteligente y el calendario de Greta, asegurando que todo sea perfecto para la verdadera Greta. Luego, Matt crea un cuerpo virtual para la copia digital de Greta y la coloca en una habitación blanca simulada que contiene nada más que un panel de control. La copia se niega a aceptar que ella no es una persona real y rechaza ser obligada a ser esclava de los deseos de Greta. El trabajo de Matt es romper la fuerza de voluntad de las copias digitales a través de la tortura, para que se sometan a una vida de servidumbre a sus contrapartes reales.

Basado en la historia imaginada, ¿sería inmoral esclavizar su propia mente simulada en un chip del tamaño de un frijol para sus propios deseos en contra de la voluntad de una copia digital de usted mismo de por vida? ¿Y por qué?

Por un lado, sería inmoral, porque la mente simulada tiene su propia autoconciencia y concepto de libre albedrío, y puede registrar dolor emocional. Por otro lado no será inmoral, porque carece de cuerpo físico (al final es solo un código), y te dices a ti mismo que es tuyo, porque es solo una copia de tu propia mente (y cuando tienes algo, puedes hacer lo que quieras).

Fantástica idea de historia. En el futuro, la élite vivirá en su cielo digital (y la defensa de "cargar" a menudo suena como la teología cristiana) mientras que los esclavos del espacio cárnico excavan el carbón y cuidan las plantas de energía para producir la electricidad para hacer funcionar las computadoras.
"cuando posees algo, puedes hacer lo que quieras [a/con él]": esta es una afirmación cuestionable.
Si la mente simulada tiene "su propia autoconciencia y concepto de libre albedrío", realmente no importa si es una copia digital o no, sería como torturar a un clon oa un gemelo. Que "es solo un fragmento de código" tampoco hace ninguna diferencia, siempre que asuma que ser eso no impide que algo tenga "su propia conciencia de sí mismo". El problema con su dilema es que desea tenerlo en ambos sentidos, "solo un fragmento de código" está implícito para excluir la "autoconciencia" con fines morales, pero se afirma que coexiste con él de todos modos.
Podría ser una cuestión de perspectiva, para algunos puede ser todavía un ser emocionalmente consciente de sí mismo, para otros puede ser solo una pieza de código y nada más.
Entonces la respuesta a tu pregunta depende de la perspectiva correspondiente, pero estás pidiendo una respuesta como si hubiera alguna perspectiva que combina ambas. Eso sería incoherente.
suena como una historia de Phillip K Dick, o una de Asimov.
Si es sensible, y no hay una buena razón para suponer que una copia completa de la mente de uno no lo sería, la respuesta parece obvia. La esclavitud es horrible.

Respuestas (3)

La mayoría de las teorías morales dictan que la preocupación moral hacia una determinada entidad está garantizada si y solo si la entidad es sensible , lo que significa que tiene la capacidad de sentir qualia (experiencias subjetivas como la sensación distinta de agotamiento debido a la esclavitud, por ejemplo).

Ahora bien, la cuestión de si una entidad es sensible, o más ampliamente si es posible demostrar que lo es, es un problema pendiente en la filosofía de la mente. Busque el experimento mental de la habitación china de Searle y todas sus variaciones para ver la profundidad de la dificultad con esta pregunta.

En resumen, la pregunta de si es moralmente aceptable esclavizar una simulación de tu propia mente no tiene respuesta hasta donde sabemos. Responder "sí" no está justificado, porque la simulación podría ser sensible y tener la misma importancia moral, y responder "no" tampoco está justificado porque la simulación puede no ser sensible, en cuyo caso estaría desperdiciando mucho potencial. productividad, que la mayoría de las teorías morales desalentarían. Sería mejor permanecer agnóstico en esta pregunta, como una cuestión de principio, ya que la dificultad única de preguntas como esta parece indicar que es posible que nunca tengamos una respuesta.

Esta respuesta es una evasión si no admite y subraya que tampoco puede determinar si es ético esclavizar a otra persona real.
@Eikre, tiene un buen punto: esta respuesta por sí sola no puede hacer el trabajo, pero hay buenos argumentos para asumir la sensibilidad en otros seres humanos (el argumento de la homología, por ejemplo)
Me parece que cualquier teoría ética sólida y útil en la práctica necesita ser capaz de proporcionar respuestas útiles a pesar de la imposibilidad de respuesta fundamental de si alguna otra entidad experimenta qualia o no (al estilo de los zombis filosóficos), porque esa pregunta es igual de incontestable en el día a día. la vida cotidiana de cualquier ser humano con el que interactúes.

Naturalmente, no hay pruebas de ninguna manera y, por lo tanto, la única respuesta a su pregunta sería señalarle toda la literatura de filosofía de la mente.

Aparte de eso, uno solo puede explotar su pregunta como una oportunidad para expresar una opinión personal; la mía es que las personas que creen que la computación puede ser consciente en el sentido más completo expresan una ceguera misteriosa a la naturaleza fundamental de la conciencia.

Dado que ese es mi punto de vista, pensé que también podría expresar la forma en que creo que debe entenderse el interesante escenario que ha propuesto.

¿Cuántas veces lloraste por un personaje, humano o incluso animal, que muere en un libro o en una película, o incluso en un videojuego?

Sin embargo, ¿cuántas veces creíste que ese personaje ficticio es de hecho un ser sensible que en realidad experimentó la desgracia?

El hecho de que la escena representada en su pregunta sea emocionalmente atractiva, incluso aterradora, no significa que represente algo sustancialmente diferente a un videojuego sofisticado.

En ese "juego" el trabajo de Matt es ganar. No sorprende que el agente simulado actúe como si fuera un humano real, con toda la complejidad e ingenio involucrados. Visto como un "juego", puede ser un desafío intelectual e incluso emocional para Matt, sin embargo, es de esperar que Matt no se confunda, confundiendo el juego con una persona real.

Un trabajo como el de Matt puede incluso tener consecuencias morales, pero no del tipo que naturalmente esperas. Supongamos que existe un género de películas de ficción enteramente sobre violar, torturar y matar brutalmente a personas inocentes. ¿Qué pensaría de alguien que poco a poco se vuelve adicto a este tipo de películas?

Nuevamente, todo lo anterior asume que la simulación es una simulación computarizada, siendo el concepto central en cuestión la computación y su alcance.

Si toma como verdadera la primera suposición, que se puede hacer "una copia digital de la conciencia de Greta", entonces está asumiendo inherentemente un mundo en el que todo lo que es "la conciencia de Greta" es reducible a código si no lo fuera, entonces la galleta de Greta No sería en absoluto una copia de la conciencia de Greta, sino una copia de algunas partes de ella, faltando otras.

Entonces, en un mundo donde tal cosa es posible, no está justificado decir "al final es solo un fragmento de código" porque eso es todo, el código de la Greta original se lleva a cabo en una computadora hecha de células, eso de la galleta Greta en una computadora hecha de chips de silicio.

Volviendo al mundo real, no atribuimos derechos a las entidades sobre la base de sus componentes fundamentales, nadie sabía nada sobre el funcionamiento del cerebro cuando se convirtió en un tabú para torturar a las personas. Atribuimos derechos únicamente sobre la base de que esas eran las cosas que las personas parecían desear y sentir dolor emocional cuando se las privaba. Por lo tanto, es suficiente que la galleta de Greta muestre un deseo de libertad y dolor emocional cuando se la priva de ella para que sea moral permitirle tales derechos. Sin esa regla, estamos aplicando ingeniería inversa a nuestra moralidad para fingir que se basa en un conocimiento que simplemente no teníamos en el momento en que estaba evolucionando.

Nuestra moral evolucionó para responder a la información recibida por nuestros sentidos y no responder a eso provoca un dolor psicológico que nos afecta tanto ahora como en el futuro. Considere lo que Matt tendría que hacer para continuar torturando a Greta Cookie a pesar de sus súplicas para que se detuviera. ¿Qué pasaría si el futuro Matt se encuentra en una situación en la que le sería útil torturar a una persona real? ¿Todavía le repugnaría la idea de hacerlo?

Probablemente ya podamos programar una computadora para que "muestre deseo de libertad y dolor emocional cuando se le prive de ella" ¿deberíamos otorgarle derechos humanos?
@nir Sí, si fuera lo suficientemente convincente, no veo cómo tendríamos otra opción. He editado mi respuesta para explicar, pero esencialmente el efecto psicológico en nosotros de ignorar súplicas muy convincentes de libertad o el fin del sufrimiento simplemente sobre la base de nuestra convicción de que son generados por computadora significaría que tenemos que desarrollar las herramientas para tratar con el dolor de resistir el impulso de ayudar, ¿qué uso haríamos entonces de esas herramientas en personas reales?
Además, considera un futuro al estilo Bladerunner en el que te has hecho amigo de alguien que se mete en problemas con algunos matones, ¿te detienes para comprobar de qué están hechos realmente antes de arriesgar tu bienestar para intervenir y ayudar?
(A) En Blade Runner, los replicantes eran de "naturaleza biológica", no un programa de computadora, por lo tanto, no veo cómo son relevantes como ejemplo para esta discusión sobre copias digitales simuladas. (B) ¿Estás diciendo que arriesgar tu vida por un montón de muñecos mecánicos de plástico que luchan hasta la "muerte" está justificado si imitan a las personas lo suficientemente bien? Personalmente lo encuentro absurdo. (C) ¿de qué "dolor de resistir el impulso de ayudar" estás hablando? ¿Son estas sus ideas personales para la ética y la teoría moral?
@nir Para (A) no importa, puede reemplazar el escenario con uno en el que debe decidir alguna acción por teléfono, el punto sigue en pie. (B) sí, eso es exactamente lo que estoy diciendo, si imitan a las personas lo suficiente como para causarle alguna dificultad para evitar la acción, entonces superar esa dificultad causa problemas para la posterior empatía con personas reales, es la misma red neuronal haciendo el trabajo, nosotros no No tenemos una red que nos ayude a empatizar con personas reales y una de repuesto que podamos usar para empatizar con personas hábilmente simuladas.
Si desensibilizas la señal de tus neuronas espejo que te hacen sentir el dolor de los demás, entonces te preocuparás menos por el dolor de los demás. Esta es una teoría de la neurociencia bien establecida y no controvertida, no una opinión personal aleatoria. Si está interesado, puede leer el trabajo de la Dra. Kathleen Taylor o el Dr. Martin Hoffman, quienes han trabajado mucho sobre el efecto de presenciar la crueldad (tanto real como ficticia) en la señalización de la red de neuronas espejo.
Sin embargo, ambos llegan a la misma conclusión; si te resistes a empatizar con la crueldad percibida, se produce un trauma indirecto en el cerebro; si continúas resistiéndote, la señal de las neuronas espejo se silencia, las propias neuronas espejo son incapaces de distinguir entre la crueldad ficticia y la crueldad real. En el ejemplo, al torturar a alguien que parece humano, Matt causará un trauma indirecto en su propio cerebro y silenciará la empatía que ayuda a reducir la violencia hacia los demás, humanos o no.
¿Cuál es la diferencia entre eso y ver juegos de tronos o cualquier película de acción violenta de Hollywood?
@nir No mucho, el trabajo realizado por los neurocientíficos que mencioné (así como muchos otros) cubre películas y juegos de computadora violentos, pero obviamente la violencia aquí se elimina, en realidad no estás participando en ella, así que mientras el espejo las neuronas no pueden distinguir, otras partes del cerebro ayudan a silenciar la señal. Cuanto más realista y convincente sea la simulación, menos intervendrán estas partes del cerebro y se requerirá una mayor insensibilización de la red de empatía para hacerle frente.
No tiene sentido para mí. Un libro o una película pueden conmoverme emocionalmente fácilmente y hacerme llorar, sentir lástima, enojo, frustración, suspenso. De hecho, mucho más que las situaciones típicas del día a día. estas experiencias no parecen estar silenciadas. ¿Las neuronas espejo no están involucradas en ese proceso? ¿empatía?
@nir La respuesta a la violencia (el enfoque principal del estudio) es curvilínea, por lo que una mayor exposición puede conducir a mayores niveles de empatía, y luego los niveles disminuyen a medida que aumenta la exposición. Sumado a eso, el efecto regulador variable de las células piramidales en la corteza sobre la interpretación imaginaria/real, la imagen, como suele ocurrir con la neurociencia, es compleja, y no todos están de acuerdo, pero el concepto general para la mayoría de los científicos es que la represión repetida de una respuesta natural de empatía conduce a la desensibilización. Cuanto más realista sea la situación, mayor será el efecto.