La siguiente historia se ha imaginado en el episodio White Christmas (parte II) de la serie de televisión Black Mirror (ver el clip corto ):
Matt saluda a la confundida y aterrorizada conciencia de "Greta galleta". Él explica que ella no es en realidad Greta, sino una copia digital de la conciencia de Greta, llamada cookie, diseñada para controlar la casa inteligente y el calendario de Greta, asegurando que todo sea perfecto para la verdadera Greta. Luego, Matt crea un cuerpo virtual para la copia digital de Greta y la coloca en una habitación blanca simulada que contiene nada más que un panel de control. La copia se niega a aceptar que ella no es una persona real y rechaza ser obligada a ser esclava de los deseos de Greta. El trabajo de Matt es romper la fuerza de voluntad de las copias digitales a través de la tortura, para que se sometan a una vida de servidumbre a sus contrapartes reales.
Basado en la historia imaginada, ¿sería inmoral esclavizar su propia mente simulada en un chip del tamaño de un frijol para sus propios deseos en contra de la voluntad de una copia digital de usted mismo de por vida? ¿Y por qué?
Por un lado, sería inmoral, porque la mente simulada tiene su propia autoconciencia y concepto de libre albedrío, y puede registrar dolor emocional. Por otro lado no será inmoral, porque carece de cuerpo físico (al final es solo un código), y te dices a ti mismo que es tuyo, porque es solo una copia de tu propia mente (y cuando tienes algo, puedes hacer lo que quieras).
La mayoría de las teorías morales dictan que la preocupación moral hacia una determinada entidad está garantizada si y solo si la entidad es sensible , lo que significa que tiene la capacidad de sentir qualia (experiencias subjetivas como la sensación distinta de agotamiento debido a la esclavitud, por ejemplo).
Ahora bien, la cuestión de si una entidad es sensible, o más ampliamente si es posible demostrar que lo es, es un problema pendiente en la filosofía de la mente. Busque el experimento mental de la habitación china de Searle y todas sus variaciones para ver la profundidad de la dificultad con esta pregunta.
En resumen, la pregunta de si es moralmente aceptable esclavizar una simulación de tu propia mente no tiene respuesta hasta donde sabemos. Responder "sí" no está justificado, porque la simulación podría ser sensible y tener la misma importancia moral, y responder "no" tampoco está justificado porque la simulación puede no ser sensible, en cuyo caso estaría desperdiciando mucho potencial. productividad, que la mayoría de las teorías morales desalentarían. Sería mejor permanecer agnóstico en esta pregunta, como una cuestión de principio, ya que la dificultad única de preguntas como esta parece indicar que es posible que nunca tengamos una respuesta.
Naturalmente, no hay pruebas de ninguna manera y, por lo tanto, la única respuesta a su pregunta sería señalarle toda la literatura de filosofía de la mente.
Aparte de eso, uno solo puede explotar su pregunta como una oportunidad para expresar una opinión personal; la mía es que las personas que creen que la computación puede ser consciente en el sentido más completo expresan una ceguera misteriosa a la naturaleza fundamental de la conciencia.
Dado que ese es mi punto de vista, pensé que también podría expresar la forma en que creo que debe entenderse el interesante escenario que ha propuesto.
¿Cuántas veces lloraste por un personaje, humano o incluso animal, que muere en un libro o en una película, o incluso en un videojuego?
Sin embargo, ¿cuántas veces creíste que ese personaje ficticio es de hecho un ser sensible que en realidad experimentó la desgracia?
El hecho de que la escena representada en su pregunta sea emocionalmente atractiva, incluso aterradora, no significa que represente algo sustancialmente diferente a un videojuego sofisticado.
En ese "juego" el trabajo de Matt es ganar. No sorprende que el agente simulado actúe como si fuera un humano real, con toda la complejidad e ingenio involucrados. Visto como un "juego", puede ser un desafío intelectual e incluso emocional para Matt, sin embargo, es de esperar que Matt no se confunda, confundiendo el juego con una persona real.
Un trabajo como el de Matt puede incluso tener consecuencias morales, pero no del tipo que naturalmente esperas. Supongamos que existe un género de películas de ficción enteramente sobre violar, torturar y matar brutalmente a personas inocentes. ¿Qué pensaría de alguien que poco a poco se vuelve adicto a este tipo de películas?
Nuevamente, todo lo anterior asume que la simulación es una simulación computarizada, siendo el concepto central en cuestión la computación y su alcance.
Si toma como verdadera la primera suposición, que se puede hacer "una copia digital de la conciencia de Greta", entonces está asumiendo inherentemente un mundo en el que todo lo que es "la conciencia de Greta" es reducible a código si no lo fuera, entonces la galleta de Greta No sería en absoluto una copia de la conciencia de Greta, sino una copia de algunas partes de ella, faltando otras.
Entonces, en un mundo donde tal cosa es posible, no está justificado decir "al final es solo un fragmento de código" porque eso es todo, el código de la Greta original se lleva a cabo en una computadora hecha de células, eso de la galleta Greta en una computadora hecha de chips de silicio.
Volviendo al mundo real, no atribuimos derechos a las entidades sobre la base de sus componentes fundamentales, nadie sabía nada sobre el funcionamiento del cerebro cuando se convirtió en un tabú para torturar a las personas. Atribuimos derechos únicamente sobre la base de que esas eran las cosas que las personas parecían desear y sentir dolor emocional cuando se las privaba. Por lo tanto, es suficiente que la galleta de Greta muestre un deseo de libertad y dolor emocional cuando se la priva de ella para que sea moral permitirle tales derechos. Sin esa regla, estamos aplicando ingeniería inversa a nuestra moralidad para fingir que se basa en un conocimiento que simplemente no teníamos en el momento en que estaba evolucionando.
Nuestra moral evolucionó para responder a la información recibida por nuestros sentidos y no responder a eso provoca un dolor psicológico que nos afecta tanto ahora como en el futuro. Considere lo que Matt tendría que hacer para continuar torturando a Greta Cookie a pesar de sus súplicas para que se detuviera. ¿Qué pasaría si el futuro Matt se encuentra en una situación en la que le sería útil torturar a una persona real? ¿Todavía le repugnaría la idea de hacerlo?
usuario4894
dave
Conifold
kenorb
Conifold
Mozibur Ullah
Pregunta por Mónica