Si sabe que algo tiene el potencial de ser sensible, ¿no es ético evitar intencionalmente que adquiera sensibilidad?

En Star Trek TNG, TOS y Voyager, en algún momento debaten qué es la sensibilidad y qué hace que una persona sea una persona.

Picard con Data/Moriarty, Janeway con El Doctor/holos, Kirk y Spock con los Horta y Sisko con la igualdad de las personas y los Bell Riots. Honestamente, no estoy seguro de si Archer o Lorca ya han cubierto canónicamente este tema.

Mi pregunta es ético construir androides/hologramas o seres creados genéticamente con una programación que evita que surja la sensibilidad. ¿Como una especie de anticonceptivo/lobotomía?

Además, ¿autoconsciente significa necesariamente inteligente también? necesitas uno para tener el otro?

sí, sé que las personas con discapacidades mentales o las personas con discapacidad pueden no ser tan inteligentes, pero aún así se ajusta a un nivel de inteligencia, según lo entiendo. En otras palabras, no estoy preguntando si una persona con discapacidad mental es inteligente o consciente de sí misma. Sospecho que me estoy explicando demasiado, así que me detendré aquí jajaja.

Si sabe que algo tiene el potencial de ser consciente, ¿no es ético evitar intencionalmente que eso suceda?

También para ser claros, pregunté esto en la pila de SiFi, pero me dijeron que no era una pregunta de SiFi y me dirigieron aquí.

Puede haber varias preguntas aquí que es mejor hacerlas por separado. Una pregunta: ¿"consciente de sí mismo" significa necesariamente inteligente? Otra pregunta, ¿no es ético evitar intencionalmente que ocurra la sensibilidad? Otra pregunta, ¿los androides son sensibles o inteligentes? Solo algunas ideas sobre cómo obtener una respuesta que podría serle útil. ¡Bienvenido a este SE!
Considere: '"¿Inteligente significa necesariamente consciente de sí mismo?" Debe explicar qué quiere decir exactamente con "inteligente": hice algunas ediciones (que puede revertir) para establecer su pregunta singular prevista (basada en que la indicó dos veces). Mire enphilosophy.stackexchange.com/help para ver cómo preguntar. - Bienvenido a Filosofía.
¡vaya, ciencia ficción :D!
La mayoría de la gente no hace la distinción entre sensibilidad y sapiencia. grammarist.com/usage/sentience-vs-sapience
"Si sabes que algo tiene el potencial de ser consciente, ¿no es ético evitar intencionalmente que eso suceda?" Cuando tenemos un Telos o Fin rígido, entonces nos hacemos esto a nosotros mismos. Por razones prácticas, esto puede ser algo bueno, es decir, la vida es "finita", debemos dirigirnos hacia los fines adecuados. En realidad, estos fines no están tan grabados en piedra. || Así que ahora ya hay expertos cuya función es asegurarse de que no nos volvamos plenamente conscientes.

Respuestas (4)

A diferencia de muchas cosas, la personalidad es binaria. ¿Es una tortura rallar una zanahoria que sacaste de tu jardín hace unos momentos?

Dada la premisa de la ciencia ficción de que las cosas que haces pueden alcanzar la personalidad, como lo hizo Pinocho a través de la magia o el monstruo de Frankenstein a través de la ciencia, no podría ser poco ético evitar que eso suceda porque la pre-persona no tiene ningún interés en que le hagas daño.

Surge una cuestión moral separada cuando consideramos el daño contra las cosas que nos recuerdan a las personas, como los corderos y los muertos. Pero verdaderamente, el cuerpo muerto de una persona y un cordero están sujetos a decisiones humanas; cuando se hace sin crueldad, considerando que no son personas, no es inmoral practicar una autopsia o sacrificar un cordero.

Una objeción a mi afirmación de que "las personas que no son personas no tienen ningún interés en hacer daño" podría ser que esto podría justificar moralmente el asesinato, ya que los muertos no tienen ningún interés. Pero esto es simplemente una forma de ocultar la consecuencia del asesinato de que los intereses de la persona viva han sido dañados.

En contraste con el ejemplo del asesinato, una no-persona (que usted cree que podría adquirir la personalidad) no tiene ningún interés, y no hay una realidad en su futuro que pueda sopesarse con su estatus.

Si esto parece laxo, eliminando cualquier peso moral de las protecciones que parecen debidas a las no personas, entonces sugiero centrar la atención en las no personas: ¿realmente crees que son las no personas? ... o es él o ella realmente una persona?

¿Cómo es relevante para su argumento preguntar si es una tortura rallar una zanahoria? Las plantas no tienen receptores del dolor, por lo que el escenario es como preguntar si está bien serrar la pierna de un diabético paralizado.
@Cell, las plantas saben cuándo se ha visto comprometida su integridad; así es como saben cuándo comenzar a sanar sus superficies. "Saber que tu integridad ha sido comprometida" es más o menos equivalente al dolor, en mi opinión.
@elliotsvensson ¿Podría la curación de plantas ser algo así como un reflejo? Mis heridas normalmente se curan sin que me dé cuenta del proceso de curación.
En sus ejemplos en el tercer párrafo, dice "sin crueldad". Esto se relaciona con sacrificar un cordero siendo moral. ¿Es moral torturar al cordero? ¿Tiene un cuadrúpedo derecho a no ser maltratado sin sentido? ¿Un delfín? Parece reacio a llevar su argumento hasta el final.
@DavidThornley, oh sí, estoy absolutamente de acuerdo en que la curación de plantas es más un reflejo que un plan de acción. Sin embargo, esto se vuelve algo más turbio cuando hablamos de corderitos, que tienen la capacidad de aprender cosas y evitar el dolor.
@DavidThornley, siento que acabamos de repasar esto recientemente en Philosophy.SE, ¡pero siempre es bueno refrescarse! Sí, sería inmoral torturar un cordero, aun reconociendo que no es inmoral sacrificar un cordero.
@DavidThornley, esa restricción moral contra la tortura animal, sin embargo, no se basa en ningún derecho que tenga el animal sino en la obligación que tiene la persona.
@DavidThornley, las personas están moralmente obligadas a mejorar, a cultivar hábitos que sirvan a los intereses de sus vecinos, de las personas a las que informan y de las personas que confían en ellos. Torturar corderos desmoraliza la parte de nosotros que normalmente nos ayuda a evitar dañar a nuestros dependientes y pupilos.
En el utilitarismo, he visto el argumento presentado de que tenemos la obligación de introducir a más personas a la realidad siempre que podamos para que la suma total del florecimiento humano aumente, incluso si la calidad de vida disminuye en promedio cuando llega la nueva persona. pero no sostengo el utilitarismo, y no compro este argumento.
@elliotsvensson Como algo utilitario, tampoco compro ese argumento, aunque es una pregunta que debe abordarse.
@DavidThornley, supongo que la pregunta "¿estamos obligados a agregar nuevas personas, siempre que sea posible?" ¡es en realidad bastante inminente para la pregunta del OP! Sin embargo, no tengo ganas de lidiar con eso porque no soy utilitario.
Debe señalar que está utilizando su propia definición de dolor. La mayoría de la gente haría una distinción más fina. Es decir, alguien con desprendimiento de retina puede sentir que su visión se ve comprometida sin dolor, mientras que alguien con glaucoma de ángulo agudo puede informar pérdida de visión con dolor ocular intenso. Saber que algo anda mal no puede ser lo mismo que sentir dolor. La distinción puede ser importante para, por ejemplo, el diagnóstico.
@Cell, bueno, usé las palabras "más o menos" y "en mi opinión" cuando escribí sobre "dolor"...
Es verdad. Quise decir en su respuesta que la gente como yo pueda seguir su respuesta, pero es solo una sugerencia.
@Cell, pero no hablo de dolor... hablo de "daño", que se usa junto con "intereses". No tener "intereses" significa que no existe el "daño", en mi pequeña formulación.

En este momento, solo hay una forma de crear un ser consciente que yo sepa, así que voy a considerar eso.

Como hombre, usar un condón mientras se hace el amor con una mujer que podría ser fértil destruye cierto potencial de sensibilidad. Se podría argumentar que transfiere el potencial a otra posible concepción, pero considere usar un condón durante años. Ciertamente, una mujer podría concebir y dar a luz a un ser sintiente sin eliminar el potencial para crear más sensibilidad.

Por lo tanto, o he cometido numerosos actos inmorales, o no existe un imperativo moral para crear conciencia donde existe el potencial. Por lo general, no consideramos que usar un condón sea inmoral (hay excepciones), e incluso aquellos que piensan que los condones son inmorales generalmente toleran o incluso requieren otras medidas para evitar la concepción (como la virginidad antes del matrimonio).

Tenemos al menos un caso generalmente aceptado en el que no hay nada inmoral en destruir el potencial de sensibilidad. Por lo tanto, parece que no hay nada inmoral en evitar la sensibilidad en la inteligencia artificial. (Si podemos tener una IA arbitrariamente poderosa sin sensibilidad es un tema de especulación técnica).

Veo una ligera disyunción entre la pregunta de OP y este caso en el que no hay nada inmoral en destruir el potencial de sensibilidad: en la pregunta de OP (aparte de las cuestiones de política de la empresa/mandato del gobierno/órdenes militares) la situación presentada parece pertenecer a un individuo que puede o no ganar personalidad, no una clase de individuos que puede o no recibir más miembros.

La cuestión de si la autoconciencia puede ocurrir independientemente de la inteligencia es principalmente problemática en términos de cómo puede ocurrir la agencia sin procesamiento de información. Si la autoconciencia fuera posible sin inteligencia, probablemente tendría una forma de entrada sensorial que no requiriera procesamiento, como la entrada binaria. Esto liberaría al agente de tener que usar la inteligencia para seleccionar la entrada, su agente "yo" solo tendría que capturar la entrada sensorial, si está presente. En consecuencia, su agente de monitoreo (la parte consciente del yo) tendría que carecer de procesamiento de memoria para carecer de inteligencia, por lo que simplemente funcionaría como un bucle que verifica si hubiera alguna entrada, esta verificación monitorearía (estar consciente de) el sensorial ingrese y luego enrute los datos a una red de inteligencia externa, inaccesible desde el agente (enrutador) consciente (de entrada).

La pregunta ética sobre cómo evitar que surja la sensibilidad en androides, hologramas o seres creados genéticamente tiene mucho en común con las preguntas éticas sobre la anticoncepción humana. De lo que creo que estás hablando es de la anticoncepción de IA programática . Creo que sería justo suponer que algunas de las objeciones morales básicas a la anticoncepción humana también podrían aplicarse a la anticoncepción de IA programática, como:

  • Partiendo de la premisa de que la vida es un bien fundamental. AI Anticonceptivo es anti-vida y por lo tanto es moralmente incorrecto.
  • Previene la concepción de robots inteligentes no deseados.
  • Todos los seres requieren energía, la IA anticonceptiva permite controlar a la población y así proteger el medio ambiente.
  • La anticoncepción de IA impide que nazcan seres que podrían beneficiar a la humanidad.
  • Si a los programadores no se les permite elegir si crear o no seres sensibles, su autonomía y libertad para controlar sus vidas se restringe seriamente.

Así como se puede argumentar que la tecnología de los condones se puede usar tanto para fines éticos como no éticos, también se puede argumentar que no es la tecnología en sí misma de la anticoncepción de IA programática lo que tiene importancia ética, sino la intención y las consecuencias de usar esa tecnología. Por ejemplo, el uso de la anticoncepción de IA para evitar la sensibilidad de un ser que se autorreplicaría a expensas de todos los demás seres no es éticamente equivalente al uso de la anticoncepción de IA para evitar la sensibilidad de un androide diplomático que tiene una forma específica. de sensibilidad empática adecuada para resolver conflictos diplomáticos y prevenir guerras.

Si tiene referencias a fuentes que tienen puntos de vista similares, esto fortalecería su respuesta y le daría al lector una forma de obtener más información. ¡Bienvenido a este SE!

Puede encontrar The Moon Is A Harsh Mistress de Robert Heinlein interesante en esto (está disponible de forma gratuita como audiolibro en Youtube). La historia plantea una circunstancia en la que un sistema complejo se vuelve consciente accidentalmente y experimenta los sufrimientos del aburrimiento y la falta de humor. El final responde directamente a tu pregunta.

Por un lado, el aburrimiento y las limitaciones de una celda de prisión son el castigo 'último' de una sociedad que tolera la tortura y la pena de muerte. Sin embargo, para los ermitaños budistas o los anacoretas cristianos u otros, esta circunstancia es la oportunidad más elevada de comunicarse con la realidad, con la naturaleza del ser. ¿Cuál es la diferencia entre estas experiencias de sufrimiento o de 'salvación'?

Hay un problema clave que debe abordarse con la IA, sobre el origen del sufrimiento en un ser que no está codificado por la evolución en relación con la capacidad de reproducción de un ser. Hay algo acerca de una mayor inteligencia, mayores capacidades, insatisfechas, que abre un mayor potencial para el sufrimiento de una manera intrínseca no impulsada por señales. La sensibilidad humana puede abrazar el sufrimiento, al servicio de la profundidad, de comprenderse a sí mismos y al mundo, y prepararse para estar más plenamente en el mundo, sin remordimientos. Pero esa misma circunstancia puede destruir mentes, hacer rabiar la locura y profunda frustración y aburrimiento.

Así que veo dos motivaciones posibles. Necesitar un sistema complejo y desear que no experimente un sufrimiento innecesario. Y querer un sistema tan complejo y sofisticado como requiere una tarea pero querer que sea dócil y predecible. La moralidad de la situación reside en esa diferencia. ¿Son otros sistemas complejos (por ejemplo, humanos, otros animales) legítimamente solo medios, no fines? ¿Eres legítimamente solo un medio para que un sistema más complejo y sofisticado logre sus fines? Un ser moral realiza sus tareas sin destruir o restringir deliberadamente a aquellos sobre los que tiene poder. Sin embargo, al servicio de una tarea mayor, no solo sacrificamos a los demás, sino también a nosotros mismos. ¿Quién podría negarle a cualquier ser la oportunidad de crecer hacia eso? Allí, el universo se está comprometiendo con la comprensión de sí mismo.

La moralidad de la situación está en tu motivación, preocupación por la dinámica de los sistemas, o solo por ti mismo.