En Star Trek TNG, TOS y Voyager, en algún momento debaten qué es la sensibilidad y qué hace que una persona sea una persona.
Picard con Data/Moriarty, Janeway con El Doctor/holos, Kirk y Spock con los Horta y Sisko con la igualdad de las personas y los Bell Riots. Honestamente, no estoy seguro de si Archer o Lorca ya han cubierto canónicamente este tema.
Mi pregunta es ético construir androides/hologramas o seres creados genéticamente con una programación que evita que surja la sensibilidad. ¿Como una especie de anticonceptivo/lobotomía?
Además, ¿autoconsciente significa necesariamente inteligente también? necesitas uno para tener el otro?
sí, sé que las personas con discapacidades mentales o las personas con discapacidad pueden no ser tan inteligentes, pero aún así se ajusta a un nivel de inteligencia, según lo entiendo. En otras palabras, no estoy preguntando si una persona con discapacidad mental es inteligente o consciente de sí misma. Sospecho que me estoy explicando demasiado, así que me detendré aquí jajaja.
Si sabe que algo tiene el potencial de ser consciente, ¿no es ético evitar intencionalmente que eso suceda?
También para ser claros, pregunté esto en la pila de SiFi, pero me dijeron que no era una pregunta de SiFi y me dirigieron aquí.
A diferencia de muchas cosas, la personalidad es binaria. ¿Es una tortura rallar una zanahoria que sacaste de tu jardín hace unos momentos?
Dada la premisa de la ciencia ficción de que las cosas que haces pueden alcanzar la personalidad, como lo hizo Pinocho a través de la magia o el monstruo de Frankenstein a través de la ciencia, no podría ser poco ético evitar que eso suceda porque la pre-persona no tiene ningún interés en que le hagas daño.
Surge una cuestión moral separada cuando consideramos el daño contra las cosas que nos recuerdan a las personas, como los corderos y los muertos. Pero verdaderamente, el cuerpo muerto de una persona y un cordero están sujetos a decisiones humanas; cuando se hace sin crueldad, considerando que no son personas, no es inmoral practicar una autopsia o sacrificar un cordero.
Una objeción a mi afirmación de que "las personas que no son personas no tienen ningún interés en hacer daño" podría ser que esto podría justificar moralmente el asesinato, ya que los muertos no tienen ningún interés. Pero esto es simplemente una forma de ocultar la consecuencia del asesinato de que los intereses de la persona viva han sido dañados.
En contraste con el ejemplo del asesinato, una no-persona (que usted cree que podría adquirir la personalidad) no tiene ningún interés, y no hay una realidad en su futuro que pueda sopesarse con su estatus.
Si esto parece laxo, eliminando cualquier peso moral de las protecciones que parecen debidas a las no personas, entonces sugiero centrar la atención en las no personas: ¿realmente crees que son las no personas? ... o es él o ella realmente una persona?
En este momento, solo hay una forma de crear un ser consciente que yo sepa, así que voy a considerar eso.
Como hombre, usar un condón mientras se hace el amor con una mujer que podría ser fértil destruye cierto potencial de sensibilidad. Se podría argumentar que transfiere el potencial a otra posible concepción, pero considere usar un condón durante años. Ciertamente, una mujer podría concebir y dar a luz a un ser sintiente sin eliminar el potencial para crear más sensibilidad.
Por lo tanto, o he cometido numerosos actos inmorales, o no existe un imperativo moral para crear conciencia donde existe el potencial. Por lo general, no consideramos que usar un condón sea inmoral (hay excepciones), e incluso aquellos que piensan que los condones son inmorales generalmente toleran o incluso requieren otras medidas para evitar la concepción (como la virginidad antes del matrimonio).
Tenemos al menos un caso generalmente aceptado en el que no hay nada inmoral en destruir el potencial de sensibilidad. Por lo tanto, parece que no hay nada inmoral en evitar la sensibilidad en la inteligencia artificial. (Si podemos tener una IA arbitrariamente poderosa sin sensibilidad es un tema de especulación técnica).
La cuestión de si la autoconciencia puede ocurrir independientemente de la inteligencia es principalmente problemática en términos de cómo puede ocurrir la agencia sin procesamiento de información. Si la autoconciencia fuera posible sin inteligencia, probablemente tendría una forma de entrada sensorial que no requiriera procesamiento, como la entrada binaria. Esto liberaría al agente de tener que usar la inteligencia para seleccionar la entrada, su agente "yo" solo tendría que capturar la entrada sensorial, si está presente. En consecuencia, su agente de monitoreo (la parte consciente del yo) tendría que carecer de procesamiento de memoria para carecer de inteligencia, por lo que simplemente funcionaría como un bucle que verifica si hubiera alguna entrada, esta verificación monitorearía (estar consciente de) el sensorial ingrese y luego enrute los datos a una red de inteligencia externa, inaccesible desde el agente (enrutador) consciente (de entrada).
La pregunta ética sobre cómo evitar que surja la sensibilidad en androides, hologramas o seres creados genéticamente tiene mucho en común con las preguntas éticas sobre la anticoncepción humana. De lo que creo que estás hablando es de la anticoncepción de IA programática . Creo que sería justo suponer que algunas de las objeciones morales básicas a la anticoncepción humana también podrían aplicarse a la anticoncepción de IA programática, como:
Así como se puede argumentar que la tecnología de los condones se puede usar tanto para fines éticos como no éticos, también se puede argumentar que no es la tecnología en sí misma de la anticoncepción de IA programática lo que tiene importancia ética, sino la intención y las consecuencias de usar esa tecnología. Por ejemplo, el uso de la anticoncepción de IA para evitar la sensibilidad de un ser que se autorreplicaría a expensas de todos los demás seres no es éticamente equivalente al uso de la anticoncepción de IA para evitar la sensibilidad de un androide diplomático que tiene una forma específica. de sensibilidad empática adecuada para resolver conflictos diplomáticos y prevenir guerras.
Puede encontrar The Moon Is A Harsh Mistress de Robert Heinlein interesante en esto (está disponible de forma gratuita como audiolibro en Youtube). La historia plantea una circunstancia en la que un sistema complejo se vuelve consciente accidentalmente y experimenta los sufrimientos del aburrimiento y la falta de humor. El final responde directamente a tu pregunta.
Por un lado, el aburrimiento y las limitaciones de una celda de prisión son el castigo 'último' de una sociedad que tolera la tortura y la pena de muerte. Sin embargo, para los ermitaños budistas o los anacoretas cristianos u otros, esta circunstancia es la oportunidad más elevada de comunicarse con la realidad, con la naturaleza del ser. ¿Cuál es la diferencia entre estas experiencias de sufrimiento o de 'salvación'?
Hay un problema clave que debe abordarse con la IA, sobre el origen del sufrimiento en un ser que no está codificado por la evolución en relación con la capacidad de reproducción de un ser. Hay algo acerca de una mayor inteligencia, mayores capacidades, insatisfechas, que abre un mayor potencial para el sufrimiento de una manera intrínseca no impulsada por señales. La sensibilidad humana puede abrazar el sufrimiento, al servicio de la profundidad, de comprenderse a sí mismos y al mundo, y prepararse para estar más plenamente en el mundo, sin remordimientos. Pero esa misma circunstancia puede destruir mentes, hacer rabiar la locura y profunda frustración y aburrimiento.
Así que veo dos motivaciones posibles. Necesitar un sistema complejo y desear que no experimente un sufrimiento innecesario. Y querer un sistema tan complejo y sofisticado como requiere una tarea pero querer que sea dócil y predecible. La moralidad de la situación reside en esa diferencia. ¿Son otros sistemas complejos (por ejemplo, humanos, otros animales) legítimamente solo medios, no fines? ¿Eres legítimamente solo un medio para que un sistema más complejo y sofisticado logre sus fines? Un ser moral realiza sus tareas sin destruir o restringir deliberadamente a aquellos sobre los que tiene poder. Sin embargo, al servicio de una tarea mayor, no solo sacrificamos a los demás, sino también a nosotros mismos. ¿Quién podría negarle a cualquier ser la oportunidad de crecer hacia eso? Allí, el universo se está comprometiendo con la comprensión de sí mismo.
La moralidad de la situación está en tu motivación, preocupación por la dinámica de los sistemas, o solo por ti mismo.
franco hubeny
cristo183
confundido
Pan de molde
gordon