El clásico experimento mental del Problema del Trolley es más o menos así:
Un vagón de tren suelto se precipita cuesta abajo hacia cinco personas atadas e indefensas en la vía. No es posible alcanzar y liberar a ninguno de ellos a tiempo, pero cerca hay una palanca de cambio de pista de lanzamiento manual. Si tira de la palanca, el carro se desviará a otra vía, salvando a las cinco personas, pero una sexta persona está atada en la otra vía. ¿Es más ético tirar de la palanca, sacrificando a una persona para salvar a las cinco, o no hacer nada, permitiendo que las cinco personas mueran?
Ahora imagine un robot positrónico típico de una de las obras de Isaac Asimov, con las Tres Leyes como parte central de su cerebro, que se encuentra en esa misma situación. ¿El robot:
En algunas de las obras de Asimov ambientadas más adelante en la línea de tiempo galáctica, algunos robots han pensado que las Tres Leyes implican una Ley Cero, no para dañar a la humanidad o por inacción permitir que la humanidad sufra daños. ¿Hay alguna diferencia si el robot en cuestión conoce y/o cree en esta Ley Cero?
Cualquier cosa razonablemente atribuida a Asimov, incluidos trabajos publicados, entrevistas, correspondencia privada, etc. podría ser una buena fuente para esta pregunta. Estoy menos interesado en otras fuentes, como películas, otros autores que usaron las Tres Leyes o variaciones sobre ellas, etc.
El cuento "¡Mentiroso!" se ha mencionado como la fuente de la afirmación de que el robot no podría tomar medidas o se quemaría después de hacerlo. Sin embargo, esta historia se menciona y, en cierto sentido, se desmiente en un trabajo posterior: Robots of Dawn .
Las citas relevantes son las siguientes:
A medida que la teoría de los cerebros positrónicos se ha vuelto más sutil y la práctica del diseño de cerebros positrónicos se ha vuelto más compleja, se han ideado sistemas cada vez más exitosos para que todas las situaciones que puedan surgir se conviertan en desigualdad, de modo que siempre se pueda tomar alguna acción. que se interpretará como obedeciendo a la Primera Ley.
Capítulo 4 - "Fastolfe"
Los robots han mejorado significativamente desde los días de Susan Calvin: uno debe recordar que las historias que la involucran son las historias sobre los pioneros en robótica, cuando los robots con apariencia humana recién nacían y se perfeccionaban.
En Robots of Dawn nos enfrentamos a robots humaniformes , tan sofisticados que incluso tienen todos los atributos humanos externos (genitales incluidos, que es un detalle importante en esa novela). También se nos presenta el concepto de "congelación mental", que es lo que le sucedió a Herbie en "Liar!". El doctor Fastolfe, el principal experto en robots en el momento en que se desarrolla la novela, dice que tales bloqueos son casi imposibles con los robots de hoy en día, ya que no solo juzgan las cosas cuantitativamente (como lo hizo el robot de la película) , pueden, en el muy, muy raro caso de resultados exactamente iguales, implicar la aleatorización.
“Supongamos que la historia de Susan Calvin y el robot que lee la mente no es simplemente una leyenda totalmente ficticia. Vamos a tomarlo en serio. Todavía no habría paralelo entre esa historia y la situación de Jander. En el caso de Susan Calvin, estaríamos ante un robot increíblemente primitivo, que a día de hoy ni siquiera alcanzaría el estatus de juguete. Sólo podría tratar cualitativamente tales asuntos: A crea miseria; no-A crea miseria; por lo tanto congelamiento mental. ”
Baley dijo: —¿Y Jander?
“Cualquier robot moderno, cualquier robot del siglo pasado, sopesaría estos asuntos cuantitativamente . ¿Cuál de las dos situaciones, A o no-A, crearía más miseria? El robot tomaría una decisión rápida y optaría por la mínima miseria. La posibilidad de que él juzgue las dos alternativas mutuamente excluyentes para producir cantidades exactamente iguales de miseria es pequeña e, incluso si ese fuera el caso, el robot moderno cuenta con un factor de aleatorización. Si A y no-A son exactamente iguales productores de miseria según su juicio, elige uno u otro de una manera completamente impredecible y luego lo sigue sin cuestionar. No entra en un congelamiento mental”.
Capítulo 7 - "Fastolfe"; énfasis mío.
Tenga en cuenta que no es completamente imposible hacer que un robot moderno se congele mentalmente, ya que en eso se basa toda la trama de la novela. Sin embargo, está comprobado que requiere un dominio supremo del funcionamiento interno del cerebro positrónico y la psicología de los robots, algo que solo dos personas son capaces de hacer.
La misma novela también trata, sin nombrarla, de la Ley Cero.
¡Obviamente, spoilers!
R. Giskard mata a R. Jander, su amigo robot, para salvar a la humanidad (los habitantes de la Tierra) de un siniestro complot espacial, y también para evitar que los espaciales se crucen y mueran en reclusión.
Sin embargo, la Ley Zeroeth es más una excepción que una regla. Por lo que he leído hasta ahora, solo ha ocurrido dos veces. La razón: no todos los robots son conscientes de los problemas a los que se enfrenta la humanidad . Uno probablemente podría especular que la humanidad es solo una colección de humanos para ellos, mientras que en realidad es un poco más complicado que eso. Mi punto es que esa no es una situación en la que un robot invoque la Ley Cero, porque no estaba integrado en ellos. Las máquinas en "El conflicto evitable" se declararon explícitamente como acceso y control de todos los recursos y conocimientos de la humanidad. Pudieron formular la Ley Zeroeth; no significa que todos los robots puedan hacerlo. Los personajes de Robots of Dawntambién fueron bastante excepcionales. No involucraría esa ley en el problema del tranvía, pero si lo desea, lo que dije anteriormente se mantiene.
En lo que respecta a un robot clásico de "Tres leyes", la respuesta es muy simple. Como vemos en ¡Mentiroso! , un robot que, ya sea por acción o por inacción , dañaría a un humano simplemente implosiona mentalmente .
El número real de humanos dañados es completamente irrelevante para la discusión.
El psicólogo no le prestó atención. “Debes decírselo, pero si lo haces, te lastimarás, así que no debes hacerlo; pero si no lo haces, te duele, así que debes hacerlo; pero... ¡
Y Herbie gritó!
Era como el silbido de un flautín ampliado muchas veces, estridente y más estridente hasta que languidecía con el terror de un alma perdida y llenaba la habitación con su propia punzada.
Y cuando murió en la nada, Herbie se derrumbó en un montón acurrucado de metal inmóvil.
En comparación, un robot compatible con la Ley Zeroeth no tendría ningún problema con el dilema. En ausencia de cualquier otra información sobre el valor relativo de las personas atropelladas por el tranvía, simplemente elegiría el bien mayor (por ejemplo, el menor número de personas muertas) e iría con eso.
Al final de I, Robot Machines ha desarrollado una Ley Zeroeth.
Piensa en las Máquinas por un rato, Stephen. Son robots y siguen la Primera Ley. Pero las Máquinas no funcionan para un solo ser humano, sino para toda la humanidad, por lo que la Primera Ley se convierte en: 'Ninguna Máquina puede dañar a la humanidad; o, a través de la inacción, permitir que la humanidad sufra daño.'
(...)
“Pero me estás diciendo, Susan, que la 'Sociedad para la Humanidad' tiene razón; y que la Humanidad ha perdido su propia voz en su futuro .”
“Nunca tuvo ninguno, en realidad. Siempre estuvo a merced de fuerzas económicas y sociológicas que no entendía, a los caprichos del clima y la fortuna de la guerra. Ahora las Máquinas las entienden; y nadie puede detenerlos, ya que las Máquinas tratarán con ellos como lo hacen con la Sociedad, teniendo, como lo hacen, la mayor de las armas a su disposición, el control absoluto de nuestra economía.
"¡Que horrible!"
“¡Quizás qué maravilloso! Piensa, que para siempre, todos los conflictos son finalmente evitables. ¡Solo las Máquinas, de ahora en adelante, son inevitables!
Asimov - Yo Robot "El Conflicto Evitable"
En ese Espíritu, la Máquina "rompe" la segunda ley en beneficio de la humanidad, por lo que, aunque no puedo encontrar un ejemplo particular de Asimov para el Problema del Trolley para una máquina con la Ley Zeroeth, parece que tal robot podría "romper" la primera ley beneficiando a la humanidad.
Si toma 3 Leyes en sentido estricto, no hay un resultado aceptable; cualquiera de los resultados violará la cláusula "no puede dañar" o "por inacción permitir que sufra daño".
De hecho, esto destaca el problema con cualquier tipo de sistema ético que declara que alguna acción o resultado es completamente inaceptable: no puede proporcionar una guía significativa en una situación en la que todas las opciones consideradas (pueden) conducir a este resultado inaceptable, siendo la diferencia solo en el alcance. , certeza y otros detalles. La misma "división por cero" se puede observar fácilmente en humanos que en la vida cotidiana podrían pasar con el absoluto "la vida humana triunfa sobre todo lo demás" y luego encontrarse en una situación en la que todas sus acciones están asociadas con varios grados de peligro para otros. vive. A excepción de los humanos, el resultado no es un cierre, sino la activación de varios mecanismos de defensa (lo que, en la mayoría de los casos, significa que el curso de acción elegido no fue óptimo para minimizar el daño total).
En el caso de que los robots de Asimov sigan las 3 leyes, la respuesta es clara. Sin embargo, algunos de los robots posteriores tenían una capacidad limitada para eludir las restricciones de las tres leyes y, en teoría, podían elegir el curso de acción correcto aquí. Pero eso está un poco al lado de la pregunta original, ya que no está relacionado con las Tres Leyes en sí, sino con la capacidad del robot individual para trabajar alrededor de ellas.
Inacción, no acción.
¿Puede un robot a través de la acción, permitir que un humano sufra daño? Sí, en el caso de múltiples humanos, de los cuales algunos son diferentes a otros (Que Tú eres consciente de Él), PERO luego debe actuar para detener ese daño a un humano, incluso si resulta en desobedecer a un humano o matándose a sí mismo. (Corre alrededor)
Entonces, 1. tira de la palanca, reduciendo el número de muertes, luego 2. Se lanza al tren de la manera más matemáticamente plausible para detener o descarrilar el tren para reducir el daño a ese ser humano (u otros)
Recuerdo otra historia, Lost Little Robot (gracias @CMS) donde... (pequeños spoilers)
Un robot experimentado intenta escapar, escondiéndose dentro de otro equipo de robots inexpertos, por lo que los humanos intentan averiguar cuál es el robot renegado.
La trama no es importante para la discusión, pero una parte muestra que dada una situación hipotética en la que un humano va a morir (sin importar lo que haga el robot), y el robot también morirá si intenta salvar al humano, el robot. se queda quieto y acepta la muerte del humano, con el argumento de que si el robot sobrevive, tiene la posibilidad de salvar a más personas en el futuro y mantener positivo el saldo de personas salvadas.
Este es un claro ejemplo de cómo las "Tres Leyes de Asimov" son inadecuadas, sujetas a colisiones paradójicas, y deberían ser modificadas por "Cuatro Leyes de Asimov". La ley más importante debe ser siempre "un robot no puede dañar a un ser humano". Esto se debe a que los robots generales (es decir, los robots no quirúrgicos, donde la utilidad requiere un grado calculado de 'daño') NUNCA NUNCA se les debe permitir racionalizar el daño a un ser humano PORQUE serán capaces de lidiar con la lógica más allá de nosotros los humanos que podríanpermitirles descubrir y/o calcular que nos están ayudando al matarnos. Tal vez [hipotéticamente] descubran que la muerte humana aumenta la energía general de las transiciones a dimensiones alternativas (o alguna tontería alucinante como esa), y luego miden nuestra calidad de salud y juzgan que es mejor para nosotros morir en lugar de ser ancianos, ya que hacerlo se consideraría un estado de daño [de nuevo, solo hipotético, quién sabe qué se les ocurrirá a los robots, ¡el punto es que nosotros no!]. Entonces, para asegurarse de que esto se evite, enmiende las reglas para: (1) Un robot no puede dañar a un ser humano. (2) Un robot, por acción o inacción, no permitirá que un ser humano sufra daño, excepto cuando tales órdenes entren en conflicto con la Primera Ley. (3) Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera o la Segunda Ley. (4) Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera, Segunda o Tercera Ley.
DaaaahWhoosh
harry johnston
Valorum
harry johnston
Valorum
harry johnston
Valorum
harry johnston
Valorum
harry johnston
antonio x
antonio x
harry johnston
mao47
Gallifreyan
mao47
Draco18s ya no confía en SE
Zoredache
gordito
Hombre libre