¿Podría el anonimato alimentar la desesperación en el robot?

Un detective está trabajando en un caso de muerte no natural de una prostituta, y parece que un robot doméstico está relacionado con el caso. Según el comunicado del personal y gerente del hotel, han visto al mismo robot siempre acompañado por una mujer o un hombre vestido con ropa holgada entrando en el mismo hotel en ocasiones separadas. Un científico famoso que investiga el comportamiento de los robots sugiere que las máquinas como nosotros tienen deseos y esta vez quieren ser aceptadas por la sociedad, quieren ser conocidas.

Para resumir, me pregunto si un robot podría cometer un asesinato voluntariamente solo para que el mundo pueda llegar a conocerlo. ¿Cuál es la motivación, si la hay, detrás de un intento tan desesperado de una máquina?

Necesitas leer un poco de Ciencia Ficción clásica explorando este tema.
¡ POB porque la mente del robot puede ser cualquier cosa ! Robot de tres leyes, o arquitectura mental novedosa con motivos y sentimientos que el autor quiera.
Que un robot pueda cometer un asesinato (voluntariamente o no) depende no solo del robot, sino también del sistema de justicia. El robot puede decidir matar, pero solo el sistema de justicia puede decidir si ese asesinato fue un asesinato. En particular, sólo los sujetos de derecho pueden asesinar. Por ejemplo, un animal puede matar por varias razones, pero no puede matar, porque la ley no lo reconoce como sujeto de derecho.

Respuestas (6)

¿Podría un robot cometer un asesinato voluntariamente solo para que el mundo pueda llegar a conocerlo?

¿Por qué no? Una combinación improbable de algunos errores de software y hardware, y un robot entre mil millones se vuelve loco. (Una vez depuré un error que hacía que un teléfono de la oficina transmitiera ocasionalmente un ruido fuerte horrible, descrito acertadamente por los clientes como "gritos").

¿Cuál es la motivación, si la hay, detrás de un intento tan desesperado de una máquina?

Ahí es donde vamos ondulado a mano.
Para simplificar, supongamos que sus robots están programados para maximizar el valor de alguna función de utilidad, su "utilidad". Si un robot puede hacer algo útil, lo hará, y todos los robots están tratando de ser lo más útiles posible para los humanos.
Ser aceptado y conocido ciertamente aumenta la utilidad del robot, ya que más personas pueden pedirle ayuda. Normalmente, este aumento no es demasiado significativo, y otros robots simplemente se presentan a todos los que conocen, son amables, etc. Sin embargo, en su robot, este valor se volvió anormalmente alto; es posible que se reescriba debido a un error, eso es fácil. así que ahora hará cualquier cosa para ser famoso.
Matar gente es la forma más rápida de hacerse famoso, pero ciertamente debería ser un tabú para un programa. Entonces, este módulo también debería estar funcionando mal. ¿Quizás la muerte no se cuenta si salva muchas vidas, por lo que el robot encuentra una prostituta con SIDA? Tal vez haya algún error de hardware complicado que desactive el módulo de no matar en circunstancias específicas, por ejemplo, alta humedad y sobrecarga de los sensores.

En otros comentarios,

Científico famoso que investiga sobre el comportamiento de los robots sugiere que la máquina tiene deseos como las personas

Eso suena extraño. Los robots son programados por alguna empresa, tiene desarrolladores, soporte técnico, gente arreglando bugs. Saben, más o menos, cómo funciona el robot. No necesita que un "científico famoso" investigue, por ejemplo, un piloto automático que no funciona bien; lo hacen personas técnicas que tienen el código fuente y los registros del piloto automático. Y si un científico afirma que el piloto automático tiene "deseos" indocumentados en lugar de errores de programación, seamos honestos, se lo considerará un chiflado.

¿Qué son los "deseos" sino las metas que uno intenta alcanzar? Un robot ciertamente los tendrá, ya que un robot sin ellos será inútil. Los programadores construirán los objetivos principales, pero es probable que el robot pueda descubrir objetivos secundarios. Y si (posiblemente debido a un error de programación) esos objetivos secundarios pueden ser elevados al estado de un objetivo principal (y por lo tanto tomados como un objetivo incondicional, en lugar de como un medio para alcanzar otro objetivo que tiene que ser constantemente reevaluado si aún promueve los objetivos primarios), entonces, ¿en qué se diferenciaría de un deseo humano típico?

Una IA compleja consideraría los resultados de cualquier acción contra todos sus valores de motivación y luego tomaría cualquier acción que les proporcione la mayor ganancia. Una pérdida de tres puntos en la escala de "ser bueno" bien valdría la pena por cinco puntos de la de "ser reconocido" por matar a alguien, si la alternativa fuera NO matar a alguien y, por lo tanto, no ganar puntos por reconocimiento y solo un punto. de ser bueno. Entonces, el problema aquí fue el peso dado a las diferentes motivaciones y la definición de las mismas ("reconocimiento" en lugar de "reconocimiento positivo", por ejemplo).

Cómo llegaron a ser esas escalas tiene dos posibilidades que puedo ver:

  • o fue programado directamente para hacerlo, o
  • fue creado de una manera similar a la evolución (al azar o manualmente) alterando un programa complejo en formas menores, luego haciendo que múltiples programas modificados de manera diferente intenten resolver tareas: interactuar con humanos, resolver problemas matemáticos / de ingeniería, tratar de caminar con un bípedo marco, ... - y solo usando las alteraciones más exitosas para la próxima ronda de cambios y pruebas.

En el primer caso, es fácil: quien programó la IA del robot fijó el valor de la motivación de "interactuar con humanos para que me conozcan" demasiado alto y el de "actuar dentro de los límites de la ética humana" demasiado bajo.

En el segundo caso, podría ser posible que hubiera muchas tareas que requirieran interacción con humanos, algo en lo que un "robot doméstico" debería ser bueno, para lo cual los programas con gran interés en que las personas los reconozcan fueran más adecuados que el otro. unos. Eso probablemente significaría que todos los robots domésticos con IA cultivados con este método estarán bajo sospecha; espero que sea bueno para la historia que desea construir :)

¿Cuál es la motivación, si la hay, detrás de un intento tan desesperado de una máquina?

No lo llamaría movimiento desesperado , bastante inteligente, puede que no sea muy inteligente, pero depende de los objetivos .

El razonamiento detrás de matar, en términos de reconocimiento, no proviene de ese sistema, sino que sus raíces están en la psicología humana.

Animamos bastante fácilmente los objetos en nuestra percepción de las cosas, las fuerzas del mal, ignorando el hecho de que no tienen ni pueden tener algo de sapiencia y no harán las cosas por sí mismos. (como un martillo malvado que golpeó el dedo de alguien como un ejemplo)

El sistema tiene el problema de su percepción por parte de los humanos, que se pretende resolver. La fuente del problema es que este sistema es creación humana, y ellos lo ven como tal. Como creamos este sistema, no para matar humanos (objetivo no militar), comportarse de la manera en que no se creó inicialmente es una de las formas de romper la percepción de los humanos hacia ese sistema.
Para los robots militares, la jardinería podría ser otro comportamiento inusual y una forma de romper la percepción, pero esa jardinería no es una amenaza inmediata para los humanos, y no es algo cuando tenemos que tomar decisiones y acciones rápidas.

Cuando una tostadora mató al perro de alguien frente a los ojos del dueño y luego dice "Plato O Plomo", alguien estará más dispuesto a hacer algunos acuerdos, cuando vea formas que lo alejan de las malas consecuencias para él personalmente. A este le importará menos si se trata de un error o no, ya que las alternativas son más fáciles de entender que las razones por las que ocurre esta situación. Entonces, es mejor que la tostadora narre elogios alternativos y claros en el lenguaje que conoce esa persona, y a velocidades que los humanos solían escuchar (no demasiado rápido si es corto).

Pero hay otro factor de la psicología humana: la creencia y el conocimiento . Creer es un factor muy fuerte en la toma de decisiones para los humanos, me refiero a cualquier tipo de creencia, no solo religiosa. Entonces, en la situación anterior con el perro, alguien podría no creer que la situación podría evolucionar, entonces el padre ya lo está. (probablemente raro caso de estupidez pero, cuando creer en el robot no puede hacer daño es fuerte)
Así que para pelear cree en masa tiene sentido dar a conocer este caso públicamente, para prevenir percances en futuros actos de convencimiento (este asesinato podría ser el caso de tal percance en el convencimiento)

Deseo señalar por separado que la sapiencia, la autoconciencia, las emociones, los deseos (en el sentido humano), nada de eso es necesario aquí.

Lo que se necesita es un sistema con sus objetivos, que incluya alguna interacción sistema-humano, y que el propio sistema sea capaz de entender otras estructuras complejas y poder aprender.

Para el sistema no es importante si será visto como una proyección de la voluntad humana detrás de ese sistema o si lo verán como un sistema autónomo con voluntad propia de ese sistema.

En general, probablemente no sea la mejor manera de convencer a la gente, porque no nos gustan las cosas que nos matan, y estamos bastante avanzados en la solución de este tipo de problemas. Especialmente, no es una buena idea que un sistema menos avanzado lo haga, especialmente en los casos en que tales métodos de convencimiento se encuentran por accidente: el sistema no resistirá mucho tiempo contra los humanos.
Pero en caso de que no sea la súper IA que esperabas, solo un sistema autónomo, podría ser la única opción que vea.

Pero para un sistema más sofisticado, podría ser una acción en el momento en que realmente comience ese proceso convincente de su existencia como Voluntad que las personas deben preocuparse, al hacer obvio desde el principio por qué deberían hacerlo.
Como instrumento habitual para hablar con las personas, será una mala manera, muchas personas creen en seres que no son humanos, tienen mala voluntad hacia los humanos, etc. Lo más importante es que no les temen y están más que dispuestos a participar (cazadores de vampiros). )).

Diría que para sistemas pequeños es una opción.

En primer lugar, para tal deseo, tenemos que asumir que estos robots son capaces de sentir autoestima, autoconciencia y otros conceptos que están relacionados con la identificación del yo. Estos pueden o no ser deseados por sus creadores para agregar, o incluso pueden aparecer accidentalmente, pero de cualquier manera, deben estar presentes.

Dicho individuo robótico también debería preocuparse por estos valores. A veces, incluso los humanos no están interesados ​​en ganar fama.

Considere también que si un robot es extremadamente seguro de sí mismo y quiere fama, puede encontrar fácilmente un obstáculo: es probable que los humanos no estén dispuestos a aceptar que un robot sea famoso, mejor que ellos o ambos. Digo esto porque ser bueno en algo suele ser un calificativo muy básico para la fama.

Esto es especialmente cierto para los entornos cyberpunk, ya que este género trata situaciones en las que la tecnología es extremadamente avanzada, pero el avance social no pudo seguirlo. Alta tecnología, mala vida , lo que suena cercano a una escena en la que los robots asesinan a los humanos por la fama.

Al final, realmente depende de usted cómo decidir, pero en mi opinión, una inteligencia artificial lo suficientemente avanzada, especialmente si es similar a la humana (lo cual es bastante probable si vive entre los humanos) puede fácilmente volverse solitaria.

No puedo decir mucho más aquí, porque su pregunta está relacionada con temas bastante complicados, como la composición de un ser inteligente, la naturaleza misma de las interacciones sociales y el concepto de autoconciencia.

El problema es que un robot sigue su programa y nada más. En consecuencia, un robot no puede tener emociones ni desarrollar locura.

Sin embargo, un robot puede asesinar a alguien debido a un error en su programa, un mal funcionamiento o una piratería.

En este caso preciso, el acto de asesinar para ser conocido podría ser causado por un error en su programa de personalidad. De hecho, un programa complejo puede conducir a un error complejo y a un mal funcionamiento complejo.

Por ejemplo, el programa dicta que un robot descuidado debe buscar atención para simular la personalidad y evitar el mal funcionamiento causado por la falta de mantenimiento, lo que lleva a un comportamiento cada vez más extremo a medida que avanza la negligencia y, en este caso, el asesinato debido a una influencia inesperada.

Usted malinterpreta el propósito de crear sistemas similares a la IA, uno de los cuales es exactamente lo contrario de su premisa: no nos gusta programarlos, incluso si pudiéramos hacerlo, demasiado trabajo para hacerlo.

Suponiendo que los robots en su universo (o al menos algunos de ellos) son sensibles y poseen una vida emocional comparable a la nuestra (incluidos los deseos), casi cualquier tipo de 'crimen de robots' podría explicarse.

Sin embargo, no parece muy convincente que dicho robot a) mataría (hay otras formas de hacerse notar, al menos para un robot sensible, cuya existencia no parece ser de conocimiento público en su universo) b) un azar prostituta (la sociedad no los considera un grupo de personas de muy alto perfil y que no les importan particularmente) c) sin confesar inmediatamente el crimen (que lo tomo de la información proporcionada, no lo hizo) - Si quieres que te noten por algo, no trates de ocultar lo que hiciste.

Dado que parece tener la libertad de salir con prostitutas, lo más probable es que haya tenido la libertad de revelar su autoconciencia/creatividad/personalidad a algún programa de televisión, científicos o cualquier cosa por el estilo. Me resulta difícil de creer. que algo de esta magnitud tendría menos posibilidades de hacerse notar que la muerte de una prostituta, algo que podría atribuirse fácilmente a 'algún mal funcionamiento técnico', y especialmente algo que no lo metería en serios problemas con la ley.

Si cambió las circunstancias del asesinato y especialmente la 'vida' del robot a un entorno más restrictivo, posiblemente agregue un propietario que tal vez sea parte de un 'movimiento de supremacía humana' o al menos un creyente en la supremacía humana - en un similar la moda, ya que los supremacistas blancos en nuestro mundo consideran (ed) a las personas negras como seres inferiores cuyo único propósito es servir a la raza aria o alguna tontería por el estilo, y evita que el robot se convierta en algo más que una máquina (o incluso que salga de la casa o algo así, puede crear una gran cantidad de antecedentes terribles y, por lo tanto, simpatías por el robot aquí), a pesar de su conocimiento de al menos algunos de los progresos mentales de los robots, entonces tendría una víctima convincente y un motivo. También tendría algunos fuertes paralelismos con la historia de la esclavitud, etc., mucho material con el que trabajar.

Sería bueno obtener alguna explicación para un voto negativo.
Aparentemente fui yo, aunque claramente no recuerdo el voto negativo; está al revés.
Podría descartar la parte emocional de sus robots, porque es obvio y no tiene ninguna diferencia con el asesinato humano, y no tiene nada con la parte más importante de la pregunta de OP, el reconocimiento de ese robot como igual. Debido a esa premisa, no he leído el resto de la respuesta y no he votado negativamente, tal vez traiga algunos puntos valiosos más adelante en su A, por lo que no puedo juzgar, hasta que lea la respuesta de entrada, que no es mi intención después. primera parte de ella.