¿Por qué la IA debería comportarse de manera irracional? [cerrado]

Caso de estudio

Un robot de la policía de tránsito puede tomar una selfie en 3D usando la cámara de luz roja en el cruce de la carretera y superponerla con una imagen satelital de alta resolución tomada en tiempo real para ajustar sus cables y lentes de filtro mientras ayuda a cruzar a un par de cientos de hormigas obreras que llevan pequeños amputados. una carretera durante la hora pico de la mañana.

Preguntas

  1. Queremos que los robots se comporten como nosotros, pero esperamos que no sean como nosotros, ¿sería mejor si pudieran pensar irracionalmente como nosotros para que podamos vivir felices para siempre?

  2. Esta pregunta es más técnica, así que aquí va: ¿Cómo mide la IA la irracionalidad? (No estoy hablando del número de Liouville)

¿De qué estás hablando?
@Samuel: ¡esto es en realidad una prueba de Turing! desafortunadamente, parece que los que votaron para cerrar no lo lograron, de todos modos, ¿puede ser más específico para que pueda mejorar mi OP? Gracias.
No computa. Su estudio de caso parece no estar relacionado con sus preguntas no relacionadas.
@ user6760 me tienes allí también. Sobrevivía en este sitio simplemente porque no tenía CAPTCHA. Ahora estoy arrestado...
¡Compañeros bots! el estudio de caso en sí es un tipo de CAPTCHA más avanzado para filtrar personas como usted, funciona tan bien que las lágrimas siguen fluyendo y mis rodillas se debilitan... ¡Les ruego que revoquen sus votos! ¿Hay alguna forma de mejorar mi OP?
Tengo la respuesta, pero no vas a estar contento con... La respuesta es 42.
@Cyrus: por supuesto que no estoy contento porque solo respondes una de mis preguntas :(

Respuestas (2)

El problema de la lógica

Las IA (al menos, las que hemos desarrollado) y los robots a veces actúan de manera irracional. Claro, las personas pueden justificar sus acciones y afirmar que son lógicas, pero las personas psicóticas pueden actuar lógicamente de acuerdo con lo que creen.

Todo tiene que ver con los valores/axiomas/mandatos/programación que tenga la IA. Para su estudio de caso, esto tiene sentido ("es lógico") si:

  • El robot policía tiene el mandato/programado para salvar vidas y ayudar a quienes intentan salvar vidas. Por lo tanto, salva vidas de hormigas al detener el tráfico. Tenga en cuenta que este mandato nunca dijo qué vidas salvar.
  • El robot policía también está programado para "hacer girar" cualquier evento público en el que pueda estar involucrado. Por lo tanto, se toma la selfie. Es probable que se publique en Facebook con la leyenda "¡Mira este bot de la policía salvando vidas!". o "Estoy aquí sirviendo al bien público en ROADNAME1 y ROADNAME2".

Eso es racional , ¿verdad? ¿No? Quizás podamos definir la irracionalidad (del tipo no matemático) como:

Intentar acciones que son inconsistentes con sus creencias, axiomas fundamentales o propósito.

Podría desarrollar una estadística sobre la frecuencia con la que ocurren tales acciones, tanto para un grupo en general como para individuos. Esto podría convertirse en alguna métrica (tal vez comparando el número lógico de una persona con el número lógico "promedio"), para que sepamos qué tan lógico/ilógico es alguien.

¿Eso nos ayuda a llevarnos bien?

También hay muchos policías que pueden pensar irracionalmente como nosotros y a la gente tampoco le gustan . ¿Por qué debería ser mejor un robot irracional? En todo caso, un robot irracional es peor porque tiene el potencial de hacer muchas más cosas mal en la misma cantidad de tiempo.

Ciertamente no me ayudaría a llevarme bien con los robots.

¡Guau! muy impresionante y gracias por ser un ser humano y descubrir lo que estoy tratando de obtener [me estoy limpiando las lágrimas con la lengua ya que el agua es muy valiosa, me gusta reciclarla por cierto]

Me imagino que está utilizando "racionalidad" en el sentido de actuar de acuerdo con un conjunto de normas ampliamente aceptadas que proporcionan estructura y orden en la sociedad de interés. En cuyo caso, un robot podría comportarse "irracionalmente" porque realiza acciones que consideramos impropias, o que no se derivan de una línea de razonamiento que podamos seguir.

Sin embargo, se puede argumentar que una construcción artificial siempre actúa utilizando las reglas de la lógica, lógica en el sentido de relaciones inmutables de causa y efecto basadas en las propiedades físicas de sus componentes y la forma en que se combinan y relacionan. En cuyo caso, la computadora / robot siempre actúa de acuerdo con el razonamiento dado por la física, pero si esas acciones son consideradas "racionales" por las sociedades humanas es una historia diferente.

Pero para responder a sus preguntas más directamente:

  1. Los humanos son seres racionales, y cualquier cosa que hagas tiene alguna razón. Sin embargo, la razón que gana y te lleva a realizar cualquier acción no es el resultado de simples relaciones de causa y efecto, sino el contrapeso de múltiples consideraciones duras y blandas, definidas por las circunstancias inmediatas y tus valores personales.
    Si algún día una IA fuera lo suficientemente compleja como para tener en cuenta un número equivalente de factores de contrapeso en sus decisiones, sería racional en el sentido de que es consciente de todos los factores, aunque sus elecciones pueden ser tan aparentemente "irracionales" como las elecciones hechas por carne-humanos. Por la tangente, eso lleva al argumento de que una IA lo suficientemente avanzada es indistinguible de un ser humano, y puede considerarse un ser humano, aunque sea un ser humano digital, o alguna otra designación exótica.
    Y en ese punto, a diferentes personas les puede gustar o disgustar de la forma que quieran, tal como nos gusta o disgusta a nuestros compañeros humanos de carne.

  2. Si una IA fuera consciente de todos los factores que afectan sus decisiones, entonces la IA debe medir la "irracionalidad" no por cómo toma decisiones que no se basan en la razón (porque conoce todas las líneas de razonamiento y contrapeso), sino contra una conjunto de acciones o condiciones "correctas" predeterminadas. Este conjunto puede ser proporcionado por nosotros, los humanos, o derivado por una IA de aprendizaje, en cuyo caso, no sería irracional en ningún caso porque el conjunto de acciones "correctas" sería el resultado de esas mismas decisiones complejas.