Caso de estudio
Un robot de la policía de tránsito puede tomar una selfie en 3D usando la cámara de luz roja en el cruce de la carretera y superponerla con una imagen satelital de alta resolución tomada en tiempo real para ajustar sus cables y lentes de filtro mientras ayuda a cruzar a un par de cientos de hormigas obreras que llevan pequeños amputados. una carretera durante la hora pico de la mañana.
Preguntas
Queremos que los robots se comporten como nosotros, pero esperamos que no sean como nosotros, ¿sería mejor si pudieran pensar irracionalmente como nosotros para que podamos vivir felices para siempre?
Esta pregunta es más técnica, así que aquí va: ¿Cómo mide la IA la irracionalidad? (No estoy hablando del número de Liouville)
Las IA (al menos, las que hemos desarrollado) y los robots a veces actúan de manera irracional. Claro, las personas pueden justificar sus acciones y afirmar que son lógicas, pero las personas psicóticas pueden actuar lógicamente de acuerdo con lo que creen.
Todo tiene que ver con los valores/axiomas/mandatos/programación que tenga la IA. Para su estudio de caso, esto tiene sentido ("es lógico") si:
Eso es racional , ¿verdad? ¿No? Quizás podamos definir la irracionalidad (del tipo no matemático) como:
Intentar acciones que son inconsistentes con sus creencias, axiomas fundamentales o propósito.
Podría desarrollar una estadística sobre la frecuencia con la que ocurren tales acciones, tanto para un grupo en general como para individuos. Esto podría convertirse en alguna métrica (tal vez comparando el número lógico de una persona con el número lógico "promedio"), para que sepamos qué tan lógico/ilógico es alguien.
También hay muchos policías que pueden pensar irracionalmente como nosotros y a la gente tampoco le gustan . ¿Por qué debería ser mejor un robot irracional? En todo caso, un robot irracional es peor porque tiene el potencial de hacer muchas más cosas mal en la misma cantidad de tiempo.
Ciertamente no me ayudaría a llevarme bien con los robots.
Me imagino que está utilizando "racionalidad" en el sentido de actuar de acuerdo con un conjunto de normas ampliamente aceptadas que proporcionan estructura y orden en la sociedad de interés. En cuyo caso, un robot podría comportarse "irracionalmente" porque realiza acciones que consideramos impropias, o que no se derivan de una línea de razonamiento que podamos seguir.
Sin embargo, se puede argumentar que una construcción artificial siempre actúa utilizando las reglas de la lógica, lógica en el sentido de relaciones inmutables de causa y efecto basadas en las propiedades físicas de sus componentes y la forma en que se combinan y relacionan. En cuyo caso, la computadora / robot siempre actúa de acuerdo con el razonamiento dado por la física, pero si esas acciones son consideradas "racionales" por las sociedades humanas es una historia diferente.
Pero para responder a sus preguntas más directamente:
Los humanos son seres racionales, y cualquier cosa que hagas tiene alguna razón. Sin embargo, la razón que gana y te lleva a realizar cualquier acción no es el resultado de simples relaciones de causa y efecto, sino el contrapeso de múltiples consideraciones duras y blandas, definidas por las circunstancias inmediatas y tus valores personales.
Si algún día una IA fuera lo suficientemente compleja como para tener en cuenta un número equivalente de factores de contrapeso en sus decisiones, sería racional en el sentido de que es consciente de todos los factores, aunque sus elecciones pueden ser tan aparentemente "irracionales" como las elecciones hechas por carne-humanos. Por la tangente, eso lleva al argumento de que una IA lo suficientemente avanzada es indistinguible de un ser humano, y puede considerarse un ser humano, aunque sea un ser humano digital, o alguna otra designación exótica.
Y en ese punto, a diferentes personas les puede gustar o disgustar de la forma que quieran, tal como nos gusta o disgusta a nuestros compañeros humanos de carne.
Si una IA fuera consciente de todos los factores que afectan sus decisiones, entonces la IA debe medir la "irracionalidad" no por cómo toma decisiones que no se basan en la razón (porque conoce todas las líneas de razonamiento y contrapeso), sino contra una conjunto de acciones o condiciones "correctas" predeterminadas. Este conjunto puede ser proporcionado por nosotros, los humanos, o derivado por una IA de aprendizaje, en cuyo caso, no sería irracional en ningún caso porque el conjunto de acciones "correctas" sería el resultado de esas mismas decisiones complejas.
Samuel
usuario6760
Samuel
pavel janicek
usuario6760
Ciro
usuario6760