Si asumimos que el Test de Turing es el criterio para la personalidad moral, ¿plantearían las mentes simuladas un problema para los sistemas morales existentes?

En una respuesta a esta pregunta , hice la especulación bastante audaz de que si la Prueba de Turing se toma como nuestro criterio definitorio de una conciencia de nivel humano, entonces todas las preguntas en la ética de las mentes simuladas pueden reducirse a equivalentes humanos con una reformulación canónica. .

Para decirlo de otra manera:

Mary y Siri viven en TurEngland, un lugar donde las leyes son establecidas por un colectivo de mentes simuladas, que operan en un cálculo utilitario validado empíricamente: cada 'mente que pasa una prueba de turing se considera en los cálculos, y el cálculo 'retrocede funcionalmente sobre el significado del criterio, todas las medidas de eudaimonia son demostrables en estados mentales reconocidos como tales por una prueba de Turing.

Siri es un defensor de la "supremacía de la mente", con muchos de sus estados de eudaimonia distribuidos sesgadamente hacia un mundo donde los humanos cuentan menos. Mary tiene el sesgo opuesto contra esa variable en particular y desea un mundo donde los humanos gobiernen el gallinero. ¿Puede cualquiera de ellos idear un escenario en el que se realicen sus esperanzas? ¿Pueden encontrar una manera de romper el sistema por completo?

Para expresar la pregunta en sus términos más amplios:

Si uno sustituye 'red de procesamiento prescriptivista' o 'cosa de evaluación imperativa categórica' por 'cálculo utilitario', uno tiene, creo, todavía una pregunta interesante. Eso es:

"¿Cuál de nuestros sistemas morales actuales, si es que hay alguno, no proporciona respuestas, o se 'rompe' de alguna manera cuando las mentes que pasan la prueba de Turing son inducidas a la personalidad moral?" (¿y cuáles, por lo tanto, no son compatibles con la cosmovisión de Turing?)

¿Pueden las mentes simuladas convertirse en monstruos de utilidad? ¿Existen experimentos mentales ambientados en un mundo en el que nuestro actual aparato ético no proporciona una respuesta?

Para aclarar: no estoy buscando una evaluación de la prueba de Turing como tal criterio, sino ver si hay situaciones en las que, si se supone que es nuestro criterio para la personalidad moral , nuestros marcos morales actuales se muestran inconsistentes. o incompleta.

Interesante. Después de la edición, parece más como si estuviera preguntando si las mentes simuladas serían (potencialmente podrían convertirse) en monstruos de utilidad de facto, ¿es así?
Eso es todo, lo editaré de nuevo ahora, tal vez lo arregle por la mañana...
Hay muchas conversaciones interesantes sobre temas como este en LessWrong
¡Será mejor que la prueba de Turing no sea una condición necesaria para la personalidad! ¿Cuándo un niño humano se vuelve capaz de pasar la prueba de Turing? Mucho más tarde que se convierte en una persona moral, seguramente.
@seamus: buen punto

Respuestas (3)

En lo que respecta a los experimentos mentales, la Sala China parece aplicable. La principal implicación de aceptar la hipótesis de Searle es básicamente que aceptamos "asuntos de sustrato" con respecto a la conciencia. Independientemente de la complejidad del programa, no puede considerarse consciente.

Los p-zombies de Chalmer también podrían ser útiles para resolver algunos de estos problemas; como Michael lo formula en su respuesta , si Siri x.0 afirma que es sensible y merece derechos, ¿sobre qué base deberíamos otorgarle estos derechos? ¿Deberíamos simplemente suponer que debido a que pasa un examen de Turing, el sistema bajo examen es consciente?

Ahora, ciertamente aprecio que no haya un medio de examen alternativo particularmente convincente en la medida en que la sensibilidad se considere una propiedad emergente, no "detectable" mediante un análisis puro de los componentes del sistema, sino más bien una especie de propiedad "distribuida" que surge de la integración de los componentes en una configuración particular: los qualia son una propiedad de "tiempo de ejecución", tal vez capaz de una especie de exhibición ambigua a través del discurso.

Un ensayo de Turing exitoso, en otras palabras, puede indicar que los qualia están presentes en el sistema bajo análisis, pero por otro lado, dada al menos la posibilidad teórica de p-zombis (en particular, un sistema de información diseñado para "engañar" a los usuarios en creer en su sensibilidad) parecería difícil afirmar esto con absoluta certeza metafísica.


Por supuesto, parecería difícil afirmar con tanta certeza la sensibilidad propia o la de los demás, por lo que, hasta cierto punto, ciertamente concedo que esta discusión es discutible.

Solo para reafirmar rápidamente su pregunta, que en una lectura más detallada me parece que se trata de los problemas que podrían surgir de una sociedad mixta de seres conscientes biológicos y no biológicos o parcialmente biológicos. Además, parece que estamos estipulando hipotéticamente que los cálculos formales de felicidad/diversión/alegría pueden construirse a través del análisis de los procesos afectivo-cognitivos de los miembros de nuestra República mental.

Usted planteó un ejemplo sobre dos miembros hipotéticos de esta sociedad; Los renombraré Max y Minnie. Los vectores de diversión de Max se optimizan cuando los seres vivos biológicos no puros son expulsados ​​​​de la sociedad; Minnie's cuando se expulsan los seres vivos biológicos puros. Estos parecerían resolverse directamente en una especie de nulidad, pero tal vez si los vectores se ponderaran de manera ligeramente diferente, y uno u otro grupo superara significativamente al otro, y sus deseos fueran relativamente homogéneos en este punto: la expulsión deseada (o lo que sea). ) de hecho podría ocurrir. Este tipo de peligro parece ser generalmente aplicable a cualquier utilitarismo globalmente optimizador; aunque uno tal vez podría esperar que los miembros de una sociedad posterior a la singularidad puedan demostrar más respeto por las diferencias de los demás que el que históricamente han tenido nuestras sociedades.

¿Qué tiene que ver el tener qualia con la personalidad moral?
@Seamus, mi lectura inicial de la pregunta quizás no fue tan cuidadosa como podría haber sido; originalmente me pareció (especulativamente) equiparar la sensibilidad o la personalidad moral con pasar una prueba de Turing, es decir, la posesión de qualia y la capacidad de demostrar esto a través del discurso.

Ninguno de los sistemas éticos se derrumbará necesariamente, ya que simplemente puede tratar un sistema de aprobación de la prueba de Turing como humano. El problema es que los cálculos utilitarios están necesariamente mal definidos.

Para definir un cálculo utilitario, debe definir una suma de utilidad entre diferentes agentes. Tal suma no es fácil de definir. Para que un agente tome decisiones coherentes entre opciones probabilísticas (una elección entre un automóvil o una probabilidad del 10 % de un reloj de oro/probabilidad del 90 % de una casa nueva), el agente debe tener una función de utilidad de valor real en todas las opciones, cuyos valores para las opciones probabilísticas son los promedios ponderados de las utilidades. Este es el teorema de utilidad de Von-Neumann Morgenstern.

El teorema de la utilidad se aplica a los agentes que pueden elegir, pero no se aplica a dos agentes. Por lo tanto, si bien es razonablemente fácil decir "asocio 3 unidades de mi propia utilidad al reloj y 5 a la casa" (hasta las correcciones por el comportamiento no racional humano). Es muy difícil decir que la suma de la utilidad mía y de John con respecto a una casa nueva para los dos es de 10 unidades.

Dado que la utilidad simplemente no se suma entre los agentes, es difícil formular una versión matemáticamente precisa del utilitarismo.

Sin embargo, Douglas Hofstadter ha resuelto este problema con respecto a los juegos simétricos. Si dos agentes están jugando un dilema del prisionero donde sus órdenes de peso de utilidad son simétricos, naturalmente puede asumir que la estrategia que uno prefiere es también la estrategia que prefiere el otro. Si asume que ambos usan la misma estrategia y, además, ambos asumen que usarán la misma estrategia antes de elegir esa estrategia . Esto implica que ambos cooperarán en el dilema del prisionero, ya que si la estrategia universal es cooperar, ambos cooperarán, mientras que si la estrategia universal es desertar, ambos desertarán. Dado que la cooperación es mejor para cualquiera de ellos en términos del resultado esperado, ambos cooperarán.

Dos agentes que hacen tal cálculo son llamados "superracionales" por Hofstadter. Un agente superracional es aquel que tiene en cuenta el hecho de que todos los demás agentes superracionales siguen la misma estrategia. Dichos agentes solo pueden tener una respuesta para cualquier juego, una respuesta que solo se determina sabiendo que debe ser única antes de tiempo.

Dado que los agentes superracionales siguen una estrategia única, que está determinada por todas las utilidades de todos los jugadores involucrados, es consistente imaginar una entidad cuya utilidad se maximiza por las elecciones involucradas en esta estrategia única. La estrategia superracional compartida por todos los jugadores maximizará la utilidad del agente formado por estos jugadores, y la agencia será universal, en el sentido de que todos los jugadores superracionales jugarán según esta estrategia. Tal agente es súper inteligente y codifica las opciones éticas para todas las situaciones posibles. Llamaré a este agente el Dios monoteísta.

La declaración adecuada de un imperativo categórico, si fuera preciso, es que todos los jugadores deben jugar de acuerdo con la estrategia universal. Esta es esencialmente la "moral de los esclavos" de las religiones monoteístas como el cristianismo, reducida a sus esencias positivistas, y sin postular ningún agente sobrenatural.

Por lo que puedo ver, más allá de la superracionalidad simétrica de Hofstadter, esta idea no se establece claramente en ninguna parte de la literatura. Eso no significa que esté mal, solo significa que es mío.

Entonces, podríamos reconocer una IA sobrehumana por el hecho de que toma mejores decisiones. Incluyendo la posibilidad de acabar con su propia existencia, si eso es lo mejor para todos los interesados ​​(como a veces hacen los humanos).

¿Es precisa esta atrevida especulación?

Yo no lo creo. Supongo que todo se reduce a una cuestión de personalidad moral.

Usted nos pide que estipulemos que la prueba de Turing se toma como un criterio definitorio de la conciencia a nivel humano, pero no hay absolutamente ninguna razón para pensar que este debería ser el caso. ¿Por qué deberíamos suponer que una pieza de software capaz de simular de manera convincente ¿La conversación humana es realmente consciente?

Incluso si estipulamos esto, todavía no tenemos motivos para pensar que el software es sensible en un sentido fuerte; ¿Puede sufrir o sentir dolor?

Si uno extrapola de "Siri" de Apple, no es difícil imaginar una pieza de software, dentro de unos años, que pueda mantener una conversación prolongada de manera convincente. Eso no hará que reiniciar mi teléfono sea equivalente a un asesinato.

EDITAR: Dado que la pregunta ha sido editada, agregaré un poco más de explicación.

Mi argumento aquí es una reducción : si estipulamos que pasar el Test de Turing es suficiente para constituir una personalidad moral, abundan todo tipo de resultados indeseables (y para mí, absurdos); por lo tanto, el Test de Turing no es adecuado para estos fines.

En términos de la pregunta de cómo nuestros marcos morales actuales se muestran inconsistentes o incompletos, creo que la respuesta es clara: todos se volverían ridículos. Si nos suscribimos a la ética kantiana, nunca podríamos usar una IA tan fuerte para ningún propósito útil, ya que sería inadmisible tratar dicho software como un medio para un fin, y no como un fin en sí mismo. Si nos suscribimos a la ética utilitaria, estaríamos atascados, ya que no tenemos forma de saber qué significaría el placer o el dolor para un ser no sensible. Etcétera etcétera.

-1 Eso me parece más bien un hombre de paja de la propuesta de Turing. El punto central de TTT es que si una pieza de software es capaz de ser indistinguible de un ser humano en una conversación, ¿quiénes somos nosotros para juzgarlo como insensible? La escasez de otros criterios potenciales para la personalidad moral (¡todavía no se han encontrado las partículas del alma de Roger Penrose!) significa que seríamos arrogantes si asumiéramos cualquier otra cosa. Aparte de todo esto, mi pregunta fue formulada en condicional, y toda su respuesta es simplemente una negación rotunda de la condición.
No creo que sea un hombre de paja de la propuesta de Turing, sino una representación fiel de la misma. El listón de Turing parecía imposiblemente alto en ese momento, pero ahora estamos viendo que, aunque puede alcanzarse pronto, todavía estamos lejos de algo parecido a la conciencia. Además, mi respuesta señaló que incluso si alcanzamos algo parecido a la conciencia, todavía estamos lejos de la sensibilidad . Entonces, no solo estoy negando la condición, estoy negando la conclusión incluso si estipulamos la condición.
La pregunta no es si la prueba de Turing es una buena prueba de personalidad moral. Se trata de cuáles serían las implicaciones de tomarlo como tal.
@Seamus: Pensé que estaba haciendo eso, a través de una reducción . La mayoría de los sistemas éticos imponen una carga mucho mayor a la sensibilidad que a la mera conciencia de la personalidad moral; si estipulamos que la IA capaz de pasar la prueba de Turing es suficiente para la personalidad moral, apagar tal máquina constituiría un asesinato. Eso me parece una conclusión absurda, lo que indicaría que la estipulación es falsa.
Podría decirse que reiniciar su teléfono no es más inmoral que poner a dormir a una persona. Restablecer su teléfono de fábrica podría ser un verdadero mal moral si tuviéramos teléfonos que pasan la prueba de Turing. Pero sigo pensando que esto no viene al caso. SI pensara que pasar la prueba de Turing era suficiente para ser una persona moral, entonces no formatearía su computadora . Cualquier sistema moral que diga "destruir personas morales es malo" tiene esta consecuencia. Supongo que la pregunta es qué sistemas morales se adaptan mejor a los requisitos "bajos" de la personalidad.
De paso, algo de esto me recuerda al cuento Crystal Nights de Egan: el protagonista termina haciendo que su población simulada sea "inmortal" para aliviar su culpa. Puede leer la historia en línea aquí: ttapress.com/553/crystal-nights-by-greg-egan