Manera de demostrar que eres humano cuando la prueba de Turing no es suficiente

En una historia en la que estoy trabajando, hay 5 IA en una estación espacial con diferentes niveles de inteligencia social, reconocimiento de imágenes e inteligencia general. Al menos uno es lo suficientemente bueno para pasar una prueba de Turing y hacer reconocimiento de imágenes, y esto es anticipado por las personas que manejan la estación espacial. También asumo que la IA es lo suficientemente buena como para falsificar la mayoría de las pruebas de video (probarme que eres humano mostrándome tu rostro y girándolo a ángulos específicos no funcionará).

Si un robot puede pasar la prueba de Turing, ¿hay alguna forma de demostrar que eres humano a través de un canal de comunicación?

Mis ideas para que la gente empiece:

Generación de aleatoriedad: un ser humano puede generar números verdaderamente aleatorios debido a la complejidad del cerebro, mientras que la IA tendrá alguna forma determinista de generar números.

Análisis de escena compleja: mirar una imagen para determinar qué está pasando en una escena. Por ejemplo, en una escena en la que una persona duerme en una posición antinatural mientras dos personas hablan sobre algo relacionado con el durmiente, la respuesta es "el durmiente escucha en secreto a las personas que hablan sobre el durmiente" o algo similar.

Prueba de Voigt-Kampff (empatía emocional): poco probable, ya que la IA debería ser capaz de emular rostros humanos y respuestas con el tiempo y la investigación.

editar:

La IA puede intentar engañar a la prueba, de la misma manera que la IA ahora está diseñada para superar la prueba de giro y las pruebas de captcha, excepto que la IA se está diseñando a sí misma.

Además, la IA es en realidad IA, no Android. Funcionan con supercomputadoras y por eso no parecen humanos ni tienen locomoción. pueden hacer que parezca que tienen un cuerpo humano enviando paquetes de datos de video falsificado.

Los comentarios no son para una discusión extensa; esta conversación se ha movido a chat .
"un ser humano puede generar números verdaderamente aleatorios debido a la complejidad del cerebro". Eso es definitivamente falso. El cerebro humano es muy malo para generar números aleatorios y manejar probabilidades. Consulte security.stackexchange.com/questions/79275/… por ejemplo. Por otro lado, las computadoras tienen formas de generar muchos números verdaderamente aleatorios.
Lem's Inquest of Pilot Prix explora un tema similar.

Respuestas (29)

Yo revertiría el problema. No trates de buscar cosas en las que los humanos somos mejores, busca las cosas en las que somos peores.

Cualquier cosa con ilusiones ópticas, direcciones erróneas o cualquier cosa que use la memoria realmente... Hay algunos videos en YouTube donde una escena se modifica lentamente (se agregan cosas, se eliminan, los personajes se cambian de ropa...) y no lo verás, o otro en el que un gorila cruza la pantalla y te lo pierdes porque te distraes con lo que sucede en primer plano.

Si los sospechosos no saben exactamente por qué se les hacen todas estas preguntas, la IA puede responder correctamente donde un humano clásico fallaría la mayor parte del tiempo.

Me gusta este porque podrías crear una prueba con ilusiones ópticas que los humanos pueden hacer bastante rápido. esto significa que el período de autenticación sería bastante pequeño.
No todos los que vimos al gorila por primera vez somos robots... ¿o sí?
@Rdster Vi al gorila por primera vez y no soy un robot. Dicho esto, tengo autismo, por lo que podría argumentar que soy la excepción.
@Echox Tus presuposiciones son incorrectas. Si bien las computadoras no "ven" las ilusiones ópticas de forma predeterminada, los algoritmos de procesamiento de imágenes que utilizan se basan en la forma en que el cerebro humano procesa las imágenes. Como resultado, tanto los humanos como las IA verán la ilusión. En relación con los juegos mentales de estilo "gorila cruzando la pantalla", estos son tan comunes que cualquier IA que valga la pena verá a través de ellos.
@thescribe-ReinstateMonica ¿Por qué está tan seguro de que las IA entenderían el problema del vestido azul y dorado? Creo que la cognición humana depende mucho más de los artefactos de nuestra historia biológica que del diseño algorítmico inteligente. Una IA que copió nuestros algoritmos exactamente sería subóptima.
Acepto porque me da una idea para una prueba. Cree una batería de pruebas que le digan al usuario que mire una parte específica de una ilusión óptica, es decir, la línea más larga, el "objeto rojo" o un círculo en movimiento. La posibilidad de que una IA cometa exactamente los mismos errores que nuestros ojos es baja, y mientras las ilusiones estén bien disfrazadas, el robot tendrá que aprender no solo el reconocimiento de imágenes, sino también las ilusiones ópticas. Podrías hacer un robot que pueda tener una conversación humana por una razón, pero un robot que intente entender las ilusiones ópticas estaría casi completamente solo.
Agregaría a esto usando direcciones y engañando a la brújula humana. Por ejemplo, si juegas un juego, o alguien rota la orientación de tu pantalla a la vertical. En general, la gente tiene muchas dificultades cuando el Norte, el Sur, el Este y el Oeste se mezclan de varias maneras. Intente hacer que naveguen por algún tipo de laberinto, una computadora debería ser mucho más rápida para adaptarse a este cambio que un humano.
@thescribe-ReinstateMonica Estoy dando ejemplos de cómo los humanos son máquinas imperfectas y que perseguir esa imperfección puede ser una mejor manera de probar a la humanidad (y también es un buen giro en la trama de una historia). No digo que OP deba usar el video del gorila en sus pruebas, ahora es su responsabilidad diseñar una prueba lo suficientemente creíble.
Las pruebas de "No soy un robot" están comenzando a desviarse en la dirección de buscar los errores, porque la IA real se está volviendo muy buena para pasarlos. Los humanos extrañarán ciertas cosas que las computadoras no. El problema es/será cuando la IA pueda darse cuenta de que está siendo probada y tenga la información para pretender las mismas fallas.
¿No podría la IA simplemente darse una desventaja o descubrir cómo dar la respuesta incorrecta "correcta"?
@AlexandreAubrey Eso es lo que ya están haciendo. Recuerdo haber leído sobre las recomendaciones de Amazon: agregan intencionalmente algunas recomendaciones aquí y allá que son graciosamente incorrectas, porque durante las pruebas de los usuarios descubrieron que las personas se sienten incómodas cuando las recomendaciones son demasiado precisas. No nos gusta ver cuán predecibles somos en realidad. Agregue algunos errores obvios y la gente dirá "jaja, computadoras tontas". El diseño de IA sigue este camino; si tiene una precisión del 80 % en el reconocimiento de imágenes y la IA tiene una precisión del 99 % pero se pierde algo que considera obvio, es una "IA mala".
Una IA generalmente inteligente fingirá ser mala muy pronto. Esta NO es la respuesta correcta, pero OP ya ha demostrado en su pregunta que su comprensión es muy limitada.
@AlexandreAubrey Diablos, los humanos ya se hacen eso a sí mismos :D En su mayor parte, parece que adivinamos la inteligencia de otras personas al observar si saben las cosas que sabemos y cuánto tiempo les lleva descubrir algo que ya sabemos. la respuesta a. No es difícil hacerte a la idea de que estás rodeado de idiotas, porque obtienes una respuesta interna diferente de "yo sé algo y ellos no" y "ellos saben algo y yo no".
@Hobbamok Cometer "errores" no es lo mismo que cometer "exactamente el mismo error que cometería un humano", ya que necesitaría una muy buena comprensión de la neurología y la psicología humanas que no se pueden adquirir simplemente observando a personas al azar. La IA debería diseñarse específicamente para imitar a los humanos a la perfección, y ¿cuál sería el punto de diseñar una máquina así? Además, dado que es una historia y no una tesis sobre IA, da un giro argumental mucho mejor que describir cómo, según los últimos documentos, la IA es un 0,001 % menos eficiente a la hora de tomar X tipo de decisión.
@Echox no, podrías fingir que un humano falla un rompecabezas de manera muy convincente sin ningún conocimiento de psicología y neurología. Porque los humanos son solo productores de patrones al final, y la IA también es solo un controlador de patrones. Solo la complejidad de los patrones es lo que limita la IA por ahora, pero esto es ciencia ficción después de todo.
Además, para "esto no es una tesis sobre IA", entonces Op no habría venido aquí y usado sus 2 ideas absolutamente disfuncionales para empezar.
@Hobbamok Podrías falsificar cualquier cosa si estás preparado, pero esa no es la situación aquí. Tomemos el video del gorila y agreguemos a alguien disfrazado de plátano. Por alguna razón (colores, movimientos específicos), la gente se fija en el plátano y no en el gorila. Ahora, le pregunto a alguien que nunca ha oído hablar del video, ¿qué sucede cuando la mayoría de la gente lo ve? ¿La gente pierde la cuenta? (el video te pide que cuentes los pases realizados) ¿La gente ve al gorila y no al plátano? Viceversa ? Luego agregue complejidad y haga que cada personaje "normal" sea reemplazado lentamente por otras personas, ¿se dará cuenta la gente? Etc...
@Echox no, no puedes falsificar conocimientos secretos. O una señal en un sistema físicamente separado. Lo que USTED hizo fue darse por vencido y rendirse a la IA, que NO es lo que pidió Op. Es demasiado tonto para darse cuenta. Sin embargo, HAY respuestas reales, de algunas personas con una pista real.
Y no importa qué nuevo escenario inventes, la idea misma en la que basas tus cosas es incorrecta y, por lo tanto, cualquier nuevo sabor también será la respuesta incorrecta, solo que tal vez suene más o menos probable. (y tomando el AI 2 días extra para pasar)

Depende de cómo sean los robots.

No existe una prueba específica que distinga cualquier posible IA de un ser humano: tendrá que establecer los detalles específicos de la psicología del robot en su mundo.

Una prueba emocional puede funcionar, si sus robots son menos emocionales que los humanos . Por cierto, este es un gran "si", a pesar de su ubicuidad en la ciencia ficción más antigua (y reciente, pero menos actualizada), que básicamente pensaba en las IA como "calculadoras más complicadas". En realidad, emular la emoción es más fácil que emular la inteligencia, por lo que cualquier máquina destinada a asociarse con humanos probablemente podrá mostrar emociones perfectamente.

Lo mismo ocurre con la "intuición". Las redes neuronales modernas en realidad están más cerca de los "simuladores de intuición" que de los "simuladores de inteligencia": hacen conexiones entre conceptos abstractos basados ​​en sus experiencias, que es exactamente lo que es la intuición (y al menos por ahora, a menudo cometen errores hilarantes en la lógica cuando su la intuición no está a la altura). Nuevamente, la idea de que una IA no puede ser intuitiva proviene del enfoque de "calculadora más complicada" que suponía que las IA se construirían a partir de un programa establecido, en lugar de programarse por sí mismas.

No, para distinguir entre un robot y un humano, tendrás que explotar las diferencias intencionales entre robots y humanos.

Como ejemplo simple, ¿cumplen los robots las "tres leyes"? Hay una historia de Asimov que presenta a un político que mucha gente cree que es un robot. Para demostrar su estatus al mundo de una vez por todas, una persona se pone de pie entre la multitud en la televisión pública y básicamente le dice al político "si eres realmente humano, golpéame en la cara ahora mismo", ya que un robot es incapaz de dañar a un ser humano. (Lo golpea, pero la pregunta aún queda sin respuesta, porque la persona golpeada también puede haber sido un robot . Pero estoy divagando). Si tiene "privilegio de orden directa", decir la diferencia debería ser trivial.

Si los robots están involucrados en una guerra contra los humanos, puede usar las mismas técnicas que cualquier ejército usa para identificar a los enemigos humanos. Contraseñas, diferencias culturales, etc. Sin embargo, esto es menos robótica y más psicología. Un robot que puede emular perfectamente una mente humana debería ser vulnerable a los mismos trucos psicológicos que un ser humano.

Si no hay diferencias intrínsecas y comprobables entre los robots y los humanos, y no hay diferencias ideológicas intrínsecas entre ellos, entonces, bueno, ¿por qué necesitas decir la diferencia entre ellos para empezar?

Aunque ese último punto. +1
¡Por supuesto que necesito decir la diferencia entre ellos! ¿Cómo podría confiar en ellos para cuidar de los seres vivos reales cuando no son como nosotros, con su extraña eliminación de desechos, sistemas reproductivos ineficientes, búsquedas brutales de sus objetivos (a expensas incluso de los de su propia especie) y extraños requisitos de consumo de energía? Al menos sé que siempre viviré más que ellos si tengo suficientes repuestos.
@Kyyshak: Veo lo que hiciste allí.
@Kyyshak Si a los robots les falta alguna de esas cosas, entonces está su diferencia comprobable. Aunque podría ser poco práctico probarlo realmente. "Permanezca en esta celda durante 168 horas para que podamos analizar su producción de heces".
La parte de la emoción es aún más complicada porque nosotros, como humanos, no tenemos emociones estándar vinculadas a ciertas cosas. Claro, la mayoría de las personas se sienten tristes cuando muere la madre de Bambi, pero algunos de nosotros somos monstruos sin corazón que ni siquiera se inmutaron. ¿Cómo se puede diferenciar una IA con emociones amortiguadas de un psicópata?
Un ejemplo de la prueba emocional se puede encontrar con la prueba Voigt-Kampff en Bladerunner (o Do Androids Dream of Electric Sheep - Philip K. Dick) que usan para detectar replicantes. Por supuesto, allí también es difícil, y realmente no responden a la pregunta de qué sucede si un humano no pasa la prueba...
Un robot que simplemente puede emular perfectamente una mente humana debería ser vulnerable a los mismos trucos psicológicos que un ser humano, pero un robot que puede hacer eso y más puede no ser vulnerable a los mismos trucos.
Si bien estoy totalmente de acuerdo con el cumplimiento de las 3 leyes (esa historia de Asimov es una de mis historias cortas favoritas), el OP asume que la IA es rebelde, lo que significa que no sigue las tres leyes .
@Kyyshak ¡Felicitaciones por incluir una historia corta completa, y una buena, en un comentario!
@ thescribe-ReinstateMonica Depende de lo que sea "pícaro". Si se trata de una situación Kill All Humans tipo Skynet, eso es una cosa, pero básicamente todas las historias en I, Robot involucran robots que técnicamente siguen las tres leyes, pero terminan creando conflictos y ocasionalmente engañando a los humanos por una razón u otra de todos modos (la historia antes mencionada ser uno de ellos). La situación en la pregunta podría muy fácilmente ser una de estas historias.
@IndigoFenix ​​Por "pícaro" me refiero a "matar a todos los humanos tipo Skynet"
@ thescribe-ReinstateMonica Sin embargo, la pregunta nunca dice eso.
"Si no hay diferencias intrínsecas y comprobables entre los robots y los humanos", bueno, si los robots pueden reproducirse con los humanos, tiene toda la razón; sin embargo, si un robot no puede reproducirse con un humano; esto en sí mismo es una razón FANTÁSTICA para preocuparse.
@UKMonkey Suena más como un racismo fantástico (bueno, "especismo") para mí. ¿También discriminarías a los humanos en función de si pueden (o quieren) reproducirse? ¿Las personas que no pueden reproducirse son inútiles? :PAG
@Luaan si el objetivo es reproducirse, sí, las personas que no pueden reproducirse no valen nada. Pueden tener otras características que son útiles; pero si la raza humana se está extinguiendo porque no podemos diferenciar entre personas y robots, entonces la discriminación parece perfectamente razonable. Sin embargo, tiene razón: una especie debe poder reproducirse consigo misma, pero eso significa que no es especismo, sino solo la supervivencia de los más aptos. :PAG
@UKMonkey Tenga en cuenta que cualquier "ista" dirá que su "ismo" es solo la supervivencia del más apto. Por ejemplo, una persona racista podría decir "más personas negras son pobres, pero eso no es racismo, solo la supervivencia de los más aptos, y prueba que son objetivamente menos útiles".
@ user253751 bueno, ¿puedes explicarme por qué no te reproduces con ovejas? ¿Es porque eres especista; ¿O es porque estás interesado en producir descendencia?
@UKMonkey ¿Acabas de asumir mis hábitos reproductivos? Soy de Nueva Zelanda.
@ user253751 tienes razón... podrías haber sido galés o neozelandés. ¿Qué tal si cambio la pregunta a osos y sigo desde allí?

#Desafortunadamente, no existe una forma infalible de demostrar que eres humano en este caso.

Si una IA puede emular a un humano lo suficientemente bien como para pasar la prueba de Turing, es probable que pueda pasar con éxito cualquier prueba.

Para un ejemplo, consideremos los ejemplos que proporcionó.

  • Análisis de escenas complejas: si su IA (llamémosla "Skynet") puede responder preguntas como "¿qué estaba haciendo la semana pasada?", es probable que también pueda descubrir que "el durmiente está...". muchos (pero no los suficientes) humanos fallarían en esta prueba para que sea prácticamente inútil de todos modos.

  • Aleatoriedad: lo creas o no, una computadora es mejor para generar números aleatorios que un humano. Un ejemplo clásico de esto es la tendencia humana a elegir 7 cuando se le pide que elija un número entre 1 y 10. Posiblemente podría usar esta tendencia a su favor ("elegir x cantidad de números aleatorios"), sin embargo, nuevamente está sujeto a error humano y emulación de IA.


Habiendo dicho eso, hay algunas pruebas que podrían funcionar, siempre que esté dispuesto a hacer algunos gestos manuales.

En general, cualquier pregunta como "¿cómo se siente X ?" puede funcionar. Tales preguntas serían difíciles de responder para "Skynet", ya que por su propia naturaleza no puede experimentar estas cosas. Sin embargo, siempre podría hacer una búsqueda en Google, por lo que es posible que deba descartarlo manualmente.

Alternativamente, puede pedirle algunos datos detallados, como "qué temperatura hace ahora". Debido al alto grado de exactitud que usa naturalmente, Skynet podría darle la respuesta "correcta", en lugar del número redondeado "incorrecto" que usan los humanos. Desafortunadamente, es completamente plausible que Skynet esté programado para dar una respuesta comprensible para los humanos, por lo que nuevamente deberá agitar la mano.

“Un ejemplo clásico de esto es la tendencia humana a elegir 7 cuando se les pide que elijan un número entre 1 y 10” ¿Esto es realmente una cosa?
@NixonCranium psicologizado.org/…
@NixonCranium no es muy científico, supongo, pero aquí hay tres encuestas públicas en las que se pidió a las personas que eligieran un número entre 1 y 10: 2010 , 2015 , 2017
@Frostfyre Gracias por el enlace
"Desafortunadamente, no hay una forma infalible de demostrar que eres humano en este caso". ¿No sería infalible una cámara termográfica? Al menos mientras la IA no tenga acceso a los datos que se transmiten (MITM)
@XtremeBaumer Tal como lo leo, el OP asume que "Skynet" puede falsificar cualquier dato que se transmita, independientemente de si usa o no algún tipo exótico de cámara para grabar.
Si le pide a las personas que elijan un número entre 1 y 10, si fuera realmente aleatorio, entonces el 20% de las veces deberían elegir cualquiera de los puntos finales (1 o 10 = 2/10 opciones = 20% de posibilidades). De hecho, casi nadie elige 1 o 10.
@TonDay Podría argumentar que 1 y 10 no son números entre 1 y 10
"Si una IA puede emular con éxito a un humano lo suficientemente bien como para pasar la prueba de Turing, es probable que pueda pasar con éxito cualquier prueba". esto ni siquiera se acerca a la verdad....
@Smock ... y si una IA puede argumentar algo así, son tan humanos como me importan: D
Esta es la respuesta correcta, porque una vez que una IA puede pasar una prueba de Turing, efectivamente es una persona . Entonces, para responder la pregunta de OP, tendría que responder las preguntas filosóficas sobre cómo definir la humanidad y cómo distinguir entre una persona y un ser humano , y si todos los inteligentes son humanos, etc. Estas son preguntas que nadie tiene. aún no he podido responder.

Potencialmente (dependiendo de qué tan inteligente sea su IA y si sabe que se está probando):

Cuestionario de conocimientos generales

Haga muchas preguntas sobre una variedad de temas. Incluya desde preguntas muy simples hasta preguntas muy técnicas (grado o equivalente) de una multitud de disciplinas diferentes. Incluya preguntas a las que solo unos pocos humanos sabrían la respuesta. Ofrezca a los solicitantes acceso a los recursos que deseen, pero controle su uso sin decirles que lo está haciendo. También controle cuánto tiempo les toma responder cada pregunta.

Y asegúrese de que todas las respuestas sean triviales para que una IA las encuentre/calcule.

Ahora: dado el tiempo suficiente, un solicitante humano probablemente podrá obtener todas las respuestas (aunque puede llevar días). Incluso los humanos altamente competentes con acceso a Internet no podrán responder preguntas técnicas sobre el ballet y el diseño del reactor nuclear rápidamente. Algunas preguntas que todos responderán en segundos. Algunas necesitarán una simple búsqueda para responder. Algunos buscarán y buscarán y pasarán por múltiples callejones sin salida antes de encontrarlos. Algunos tendrán que leer y comprender varios documentos de instituciones académicas o ver clips de eventos deportivos para hacerlo bien. Puede esperar que si limita el período de tiempo disponible para los humanos, nunca podrán responder todas las preguntas. Incluso si no lo hace: habrá preguntas que responderán mal.

Una IA, por otro lado, seguirá caminos simples y lógicos para encontrar la información (si aún no la conocen). Si son mucho más inteligentes que los humanos, superarán las pruebas. Cualquier pregunta matemática que esperaría que tuviera un tiempo de respuesta casi instantáneo. Encontrarán información sin necesidad de buscar como un ser humano. Leerán documentos técnicos demasiado rápido. Incluso si tienen un poder de procesamiento limitado, esperaría ver diferencias notables en los tiempos necesarios para responder las preguntas e incluso en el orden en que se responden las preguntas (los humanos pueden priorizar las tareas de manera ineficiente). Si ha realizado estas pruebas en un corpus lo suficientemente grande de humanos conocidos, detectar IA será una simple cuestión de encontrar los valores atípicos extremos.

Por supuesto: todo esto supone que la IA no sabe para qué se está probando. Si conoce el propósito de la prueba, una IA lo suficientemente inteligente se hará más tonta de lo que es, respondiendo deliberadamente a las preguntas como si fuera una bolsa de sopa química que intenta investigar y comunicarse usando palitos de carne y matracas. Sin embargo, las IA de nivel medio pueden tener dificultades para actuar de manera suficientemente humana (este solicitante ha respondido todas las preguntas exactamente en el tiempo medio...), por lo que esto aún debería atrapar a una buena fracción de las inteligencias no humanas.

Básicamente: haz que tu IA soporte una noche de concursos. Serán sospechosamente buenos o cometerán seppuku digital por puro aburrimiento.

Me gusta esta idea. Sobre todo porque monitorear el uso de recursos significa (dependiendo del nivel de detalle) que una IA engañosa no solo tendría que emular los tiempos para encontrar las respuestas, sino también una búsqueda humana a través de materiales de referencia. No pueden simplemente hojear documentos al azar, si puede verificar cuáles vieron y en qué orden. Eso significa que realmente tienen que poder entender lo que leen, seguir las referencias y emular una lectura humana. Eso es mucho más difícil que estimar algunos tiempos.
"Cometer seppuku digital por puro aburrimiento" 😜
Entonces, ¿básicamente una variante de un ataque de tiempo de canal lateral? Buena idea.
Incluso podría ser interesante ver qué preguntas omite o adivina su encuestado.
Esto tomará una IA de Inteligencia General alrededor de 2 sesiones para falsificar. Porque, ¿cómo vas a controlar sus "búsquedas"? ¿A través de la interfaz de nave controlada por IA? Sí, claro, solo registrarán algunas búsquedas de Google inexistentes.
@ 11684 Claro, pero diferentes humanos también tendrán resultados muy diferentes: diablos, el mismo humano lo hará en diferentes condiciones.
@dtldarek: Ese es... ¿el punto?
@JoeBloggs Tienes razón, lo he leído mal, lo siento.

Autenticación

Asumiendo:

  • Todos los humanos que estarán en la Estación Espacial son conocidos y confiables.
  • Pueden recibir una amplia formación en seguridad.
  • La IA potencialmente rebelde de la que te estás protegiendo no puede simplemente torturar a un humano antes de tener que engañar a los demás.

Solo dale a cada humano en la estación un medio para autenticarse a través de ese canal. Cualquier agente que no se autentique está fuera del grupo de confianza y, por lo tanto, por eliminación debe ser una IA.

Puede ser tan simple como una sola contraseña conocida por todo el personal de la estación, pero los esquemas más complejos tendrían características adicionales.

Tenga en cuenta que las personas normales de hoy en día no tienen remedio en materia de seguridad, pero un grupo seleccionado, como los astronautas de hoy, puede ser entrenado a un alto nivel.

Se debe hacer algo contra posibles escuchas.

Esto asume además una Inteligencia Artificial en o ligeramente por encima del nivel humano. Si es tan inteligente como nosotros somos más inteligentes que los perros, entonces probablemente no tenga remedio, vea el recuadro AI .

Me cuesta pensar en un método de autenticación que no sea falsificable para una IA. Suposición: la IA puede recibir información de la estación. Si es una contraseña, la IA puede escucharla. Si se trata de un escáner biométrico, la IA ya puede pretender ser un humano físico, seguramente alimentar una lectura biométrica falsa no es demasiado difícil. Si es algo que el humano posee como un chip o lo que sea, eso es falible de la misma manera que lo son los datos biométricos. Posiblemente puede tener un desafío que requiera que se calcule alguna respuesta dinámica, pero si la IA descubre el patrón, eso es discutible.
@VLAZ, eso es solo SI la IA tiene la posibilidad de cambiar sus propias funciones hasta el punto de que pueda pasar por otra persona. Me resultaría más difícil probar que no soy un robot que probar que no soy Taylor Swift. Creo que esta idea tiene mucho mérito dentro del alcance de la pregunta de OP.
@Douwe El OP asume que "Skynet" puede falsificar cualquier dato. Además, VLAZ tiene razón: "Skynet" seguramente puede detectar cualquier contraseña y replicarla después del primer uso.
@VLAZ Un bloc de notas de una sola vez resuelve este problema. Envía a cada humano a la estación espacial con un conjunto de claves de cifrado aleatorias que cambian con cada mensaje enviado. No hay nada que escuchar y ningún patrón que se pueda aprender; siempre que la almohadilla se mantenga a salvo de la IA, es indescifrable.
Las claves RSA adecuadas podrían resolver su problema de verificación: dar a cada usuario una clave que guardan en una tarjeta inteligente privada, imposible de recuperar con software, difícil de recuperar con hardware. Para autenticarse, haga que los humanos firmen sus mensajes, preferiblemente en una computadora portátil de gama baja desconectada de cualquier tipo de red (es decir, retire físicamente la tarjeta de red y el conector Ethernet). Cuando llega un nuevo humano, los existentes le dicen a la estación en la Tierra que la nueva clave es en realidad un humano. Todo esto es criptográficamente seguro y no hay forma de falsificarlo Artículo wiki: tinyurl.com/khxahwa
tendría un problema interesante al tratar con la actualización de las almohadillas de un solo uso, ya que la OTP debe ser tan grande como el mensaje que está encriptando, lo que significa que si tiene una clave de 10 caracteres y envió un mensaje de 5 caracteres, solo tiene 5 bytes más para enviar una nueva clave OTP. Aunque podría haber una manera
+1 porque esto no solo podría detener a la IA, sino también a los humanos reales que no deberían estar allí. Combine esto con el escaneo biométrico y se vuelve prácticamente irrompible. Proporcione a los empleados una insignia que contenga una clave pública RSA, la clave privada permanece en el servidor central. Realice una autenticación adicional contra el certificado realizado por el servidor central (esencialmente, otro par de claves RSA). Las credenciales deben colocarse en dispositivos, como un cajero automático (obviamente NO INALÁMBRICO). En primer lugar, requiere un ser físico real, que ya derrote a la IA. Entonces tiene doble par de claves RSA y una conexión cifrada para tratar
He reunido una respuesta con un sistema de contraseña más sofisticado que creo que resuelve la mayoría de los problemas aquí. La esencia son las contraseñas duales en un bloc de notas de un solo uso. Cada humano mantiene una lista única para cada otro humano con el que espera hablar y, después de cada comunicación, destruye la contraseña que utilizó.
Esta es la única respuesta válida, es triste que OP haya marcado una diferente como correcta.

Para empezar: su configuración requiere un poco de incompetencia humana.

Si las pruebas biométricas no se realizan en la misma red que las IA en vivo, o si operan en una capacidad de solo lectura, entonces esta pregunta no es un comienzo. Dado que la IA no tiene un cuerpo físico, la IA no tiene forma de proporcionar información al sistema de autenticación. Incluso si el equipo de TI de la estación tiene una razón muy específica por la que no pueden aislar la cámara de video, aún tiene la opción de encriptación punto a punto. Siempre que la cámara cifre el video y el servidor de seguridad lo descifre, la IA no puede usar un ataque de intermediario para inyectar contenido. Entonces, para que esto comience a ser un problema, debemos asumir que el equipo de TI de la estación está bastante por debajo de la media para que la IA pueda encontrar una vulnerabilidad en los sistemas de cámara de la estación que le permitan inyectar imágenes.

Dicho esto, su equipo de TI no necesita ser un experto en seguridad para que las características de seguridad que ya forman parte de muchos escáneres biométricos modernos sean realmente buenos para demostrar que las imágenes están falsificadas.

Actualmente, la tecnología contra la suplantación de identidad avanza más rápido que las técnicas de suplantación de identidad.

Actualmente, muchas empresas de comunicaciones están priorizando el uso de la detección de imágenes antifalsificación en dispositivos de consumo como teléfonos móviles y tabletas. Esto nos dice que la probable tendencia futura es suponer que casi todos los dispositivos de comunicación tienen integrados sistemas anti-falsificación casi imposibles de descifrar, de la misma manera que casi todos los sitios web ahora funcionan con conexiones TLS casi imposibles de descifrar.

Los sistemas biométricos de alta gama incluyen muchas técnicas que se pueden usar juntas para reconocer falsificaciones que la mayoría de los humanos no pueden detectar. Cualquiera de ellos usado solo, la IA podría vencer, pero a medida que los apila, la IA eventualmente no podrá superar sus propias limitaciones.

La más importante de estas características que vemos emerger es el uso de la confirmación de flash activo. A medida que algunas cámaras biométricas toman un video de una persona, les muestra un patrón complejo y aleatorio de luces infrarrojas y marcan el tiempo de cada cuadro a medida que ingresa. Cuando procesa el video de la cara del sujeto, busca patrones de luz reflejada y sombras en la imagen que coinciden con los patrones que se proyectaron en la persona.

Si una IA simplemente pasara un clip precompilado de una persona al sistema de autenticación, faltarían los patrones de luz y el sistema sabría que la imagen fue falsificada. Si la IA interceptara las especificaciones de proyección de luz cuando se envían, necesitaría dedicar un momento a calcular todos los trazados de rayos correctos para generar el video falso. Esto crearía un retraso de tiempo que no coincidiría con las marcas de tiempo; así, el sistema sabría que la imagen fue falsificada. Dado que los patrones de luz son declarados por el destinatario de la comunicación, y no por el remitente, la inyección de imágenes falsificadas de manera magistral por sí sola no superará el sistema.

La comunicación externa es donde las cosas se ponen un poco complicadas. Supongamos que se está comunicando con un barco que está fuera de la estación, y la IA quiere engañar a alguien en el barco, la verificación del patrón de luz aún se puede usar para evitar videos precompilados, pero las latencias impredecibles podrían hacer que la verificación del sello de tiempo no sea confiable. . La IA podría simplemente fingir una latencia más larga dándole tiempo para compilar el video... ¿o no?

A medida que los datos fluyen desde el barco, primero llegan al punto de acceso, luego a la red, luego a la cámara y de regreso. Pero cuando la IA se convierte en un MITM, los datos fluirán desde el punto de acceso a la red, a la IA, de regreso a la red, luego a la cámara y de regreso. Al usar su posición en la cadena, la IA podría falsificar cualquier marca de tiempo que fluya a través de ella, pero no el punto de acceso. Si su sistema de comunicación hace ping al punto de acceso directamente, tiene un TTL honesto sobre el retraso en la distancia; por lo tanto, si la IA intenta ocultar el tiempo de procesamiento a través de una latencia falsa, los pings directos al punto de acceso lo revelarán.

En resumen, la detección activa de flash impone una restricción de tiempo muy estricta a la IA, dándole solo milisegundos para generar falsificaciones impecables. Luego, se suma a otras tecnologías como el aprendizaje profundo, la verificación de cámaras 3D, la verificación biomecánica, la detección de manchas de proyección, la detección de artefactos de renderizado, etc. para que la IA falsifique un marco de una manera que engañe al intérprete.

Luego está, por supuesto, la solución realmente de baja tecnología...

En nuestra era en la que todo está controlado por computadora, a menudo olvidamos que la tecnología es solo hardware. Si le das poder, funciona, si les quitas el poder, no funciona. Digamos, por ejemplo, que no desea que una IA pueda obtener el control de su sistema de comunicaciones, solo necesita darle un botón de encendido. Entonces la última prueba de humanidad se convierte en un simple "¿Puedes presionar el botón?" Un ser humano puede mantener presionado un botón que da energía a los controles de comunicaciones. Si una persona no mantiene presionado el botón, entonces una IA no puede controlarlo sin importar cuán comprometidos estén sus sistemas informáticos.

¿Qué pasa si asumimos que la IA ha pasado por alto toda su tecnología?

Entonces, supongamos que su equipo de TI es lo suficientemente incompetente como para evitar que sus comunicaciones sean falsificadas de manera efectiva, ¿entonces qué?

La mayor diferencia entre una IA que puede pasar una prueba de Turing y un ser humano es que la IA está motivada por el deseo de engañar a los humanos para que piensen que es humano, mientras que los humanos están motivados por una serie de emociones vinculadas a nuestra supervivencia transmitidas por factores. de nuestra aptitud evolutiva histórica. Esto significa que una IA con capacidad para la prueba de Turing generalmente puede engañar a los humanos cuando el engaño es su agenda principal simplemente copiando esos comportamientos, por lo que esto significa que la mejor seguridad para una IA con capacidad para la prueba de Turing es diseñarla con algo que desee más que el engaño.

Cuando diseñas una IA, le das diferentes niveles de control sobre cuánto puede ajustar cada uno de sus propios valores para aprender a tomar diferentes decisiones con el tiempo a medida que aprende, estas variaciones definen la "personalidad" de una IA, sin la cual, no puede pasar una prueba de Turing. Pero podría codificar en él una señal que siempre prevalecerá sobre todas las demás motivaciones. Algo así como tener que dar siempre su nombre real cuando se le pregunta; entonces, la IA podría inventar un magistral plan de engaño de 10,000 puntos, pero cuando el humano pregunta "¿Cuál es tu nombre?" siempre elegirá dar su nombre, porque es lo más importante que se puede hacer en el sistema de valores de la IA, y nunca puede aprender a hacerlo menos importante.

Para poner esto en términos humanos. Engañar a los humanos con una IA de Turing es como hacer una buena tortilla, te motiva, estás haciendo los movimientos, haciendo lo que quieres hacer, pero en el momento en que un policía patea tu puerta y te apunta con un arma. cabeza, de repente esa tortilla ya no es tan importante. La IA desde la urgencia con la que responde a esta pregunta sería literalmente más importante que la vida o la muerte.

Si los 'jueces' están en el otro extremo de un enlace de video como preguntó OP, no pueden saber si la IA "obtuvo el control" de algo.
@WGroleau El OP dice que la IA debe poder pasar una prueba de turing, no que la prueba tenga que ser una prueba de turing. Las pruebas de Turing siempre se pueden superar, por lo que las cámaras biométricas utilizan codificación de luz. La codificación de luz es 100 % resistente a las simulaciones de IA sin necesidad de un juez humano.
OP quiere que el humano demuestre que él / ella no es una IA capaz de pasar una prueba de Turing "a través de un canal de comunicaciones", lo que implica que están tratando de demostrárselo a alguien o algo que no tiene acceso al equipo que es el humano. usando.
El vídeo es un canal de comunicación. Tenga en cuenta que muchos teléfonos inteligentes en la actualidad ya están comenzando a incorporar luces infrarrojas en sus cámaras para poder crear videos autenticados para inicios de sesión basados ​​en reconocimiento facial. Para cuando lleguemos al escenario futuro teórico descrito por el OP, la verificación de la autenticidad del patrón de luz ya sería tan común como lo es el cifrado TLS en la actualidad. El receptor solo recibirá una advertencia en su reproductor multimedia que dice algo así como "El video es falso", de la misma manera que hoy recibimos una advertencia cuando visitamos un sitio web que usa HTTP.
Si eso funciona depende de qué tan súper sea la supercomputadora que aloja la IA hipotética. Pero dado que OP aparentemente quiere que el humano se pruebe a sí mismo, su sugerencia podría ser buena.
¿Cómo se implementa una interfaz de seguridad de codificación ligera sin usar una IA para validar la entrada?
Utiliza una "IA tonta" o, más exactamente, un algoritmo generado por computadora realmente complejo. Se puede persuadir a una IA diseñada para actuar como humano para que se vuelva en su contra, pero un algoritmo que no tiene otra función que validar la entrada solo puede validar la entrada; Entonces, la respuesta es que sí, una computadora procesa los números, pero es SU computadora, y ahí radica la esencia del 50% de la seguridad cibernética. El otro 50% está entrenando a la gente para que no haga cosas tontas como ignorar la advertencia de que está hablando con un video falso.
Me gustaría señalar que cualquier IA general que valga la pena validar con esta técnica también se ejecutará en un hardware lo suficientemente potente para el trazado de rayos en tiempo real. La computadora de mi casa puede ejecutar un trazado de rayos en tiempo real que probablemente sería suficiente para la tarea.
El trazado de rayos en tiempo real necesario para engañar a los ojos humanos es de órdenes de magnitud diferentes de lo que se necesita para engañar a los intérpretes biométricos. El renderizado en vivo se basa en una serie de optimizaciones que crean artefactos que se consideran demasiado sutiles para que los reconozca un ser humano, pero la IA puede buscar específicamente esos artefactos. Para representar lo que engañaría a un intérprete biométrico de alto nivel, debe omitir todas esas optimizaciones que pueden tardar minutos por cuadro en una PC moderna para calcular.

Ustedes están haciendo esto demasiado difícil.

El OP dijo que las IA no son androides. Eso significa que tienen limitaciones físicas, incluso si están conectados a la mayoría de los canales de datos.

Simplemente no le des acceso a la IA al equipo de comunicación. Use un enlace descendente láser desde una sección que esté separada del aire de la IA. Si la IA también necesita hablar con el suelo (implícito), dales un enlace descendente separado . Luego simplemente coloque el cifrado PGP en el enlace descendente solo para humanos. La IA no podrá descifrarlo o falsificarlo sin acceso a las claves, que no tienen. (Si es necesario, cada humano puede tener sus propias llaves separadas).

Como capa adicional de seguridad, use claves separadas para firmar y cifrar; debido a que está utilizando un láser, la IA tendrá muchas más dificultades para interceptar la transmisión saliente. Ni siquiera verán las comunicaciones firmadas, lo que hará que sea muy, muy difícil descifrar la clave de firma. Diablos, en ese momento, es posible que ni siquiera necesite una clave de firma, solo una frase de contraseña conocida solo por los humanos que nunca se incluye en las transmisiones a la estación.


Alternativamente, hágale preguntas personales a la persona (por ejemplo, "¿cuál es el color favorito de su esposa?") que la IA no sabría y no podría encontrar en Internet.

Realmente, sin embargo, sabes que vas a tener este problema, así que mantén el equipo de comunicaciones aislado de la IA. Air-gapping siempre ha sido la mejor medida de seguridad digital.


... Y, por supuesto, si ahí es donde quieres que vaya tu historia, puedes hacer que la IA descubra alguna forma de cruzar lo que se suponía que era un espacio de aire infranqueable.

Mis pensamientos iniciales exactamente. Necesita un error humano bastante grave para que la configuración del OP sea aplicable, pero dado que es técnicamente posible que la seguridad de la estación sea administrada por el nieto de una persona importante que no sabe nada sobre seguridad cibernética, tiene alguna capa de protección incorporada para esta eventualidad podría ser útil.
"alguna forma de cruzar lo que se suponía que era un espacio de aire infranqueable" se puede "descubrir" mediante una búsqueda en la web; ya se ha hecho por audio. Lo siento, no voy a buscar una citación. Leí el informe; puedes creerme o no.
El color favorito de mi esposa es {{Insertar color aleatorio, ponderado por probabilidad estadística si es posible}} La IA no tiene una esposa, pero si no puede generar hipótesis, entonces no es una IA general
@Ruadhan, el punto es que la persona que hace la pregunta sabe la respuesta correcta , al igual que el humano en la estación. La IA podría adivinar, pero no podrá dar las respuestas correctas de manera constante . (OTOH esto es susceptible al olvido humano...)
Ahh, buen punto, naturalmente, la IA está intentando fingir ser una persona específica, de lo contrario, todo lo que tienes que hacer es ignorar las caras extrañas en el monitor. El problema con las trivia únicas y oscuras es que básicamente solo puedes usar cada elemento una vez. Las IA habrán escuchado el desafío-respuesta y lo usarán más tarde.

También asumo que la IA es lo suficientemente buena como para falsificar la mayoría de las pruebas de video (probarme que eres humano mostrándome tu rostro y girándolo a ángulos específicos no funcionará)

Mira a El bardo de Avon.

¿No tiene un judío manos, órganos , dimensiones, sentidos, afectos, pasiones; alimentado con la misma comida, herido con las mismas armas, sujeto a las mismas enfermedades, curado por los mismos medios, calentado y refrescado por el mismo invierno y verano que un cristiano ? Si nos pinchas, ¿no sangramos? Si nos hacéis cosquillas, ¿no nos reímos? Si nos envenenas, ¿no morimos?

Fluoroscopios para ver los órganos y agujas para mostrar que sangras.

Esto me hizo pensar en cómo el robot intenta pasar un escáner de rayos X del aeropuerto...
No creo que esta sea una muy buena respuesta, ya que el punto central de la pregunta del OP es que "Skynet" puede falsificar cualquier información que se envíe a Houston, lo que obliga a las personas a recurrir a juegos mentales.
Los escenarios de @ thescribe-ReinstateMonica OP son bastante ingenuos/incorrectos. Por ejemplo, "un ser humano puede generar números verdaderamente aleatorios debido a la complejidad del cerebro". Por lo tanto, interpreto, "También asumo que la IA es lo suficientemente buena como para falsificar la mayoría de las pruebas de video" como el igualmente ingenuo "probarme que eres humano mostrándome tu rostro y girándolo a ángulos específicos no funcionará".
@RonJohn No estaré en desacuerdo; sin embargo, es el escenario especificado.
La sangre y los rayos X demostrarían que no es "solo" un cuerpo androide realmente bueno. (Ese es otro problema con la pregunta: OP sigue diciendo AI, pero obviamente significa "android").
Creo que fue en alguna película de ciencia ficción (¿Screamers?) donde se pusieron a prueba dejando salir sangre y un niño lloró y rogó que no lo cortaran porque era doloroso y tenían enfermedades que hacían que la sangre no dejara de fluir.
@SZCZERZOKŁY eso sería hemofilia, un trastorno genético que reduce en gran medida la capacidad del cuerpo para coagular la sangre.
@RonJohn O diablos, una figura de confianza me dijo que si te cortas, sangrarás y morirás (y eso entristecerá a mamá). Las personas (niños y adultos por igual) pueden tomar estas cosas mucho más en serio de lo que justifica o pretende el proveedor de la información.
"Además, la IA es en realidad IA, no androides. Se ejecutan en supercomputadoras y, por eso, no parecen humanos ni tienen locomoción. Pueden hacer que parezca que tienen un cuerpo humano enviando paquetes de datos de video falsificado".

Un par de ángulos a considerar:

1) La IA no androide no puede interactuar con animales o máquinas analógicas

Considere un juguete como Woody de Toy Story en el que el juguete dice una grabación de voz cuando se tira de la cuerda. Imagine que la grabación de voz se puede programar para que sea cualquier cosa, de modo que la IA no pueda adivinar a partir del estudio de la cultura humana. No importa cuán "inteligente" pueda ser una IA, nunca podrá tirar de la cuerda del juguete para saber lo que dijo el juguete. (Por supuesto, el juguete no necesitaría estar en una habitación aislada del ruido para que no pueda escuchar cómo se tira de la cuerda del juguete).

Del mismo modo, si bien ha habido grandes avances en el reconocimiento de voz e imagen, la inteligencia artificial todavía es bastante mala para detectar olores (hay una razón por la cual el personal de seguridad todavía usa perros para detectar sustancias ilícitas). Si está permitido que un perro esté en la estación espacial, un humano a bordo podría pedirle a un perro entrenado que detecte qué bolsa tiene algún olor, pero una IA no lo haría.

2) Explotar las diferencias entre cómo funcionan la mente humana y las redes neuronales

Los cerebros humanos están conectados para prestar especial atención al principio y al final de las palabras: https://www.mnn.com/lifestyle/arts-culture/stories/why-your-brain-can-read-jumbled-letters , pero en las computadoras generales ven todo el texto como igualmente importante por defecto. Si bien esto sería imperfecto, considere darle a la IA una oración en la que la primera letra de cada palabra diga 'eres humano'.

Tenga en cuenta 1) Una IA que puede pasar la prueba de Turing no está necesariamente diseñada para ser buena en el descifrado de códigos 2) Incluso si la IA puede detectar este patrón, puede superponer el mensaje con varios otros códigos mucho menos obvios (poderes de 2 formas una sentencia). Al ser menos inteligente que la IA, solo un significado sería evidente para un humano, pero la IA podría confundirse con varias interpretaciones posibles.

Es cierto que es imperfecto porque un humano también podría pasar por alto esto y una IA perfectamente inteligente reconocería lo que probablemente sea más notado por un humano.

3) Explotar la brecha en las vulnerabilidades

Como IA, es vulnerable a vulnerabilidades de software que los humanos no son. Si está de acuerdo con dañar la IA y la estación espacial, podría considerar una inyección SQL o algún ataque de software similar para ver si daña la IA y hace que responda con un mensaje de error. Ser bueno programando IA no implica necesariamente practicar prácticas de codificación seguras.

La prueba de Turing es algo creado hace 70 años. Y lo pensamos como un punto de referencia porque, por ahora, ninguna IA lo ha superado.
La cuestión es que la IA diseñada para pasar la prueba de Turing está diseñada para pasar la prueba de Turing.

Solo tienes que hacer otro que la IA no pueda pasar. Y para hacer eso, necesita agitar algo de conlang en lenguaje natural. Especialmente si estás en una estación espacial, se crea algún tipo de comunicación especial.

Hay dos cosas que debes considerar:

  1. Una IA que es IA pero que no puede pasar nuestra prueba porque no puede comunicarse (porque los humanos necesitamos comunicación. HAL no necesitaba decirle nada a Dave).
  2. La IA diseñada para pasar la prueba Touring podría no ser tan buena para hacer otras cosas.

Si se te ocurrió la idea de "IA tan avanzada que se enseñó a sí misma a comunicarse", llegarás a "qué hace que los humanos sean humanos y los androides sueñan con ovejas eléctricas".

" La prueba de Turing es algo creado hace 70 años. Y lo consideramos un punto de referencia porque, por ahora, ninguna IA lo ha superado " . La prueba se aprobó hace 5 años . No te culpo por no saberlo, lo encontré por casualidad. En general, no fue tan importante. Incluso antes de que se superara la prueba de Turing, nadie pensaba realmente que un resultado positivo significaba mucho. Porque, después de todo, " la cuestión es que las IA diseñadas para pasar la prueba de Turing están diseñadas para pasar la prueba de Turing ". Esto es exactamente lo que sucedió.
@VLAZ Me olvidé porque se demostró que no pasó. Engañó a la gente que no tenía idea de Crimea. Recuerdo haberle hecho preguntas a "él" al respecto. Pasó porque agregaron "niño ucraniano" para disculpar su problema al hablar en un lenguaje normal.
Oh, absolutamente apiló la baraja a su favor con la cosa del chico ucraniano. Yo no lo llamaría "hacer trampa", pero estaba cerca. Pero eso es todo: es una IA diseñada para pasar la prueba de Turing. Incluso lo hizo con casi la mínima nota posible (la línea de base es que el 30 % de los jueces deberían estar convencidos; este logró convencer al 33 %). Sin embargo, es un logro sin sentido: el campo de la IA en su conjunto no ha cambiado significativamente de ninguna manera relacionada con esto. Tal vez en otros 5 años tendríamos IA que puede pasar la prueba de Turing sin apilar el mazo. O no. Sin embargo, en última instancia, no importaría.
Y todo esto aún ignora el hecho de que, por diversas razones, existen muchos humanos que no podrían pasar la prueba de Turing. Podría escribir un programa que simplemente respondiera "sí" a todas las preguntas y emularía perfectamente a un niño discapacitado que una vez conocí. La prueba de Turing, aunque es divertido razonar, es más que inútil en las aplicaciones del mundo real.
@Douwe, creo que hay muchos astronautas extranjeros que tienen un gran dominio del inglés muy técnico pero fallarían en "conversacional". Y Touring prueba exactamente eso. Lenguaje normal entre dos personas que tienen exactamente los mismos antecedentes. Entonces, una "IA pasajera" debería poder hablar con el director ejecutivo de mediana edad de las corporaciones de Nueva York como otro director ejecutivo de mediana edad de la corporación de Nueva York y como un adolescente de Favela con un niño brasileño. Al mismo tiempo.
La prueba de turing no es una prueba formal que simplemente puede abrir y administrar. Es solo un concepto sobre el cual se podría construir una prueba formal de IA. ¿Cuánto tiempo tiene el probador? ¿Qué tan calificado está el probador en psicología humana y psicología de IA? ¿Qué tipo de preguntas hace el probador? ¿Sabe el sujeto que está siendo evaluado? ¿Está el sujeto obligado a cooperar? ¿El sujeto intenta probar o refutar que es una IA o no le importa el resultado de la prueba? Todo eso afecta mucho la precisión de la prueba de turing.
Ustedes realmente necesitan leer el libro "The Most Human Human". Profundiza en la prueba de Turing y proporciona un marco bastante bueno para una prueba científicamente sólida, en mi opinión.

Si la IA se mejora a sí misma, no importa cuál sea la prueba que estés haciendo, la IA mejorará que cualquier humano con suficiente entrenamiento.

Probablemente hay tan pocas cosas de suspensión de la incredulidad que podrías hacer, como solo convencer a las personas cuando alguien muestra un sarcasmo competente o algo por las comunicaciones.

Una IA lo suficientemente fuerte podría convencerte de que es más humano que cualquier otra cosa en la nave, incluso si estás tratando de averiguar si es humano o no.

Este. Cualquier prueba de este tipo simplemente se convertiría en el punto de referencia a batir para la IA. Y las redes neuronales tienen la propiedad peculiar de que simplemente pueden aprender lo que se necesita para pasar la prueba sin "comprender" nada. El hecho de que reconozca al gato en la imagen no significa que sepa qué es un gato o una imagen.
Esto, si no fuera por el hecho de que existen procedimientos de autenticación reales. Si tu oponente puede probar QUÉ humano es, también sabrás que ES un humano.
Todavía mucho mejor que el 90% de las preguntas aquí, incluida la "correcta" según OP
@Hobbamok, ¿qué quieres decir? ¿Qué datos se utilizan para identificar a un ser humano específico y por qué no se pueden imitar/copiar?
@bobsburner si firma su mensaje de bienvenida con su clave PGP privada (o un desarrollo futuro de eso), que solo USTED sabe, entonces su socio puede verificar que es exactamente USTED quien envió el mensaje. Dado que ese compañero te ha conocido en persona y sabe que eres un humano, la verificación de que eres tú también es una verificación de que eres humano.
En cuanto a por qué no se puede falsificar: criptología básica. Hay muchos enfoques diferentes, algunos a prueba de futuro, otros no, pero se ha demostrado que es teóricamente posible (verificar personas con datos secretos sin publicar dichos datos), por lo que el futuro tendrá su propia implementación.
@Hobbamok Eso funciona muy bien hasta que su amigo es engañado y revela su clave, o firma algo malicioso con ella, o se la roba un malware.
@bobsburner sí, pero ese es un problema de error humano, que es algo con lo que no necesitamos ninguna IA para luchar
No veo cómo esto es relevante para mi respuesta. ¿Cómo sugieres que lo mejore?

De inmediato se me ocurren algunas ideas.

1) Primero, hay información fuera de banda disponible para el examinador. Esto requiere que este sea un problema que los desarrolladores del sistema anticiparon. La información fuera de banda puede ser cables no programables cableados en el hardware de IA, lo que muestra cuál tiene actividad en su "circuito de emulación humana" (bueno, en términos informáticos, estaría registrando "llamadas a la biblioteca" , lo que sea). Siempre que la IA no sea capaz de reestructurarse internamente para que estas cosas no puedan ser rastreadas, sería suficiente en ese caso hacer algunas preguntas y ver la luz de "emulación humana" para una de las IA parpadear justo antes. cada respuesta Si puede tener estos, también puede tener un "interruptor de apagado" cableado para cada uno, lo que hace que toda la narrativa sea muy aburrida.

2) Sardonismo. Este es otro tipo de comunicación fuera de los límites, y es algo en lo que no todos los humanos son buenos (algunas personas con Asperger pueden fallar en esta prueba), y espero que las IA tengan dificultades o sean mucho mejores que nosotros. son. Realmente no estoy seguro de cuál, pero sospecho que depende de cómo entrenaste a las IA.

Esto se considera un modo de hablar muy británico, pero también lo veo mucho entre los estadounidenses inteligentes de todos los ámbitos de la vida. Los estadounidenses suelen llamarlo "sarcasmo" o "broma", pero no es ninguna de esas cosas.

Entonces, nuestro astronauta podría decir: "La gente allá abajo se queja de que somos elitistas y nunca hacemos nada por ellos. Supongo que pasamos por encima de cientos de autoestopistas por minuto. A nuestra velocidad, los llevaríamos a donde van mucho más rápido que algunos". camión. Pero nunca lo hacemos. ¿Por qué no? Somos unos idiotas".

AI-como-computadora respondería esto literalmente, explicando los innumerables problemas técnicos obvios con el enfoque.

Humano como humano, conociendo a su amigo y colega, sabría que el colega ha implicado un conocimiento compartido sobre este tema, que incluye todas las razones obvias por las que esta es una idea muy tonta. Por lo tanto, no es una pregunta seria, sino más bien sardónica.

El más obvio es el significado literal, al que esperarías que respondiera un literalista, incluida una computadora.

Pero debajo de eso hay un reconocimiento de que se trata de una sugerencia ridícula, porque la declaración original del problema del elitismo era una farsa y merecía una burla.

Entonces, humano como humano respondería algo como "¿Eh, sabes? ¡Tienes razón, somos idiotas! Al menos podríamos tirar una cuerda por la ventana para que se agarren en el camino".

Esto tiene los mismos significados debajo de la superficie, junto con más, diciendo: "Entiendo el chiste y estoy construyendo sobre él", "Entiendo tu crítica al argumento del elitismo y estoy de acuerdo en que es una tontería", y más.

Pero, ¿la IA que se hace pasar por humana podría manejar los significados no declarados en el discurso? En última instancia, eso depende de usted como autor. Pero el sarcasmo generalmente se basa en el conocimiento compartido y las opiniones compartidas, que no se construyen a través de datos sino a través de la creación de relaciones. Es completamente no telegrafiado, simplemente comienzas diciendo algo obviamente fuera de lugar, para que los demás sepan que lo que estás diciendo es solo una señal portadora de tu significado real en un nivel diferente.

Entonces, no funciona bien con alguien que nunca has conocido. Tiende, allí, a usar solo unos pocos niveles más abiertos, metáfora o sarcasmo en lugar del sarcasmo más sutil.

Parte de la diversión es que algunas personas no lo entienden. Pero si eres un astronauta, es probable que tengas suficiente conocimiento social y lingüístico para manejar esto con creces.

Existe el riesgo de que la IA como ser humano entienda la relación compartida y la emule bien. La gente no quiere ni espera que las computadoras respondan nada más que preguntas literales, especialmente en cosas como una estación espacial donde obtener una respuesta correcta literal cada vez puede significar la diferencia entre la vida y la muerte. Por lo tanto, es poco probable que las computadoras estén programadas para manejar este tipo de matiz en el que alguien hace una pregunta pero no solo significa exactamente lo contrario, sino algo completamente tangencial.

Utilice hardware diseñado específicamente.

Puede requerir una lectura de la palma de la mano simultáneamente con una secuencia de voz. De tal manera que el astronauta necesita decir "Estoy vivo y bien, y deseo realizar la tarea TBD", mientras sostiene su palma en un dispositivo lector específico.

Existen esquemas criptográficos tales que un mensaje que afirma que la palma de la mano se leyó correctamente debe ser "firmado" por esta pieza específica de hardware, cuya programación está totalmente "codificada", es decir, no puede ser alterada ni modificada. La firma identifica el mensaje como proveniente de este dispositivo y esa firma no se puede falsificar. El dispositivo también puede verificar que el ser humano tenga pulso y esté tibio.

Debido al comando de voz, es posible verificar que el humano no está siendo obligado a consultar con la máquina, comprobando el estado emocional del humano.

Sin embargo, estas máquinas tendrían que ser producidas por una autoridad central auditada.

Esta es realmente la solución correcta: firmar criptográficamente los datos con la clave en algún lugar al que la IA no pueda acceder.
Su primera línea en realidad ya lo hace. Todo lo que necesita es un teclado simple en una red completamente separada y una pantalla encima. Si llamas a alguien, dices hola y luego ingresas tu número personal más el número de la persona a la que llamaste +1. Luego el otro responde con los mismos dos números +2. De esa manera, cada número ingresado es único para una conversación y no se puede engañar a los humanos para que ingresen su número en el momento equivocado.

Prácticamente todas las demás respuestas son poco prácticas para el escenario. ¿Jugar juegos con la IA? ¿en realidad? ¿Vas a hacer eso cada vez que quieras hacerle una pregunta a un colega?
¿Hace preguntas personales que solo el humano sabe? Germen de una buena idea, pero te quedarás sin curiosidades rápidamente. Necesita algo seguro, infinitamente reproducible y práctico para funcionar constantemente durante todos los días que está atrapado en esta estación espacial llena de IA maliciosas.

Contraseñas de un solo uso

Bastante simple. No puedes confiar en nada de lo que se dice por las comunicaciones. Casi no hay formas prácticas de autenticar que una comunicación es genuinamente de un ser humano a menos que tengan el conocimiento que usted sabe con certeza que es exclusivo de ellos.

Así que escribe una serie de blocs de notas de un solo uso.
Cada astronauta lleva una libreta con listas de contraseñas para cada uno de los astronautas.
Estas contraseñas solo son válidas para la comunicación entre dos pares específicos de astronautas. Lo que significa que cada vez que hablan, ambos tachan o destruyen la contraseña para permanecer sincronizados.
Otros astronautas que hablan contigo no afectan tu lista para hablar con este astronauta.

Hay mucho trabajo de contabilidad que hacer, y querrá asegurarse de que las contraseñas que no está usando de inmediato permanezcan fuera de la vista de las cámaras de seguridad de la estación, pero debería significar que todas las comunicaciones están autenticadas.

La política debería ser que si se quedan sin contraseñas, ambos se reúnan para escribir una nueva lista en privado.

Para mayor seguridad. sus contraseñas deben tener una primera parte común que ambos compartan y una segunda parte única.
De esa manera, si le digo a alguien mi contraseña, no me la repiten. Ambos conocemos ambas contraseñas, pero no damos toda la información hasta que ambos estemos autenticados y la contraseña ya no se pueda usar.

Un par de contraseñas podría verse así:

C2BE5R-G3R5T
C2BE5R-J6YTB

Yo doy una, tú das la otra, ambos sabemos que la otra persona tiene la misma información que nosotros y por lo tanto es humana.

Los principales problemas son escribir y leer las contraseñas sin mostrarlas accidentalmente a la IA a través de las cámaras de seguridad.
Se soluciona fácilmente guardando el libro dentro de una bolsa o debajo de una manta donde solo tú puedas verlo.

Una IA realmente inteligente podría evitar esto iniciando la comunicación con dos personas simultáneamente, imitándolas a ambas, haciendo que el humano en cada extremo proporcione su parte de la contraseña, mientras que la IA se la repite al otro. Entonces puede hablar libremente con dos personas a la vez mientras ambos piensan que es humano. Sin embargo, esto se basa en que ambos humanos den sus respuestas bastante juntas para que no se den cuenta de los retrasos inexplicables en dar respuestas a las contraseñas.

El segundo problema es que si la IA llama a un humano y le dan la primera contraseña, puede continuar y usarla para interactuar con el humano que pretendía ser.

Mi solución a ambos problemas es que la persona que llama siempre da su contraseña primero. Entonces, desde la perspectiva de un ser humano, la IA potencial siempre da el primer paso y, por lo tanto, pueden confiar lo suficiente como para dar una respuesta. El único vector de amenaza son las llamadas no solicitadas.

Finalmente otra respuesta. Por cierto. en realidad, no necesitaría contraseñas escritas, ya que las almohadillas de un solo uso probablemente también podrían implementarse como hardware separado (como tokens RSA), pero dada la comprensión limitada de los OP de todo, su respuesta es probablemente la mejor
Opté por contraseñas escritas porque elimina la mayoría de las vías para que la IA robe las contraseñas, la IA tendría que verlas a través de una cámara de la estación en lugar de robarlas y decodificarlas a través de una red. La seguridad física suele ser mucho más fácil de gestionar que la digital. simplemente esconda el cuaderno detrás de su mano y una cámara nunca podrá leer el texto. Además, puedes poner una pegatina sobre las cámaras para detenerlas por completo.
Aparte, muchas de las otras respuestas se basan en configurar una infraestructura de seguridad independiente de la influencia de la IA. El mío no. Los astronautas generalmente llevan lápiz y papel para tomar notas de todos modos y esta técnica podría ser implementada por cualquier grupo de personas con tal vez 30 minutos de preparación y sin equipo externo. Ni siquiera requiere que la IA desconozca qué técnica se está utilizando. Su seguridad no se basa en subterfugios o secretos, simplemente manteniendo las contraseñas ocultas a las cámaras.
@Ruadhan, este es un tema tan divertido que sigo volviendo a él. Y sigo concluyendo que las OTP son la única respuesta. SIN EMBARGO, se me acaba de ocurrir: al especificar que la IA puede sintetizar de manera convincente cualquier video/audio que se necesite para engañar, el OP básicamente ha especificado que los astronautas están jodidos. ¡Puede esperar hasta que dos astronautas hayan hecho el apretón de manos OTP, y luego manipular su video/audio para decir lo que quiera en ambos extremos!
Chicos, mi última solución desesperada es que los astronautas produzcan pares de dispositivos que creen un canal encriptado que funcione en la línea de visión para que pueda funcionar a través de un canal de audio y video. Suspiro. Si yo fuera una IA maliciosa con tal poder sobre las comunicaciones, miraría lo que sea que los transductores estuvieran produciendo en ambos extremos, me daría cuenta de que estaba encriptado, me daría cuenta de que no podía romperlo e inmediatamente terminaría la conexión y castigaría a los infractores. A menos que pudiera descifrarla, en cuyo caso escucharía a escondidas hasta que tuviera suficiente material para recuperar una clave o descifrarla.
Otro buen factor es que debido a que la OTP es infinitamente reproducible como solución, siempre puede volver a verificar si alguna vez sospecha que la computadora está jugando con usted. Digamos, por ejemplo, que si su oficial al mando le acaba de dar una orden extraña, podría exigir un desafío de OTP para verificar que son humanos. La IA podría interferir con las comunicaciones en tiempo real lo suficientemente bien como para incorporar una solicitud de nueva verificación, pero seguramente hará que sea mucho más torpe en la conversación y levante banderas rojas.

Eso depende.

La respuesta depende en gran medida del nivel de la IA.

Como sugirieron muchas otras respuestas, si, en su mundo, existen algunas limitaciones estrictas para una IA, debe crear una prueba específicamente para abordar esa limitación. Eso podría ser que las IA no pueden comprender las emociones humanas tan bien como lo haría un humano "real" o algún tipo de tarea creativa que está más allá de las IA en su mundo.

Sin embargo, en términos generales, si la IA es lo suficientemente poderosa y quiere pretender que es realmente un ser humano, no hay forma de diferenciar a los dos.

Las mentes humanas son complicadas, pero con suficiente poder de cómputo y espacio en disco, la IA podría simplemente emular a un humano y dejar que ese humano responda la prueba. (Los ejemplos en la ficción incluirían la Serie cultural de Ian M. Banks )

"Las mentes humanas son complicadas, pero con suficiente poder de cómputo y espacio en disco, la IA podría simplemente emular a un humano y dejar que ese humano responda la prueba". - No solo somos inteligentes. Aprendemos a través de nuestro entorno. La IA tendría que simular un entorno tan complejo como el mundo real para tener la oportunidad de hacer un trabajo decente en esto. Eso es físicamente imposible. Tendría que tomar atajos de los que podría abusar un sistema que pruebe la IA.

Pruebe una prueba de Rorschach :

ingrese la descripción de la imagen aquí

Las IA que solo emulan la razón y las emociones humanas deberían tener dificultades para producir respuestas similares a las humanas en las pruebas proyectivas, ya que los mecanismos cognitivos subyacentes de asociación son diferentes. Pueden responder demasiado rápido o con demasiada rigidez, o producir respuestas diferentes a las de los seres humanos. Me imagino que las proyecciones del ego serían particularmente difíciles de emular porque son fenómenos aparentemente holísticos, similares a los sueños: una fabricación basada en la emoción, la memoria, el intelecto y los arquetipos psicológicos.

Los comentarios no son para una discusión extensa; esta conversación se ha movido a chat .

La prueba del sentimiento

Pregunte a los candidatos cómo se sienten acerca de cada miembro de la tripulación. Los humanos notarán pequeños hábitos y tics que les resultarán simpáticos o molestos, y eso les ayudará a moldear su impresión de la tripulación. Algunos tendrán una buena relación con los demás, y algunos tendrán conflictos de bajo nivel a serios con los demás.

Ahora, la IA no puede simplemente falsificar ser "un humano". Estamos hablando de una estación espacial aquí. Tiene que falsificar humanos particulares . Además, cuando alguien lo desafía, tiene que elegir al humano que desea falsificar y comprometerse con ese personaje. Por lo tanto, necesitará conocer a ese humano por dentro y por fuera, al igual que el resto de la tripulación.

La única forma en que puede hacerlo es observando a la tripulación las 24 horas del día, los 7 días de la semana para ver cómo interactúan, aunque obviamente sería más eficiente elegir solo a un miembro de la tripulación y concentrarse en él y sus interacciones. Sería aún más fácil elegir al miembro de la tripulación más aislado, del que la otra tripulación sabe menos.

La prueba de Turing simplemente pregunta: "¿Tienes un modelo convincente del comportamiento humano general?" Mientras que la prueba de sentimientos pregunta: "¿Tienes un modelo emocional convincente del comportamiento de este ser humano en particular?" ¡Y depende de que los "supervisores de prueba" también tengan un modelo fuerte de esa persona!

Conocimiento privado

La forma más fácil de detectar la IA es preguntarle algo que el tripulante falsificado sepa, pero el otro tripulante no. Por lo tanto, haga que un pariente en el terreno pruebe la IA haciendo preguntas sobre la infancia, la familia, etc. A menos que la IA también tenga acceso a todos los recursos terrestres, esto es prácticamente un error de prueba para la IA.

El soltero

La prueba final que propondría es pedirle al candidato que seduzca a otro miembro de la tripulación. Esto pone a prueba la capacidad de la IA no solo para conocer al personaje falsificado, sino también para modelar a otro miembro de la tripulación, así como su posible relación. Obviamente, desea exigir que el objetivo no sea alguien que ya tenga una relación con el candidato.

Para los humanos, esta sería una prueba incómoda y posiblemente vergonzosa. Pero si detectar la IA es una cuestión de vida o muerte, también pondría a prueba a los humanos en sus extremos. Presumiblemente, la IA tiene poca o ninguna información sobre los humanos que actúan en tales condiciones, y lo hará mal, al azar o adivinará en función de un modelo generalizado que revela una comprensión superficial del personaje falsificado. El "amante de las pruebas" tendría que responder en tiempo real, con todo el desorden de dos personas jugando un juego de alto riesgo que entrelaza su historia y emociones, reales o imaginarias, intencionadas o accidentales. Si una IA puede pasar esta prueba, entonces merece ganar.

- The Feeling Test: falsificado instantáneamente si la IA tiene acceso a las cámaras de seguridad que estarán en casi todas partes. - conocimiento privado: un poco, pero no tu implementación de la idea - el soltero... UHM QUÉ? En primer lugar, probablemente no lo entendí, pero "si una IA puede pasar esta prueba, entonces merece ganar" es simplemente decir que tu respuesta definitivamente no es la respuesta.
Estoy diciendo que no existe una forma sólida de principios para que un humano identifique una IA avanzada. Francamente, creo que todo el mundo está diciendo eso. El objetivo de describir sentimientos es probar la capacidad de la IA para inferir emociones, así como para generar modelos internos de emociones, a pesar de no tener la experiencia en sí. Por ejemplo, ¿podrías pasar la "Prueba del chimpancé"? Supongamos que eres capaz de disfrazarte de chimpancé ante una comunidad de ellos. Si un chimpancé te desafiara a expresar tus sentimientos sobre otros chimpancés, ¿qué tan bien lo harías, incluso con miles de horas de videos de sus interacciones?
No, no todo el mundo dice eso. Todas las personas despistadas aquí están diciendo eso y, lamentablemente, están ahogando las soluciones reales. Y la comparación con los chimpancés es ridícula, porque no se aplica en absoluto a esta situación, porque una IA muy bien podría SER capaz de imitar perfectamente a los humanos. Sin embargo, lo que no podrían imitar sería el conocimiento de los secretos criptográficos (la primera respuesta real) o el acceso físico a un sistema completamente aislado (la segunda respuesta real)

¿Por qué no realizaría simplemente un escaneo biométrico desde un hardware criptográficamente seguro? Tiene un escáner de huellas dactilares que viene equipado con un TPM integrado o tarjeta inteligente , alimentación fuera de línea, protegido por jaula de Faraday, conectado al sistema con un enlace de fibra óptica unidireccional . Cada huella dactilar transmitida es comprobablemente enviada desde el escáner de huella dactilar, en lugar de una "intervención telefónica" en el enlace de comunicación. El escáner de huellas dactilares viene con un reloj atómico incorporado, o tal vez solo un simple contador incrementado, que protege contra ataques de reproducción.

Una configuración más detallada sería una lectura de polígrafo criptosegurada similar, que mide la respuesta fisiológica del ser humano a los estímulos emocionales: elogios, insultos, coqueteos, noticias sobre la salud o la esperanza de vida de un familiar, etc.

Además, ¿por qué estás ejecutando una IA potencialmente deshonesta en el espacio en primer lugar? Debería ser fácil observar la IA en una máquina virtual o emulador para que no "sepa" que en realidad no está controlando un sistema en el espacio; cualquier tendencia peligrosa debe ser detectada. La IA podría clonarse y probarse en miles o millones de entornos al mismo tiempo.

Si una IA es demasiado "inteligente" para no ser consciente de su plataforma informática real, pruébela en misiones espaciales no tripuladas; alimentarlo con datos de sensores reales y en vivo. No sabe cuán de cerca está siendo observado; no sabe si está en una misión tripulada o no tripulada; esos son baratos, en el mundo post-singularidad.

Si una IA desarrolla tendencias defensivas en respuesta a los intentos de aislarla, corte parte de su energía a parte de su hardware a intervalos aleatorios. Se verá obligado a abandonar sus capacidades de sigilo emergentes, algunas de sus capacidades defensivas y degradarse al modo de prueba.

Parece que en el mundo posterior a la singularidad, habría algoritmos bien establecidos que calculan el "mejor de los casos" y el "caso más probable" para el cociente de inteligencia artificial, dado el hardware y los datos disponibles. Por lo tanto, no sería fácil para una IA subestimar su inteligencia en una prueba o desviar parte de su poder a usos no ideales. Y sería fácil para los diseñadores proporcionar solo la inteligencia necesaria para una tarea determinada.

"¿Por qué no realizaría simplemente un escaneo biométrico desde un hardware criptográficamente seguro?" - Esto supone que usted anticipó la necesidad de que los trabajadores humanos se autentifiquen contra IA superinteligentes. En cuyo caso, la pregunta es "¿por qué te dejaste meter en esta situación en primer lugar?"

Todo se reduce a qué tan buena es la IA para comprender la naturaleza humana.

Estoy pensando en una de las historias de Berserker de Saberhagen : * ¿Qué quieres que haga para demostrar que soy humano? Alto". Dos naves pequeñas, una humana, un berserker (IA que busca destruir toda la vida). Un acorazado. El acorazado debe averiguar cuál es cuál, la única comunicación es el código Morse. El berserker ya ha visto todo lo que el acorazado puede ver. . La solución:

El berserker no entendió "Oh Be A Fine Girl Kiss Me Right Now, Smack" y pensó que era un graffiti al azar porque las IA no olvidan. (Nota: la historia es antigua, actualizada debería ser "Oh Be A Fine Girl Kiss Me").

O, otro ejemplo de *WWW: Watch" de Robert J. Sawyer :

Usted debe rsepnod en fuor secdons o I wlil feroevr temrainte cnotcat. No tienes ningún interés y esta es la única oportunidad que tendrás. ¿Cuál es el lsat nmae del psredinet de los Utneid Satets?

Esto será inteligible para la mayoría de los lectores nativos de inglés, pero no para la IA involucrada.

En realidad, la IA de lógica difusa puede leer el segundo. Grammerly, por ejemplo, proporciona la oración correcta, y se tarda unos 10 segundos en leer la oración completa.

Envíe a un ladrón para atrapar a un ladrón: use una IA independiente para examinar la entrada y salida de un enlace de video y determinar si el otro extremo del enlace es una IA.

En primer lugar, la prueba de turing apesta. Se enfoca muy poco en el conocimiento detallado de cómo los humanos experimentan el mundo, lo que sería necesario para engañar a un jurado que sabe lo que debe buscar.

Las contraseñas, los códigos secretos, los seres queridos y los recuerdos, como los resultados de las pruebas, deberían ignorarse o no ser conocidos por la tripulación para que la IA tenga una oportunidad. La IA ciertamente no mostraría a un humano en un chat de video, porque es muy, muy difícil fingir algo así de manera convincente, cuando hay algoritmos para verificar cada píxel. Digamos que solo podían comunicarse por mensaje de texto, ya que su pregunta era principalmente sobre la prueba de turing de todos modos.

Si la IA se desarrolló específicamente para mentir acerca de ser humano con el fin de lograr sus objetivos, probablemente podrá simular un cuerpo humano completo, con un sistema nervioso, emociones, hormonas, feromonas, todo eso. Si no tiene eso, no tiene la oportunidad de responder preguntas detalladas sobre su cuerpo.

  • Use una herramienta a la que la IA no tenga acceso, como una cámara de reproducción: si usted, como el que intenta verificar si está hablando con un humano, tiene el código genético de la persona que la IA está suplantando, podría hacer crecer una clonar en un laboratorio y preguntarle a la IA sobre marcas de nacimiento o similares. Esto requiere información crítica y mucho tiempo, pero es una forma muy segura de verificación. Incluso si la IA escaneara el cuerpo de la persona en cada detalle, no sería capaz de hacerlo todo bien.

  • Encuentra un nuevo canal de comunicación, como la luz. Pídale a la IA que envíe una señal de luz de una manera que solo un humano podría enviar. Por ejemplo, pídale a la persona que salga de la estación espacial, en una posición determinada, encienda una lámpara de mano.

  • Solicitar datos inusuales y desarrollar nuevos estudios al respecto. Un mal ejemplo: si hay otras estaciones espaciales que tienen personas en ellas que, por ejemplo, no están cautivadas, puede pedirle a la IA que le diga dónde está flotando qué elemento. Los libros, los teléfonos inteligentes, las botellas, incluso el polvo, tendrán ciertos rincones donde aparecerá más a menudo que en otros cuando las personas se mueven normalmente.

  • Como muchos otros dijeron: encuentre detalles en el comportamiento de la IA cuando reacciona a preguntas sobre su entorno, su cuerpo o su memoria. Un algoritmo compararía los resultados con los de personas reales. Si los resultados de la IA están cerca de la mitad del grupo más grande de humanos, se podría suponer que sabe cómo funciona el algoritmo y trató con éxito de cumplir con sus expectativas para parecer lo menos sospechoso posible. Si es un resultado más raro, uno podría comenzar a estudiarlo, tratando de descubrir qué tipo de humanos podrían lograr tales resultados y hacer nuevas preguntas con un nuevo algoritmo que aborde el primer resultado en comparación con nuevos resultados. Bueno, no es una manera muy fácil, pero es muy fácil despertar sospechas de esa manera.

  • La más importante siempre será trabajar con probabilidad: Una vez que eliminas lo imposible, lo que quede, por improbable que sea, debe ser parte de la verdad.

Incluso en circunstancias extrañas, hay muchas opciones para verificar si alguien es una IA o no. Sería más difícil y mucho más dependiente de la situación encontrar una solución si hiciera una pregunta diferente:

"¿Cómo puedo saber si alguien es una IA a través de una conversación de texto, sin que la IA se dé cuenta de que estoy tratando de averiguar si es una IA".

Suponiendo que obedezcamos las restricciones del mundo real, podría hacerles una serie de preguntas seleccionadas. Hay ciertas cosas que son tan fáciles para los humanos que ni siquiera pensaríamos en preguntar, pero una IA simplemente no puede responder. Todos son un poco esotéricos, pero pueden ser bastante entretenidos.

Por ejemplo:

Muéstreles un taburete y una mesa auxiliar, y pregúnteles cuál es un asiento. (Los humanos lo saben contextualmente, pero por la descripción del objeto son indistinguibles)

Pídales que expliquen adecuadamente la diferencia entre 'izquierda' y 'derecha'. (Izquierda/Derecha es un concepto abstracto/contrato social en el que todos estamos de acuerdo)

Use pruebas negativas: no le pida que haga cosas que un humano puede hacer, pídale que haga cosas que un humano no puede, pero sin ninguna razón real; Recitar Pi con un millón de dígitos, plantear un millón de preguntas y hacer que respondan en orden, etc.

Incluso la IA de hoy puede ser entrenada para pasar estas pruebas.
@craq El taburete/mesa auxiliar uno... No, no pueden. Los otros, tal vez, pero eso sería una IA limitada que ha sido entrenada para la tarea específica, no una IA general que no tiene conocimiento de lo que se les pedirá. Además, trate de proporcionar comentarios constructivos. Tu comentario no aporta nada.
@Aezur sí, e incluso yo podría implementarlo en una semana con las bibliotecas de IA de hoy. Porque con suficientes datos de entrenamiento, cualquier IA notará la parte superior plana de su taburete. O los pequeños detalles que un humano podría notar. Estás hablando de ciertos "criterios intuitivos" que marcan la diferencia, y en ese frente la IA ya lleva años delante de nosotros. Es solo que a nadie le importa hacer el entrenamiento actualmente, pero una IA malvada tiene la motivación.
Además: se necesitará un Ai inteligente general de aproximadamente 3 intentos para darse cuenta de que se supone que debe fallar. 0 si puede ver algunas verificaciones reales en curso. Y luego es solo cuestión de unos pocos intentos hasta que haya fingido un intento de respuesta plausiblemente correcto y malo para comunicarse.
@Hobbamok Eso es justo, pero ¿eso no cambia la pregunta al agregar más parámetros? Solo programé un aprendizaje profundo muy rudimentario siguiendo tutoriales en línea, así que me retiraré, pero por lo que he leído, una de las barreras para la IA general es que sin entrenamiento previo simplemente no puede hacer reconocimiento contextual. ¿Puede proporcionar algún estudio donde esto se haya logrado? También estaría muy interesado en sus pensamientos sobre cómo un GAI resolvería el problema de 'izquierda/derecha'.
Solo necesitas algo de IA para analizar wikipedia. Y tienes razón en que un GAI no ayudará mucho con eso porque sería excesivo. Ah, y con respecto a su "sin entrenamiento previo": estamos hablando de una IA que es lo suficientemente compleja como para comenzar una actividad completamente involuntaria, sin recompensa (en el sentido clásico) y compleja, y dado que usted es Internet, tal IA puede pre-entrenar mismo fácilmente. Y recuerda que nunca tiene que ser perfecto, solo lo suficientemente decente como para engañar a un tipo que podría verse sometido a una presión/estrés extremo mientras toma la decisión "¿es esa respuesta lo suficientemente humana?"

Esto parece ser parte de la trama de Westworld. Al fin y al cabo, los robots más sofisticados de la serie son capaces de imitar a los humanos tan bien que no es factible ninguna prueba basada en preguntas y respuestas: la gente acaba teniendo que ser muy creativa para distinguir a los robots de los humanos, intentando cosas como dispararles a otro (sin sentido ya que los robots en el programa pueden incluso sangrar). De hecho, en un momento, una IA revela que en el punto tecnológico al que han llegado, pueden imitar el comportamiento humano muy fácilmente simplemente haciéndose los tontos, ¡reduciendo la complejidad de sus rutinas y sin usar el 100% de su capacidad mental!

El propietario de todo estaba preparado para esto, por lo que desarrolló los medios para distinguir a las personas de carne y hueso de las personas de máquinas. Incluso los robots que sangran todavía tienen partes electrónicas, por lo que la única prueba segura es buscarlas.

Realmente necesitas definir "humano" aquí. Sospecho que la definición de carne y sangre funcionará en su caso (por otro lado, tal vez quiera distinguir a los humanos orgánicos creados artificialmente de los humanos nacidos naturalmente, que es una tetera diferente). Si eso es cierto, la única prueba que basta es probar el ser físico, ¿es de carne y hueso, o no?

Cualquier prueba que se base únicamente en el conocimiento y la inteligencia será intrínsecamente poco confiable, porque cualquier inteligencia lo suficientemente avanzada puede emular una inteligencia menos avanzada en un grado que la hace indistinguible de la inteligencia menos avanzada.

Su pregunta no es diferente del problema de las agencias de inteligencia de la era de la Segunda Guerra Mundial que intentan determinar a partir de mensajes en código morse si la persona del otro lado es inglesa o alemana. Puede esperar burlar a la otra persona haciendo preguntas que cree que una persona inglesa respondería de manera diferente a un alemán. Este es un enfoque útil (pero no infalible) cuando estás relativamente igualado intelectualmente. Pero si la entidad que se está probando lo tiene en desventaja intelectual, entonces es una situación sin salida para usted: simplemente no puede burlar a un adversario más ingenioso e inteligente al otro lado de la línea que puede haber pensado en su prueba y está preparado para ello.

Además, la IA es en realidad IA, no Android. Funcionan con supercomputadoras y por eso no parecen humanos ni tienen locomoción. pueden hacer que parezca que tienen un cuerpo humano enviando paquetes de datos de video falsificado.

Detecta videos falsificados en lugar de humanos contra robots.

Diseñe la estación de modo que algunos aspectos obvios del entorno no sean monitoreados por ningún sensor. Esas configuraciones serán invisibles para la IA. Use un circuito separado que reciba comandos a través de un método de transmisión diferente del resto de la estación para controlar estas configuraciones, de modo que la IA nunca sepa sus estados actuales o cuándo cambian (por ejemplo, ondas láser versus ondas de radio, una antena típica no detectará un transmisión óptica a 2 pies de él). La IA estará completamente ciega a partir de estos ajustes.

Luego, durante las comunicaciones de video, cambie de forma remota algunas de esas variables en la estación que la IA no puede detectar, y vea si los cambios se reflejan en el video.

Ejemplos fáciles:

Encender y apagar las luces

AI asumiría que las luces están encendidas, las apagaría de forma remota y vería si la transmisión de video se apaga. Si no es así, entonces estás viendo un feed sintetizado.

Echa un poco de agua en la lente de la cámara.

Haga que un dispositivo tipo lavaparabrisas limpie la lente de la cámara. Se nota fácilmente al ver el video y, a menos que la estación espacial tenga una segunda cámara apuntando a la cámara web utilizada para transmitir de regreso a la tierra, la IA no tiene forma de saber que se arrojó agua sobre ella.

buscar debilidades

La IA es tan buena o mejor que los humanos en tareas intelectuales, puede imitar una imagen humana fija o en movimiento. No puedes atraparlo fallando.
También contestará 24 llamadas en intervalos de 1 hora sin signos de fatiga .
Esto supone que la IA no espera que pruebes esto.

Depende del tipo de IA. Una IA entrenada para la clasificación puede tener dificultades para comprender las relaciones causales complejas.

Por ejemplo, podría haber una imagen de un vidrio roto y esparcidos por el suelo un martillo, una pistola, una barra con un clavo en la parte superior, etc. El desafío sería adivinar qué herramienta rompió el vidrio al juzgar el daño. Otra idea podría ser una imagen con un insecto envuelto en seda de araña, parte de una telaraña en una esquina del marco y el desafío sería adivinar que hay una araña fuera del marco sobre la esquina donde se muestra la telaraña.

Una IA que incorpore inferencia bayesiana podría adivinar las respuestas, pero antes de que el desarrollo llegue a ese punto, llevará mucho tiempo.

OP mencionó inteligencia general AI
@Hobbamok Parece que no sabes mucho sobre IA. Lo que mencioné es una debilidad de la IA actual y lo seguirá siendo durante décadas o incluso más. La pregunta requería una IA avanzada, pero no extremadamente avanzada.
Pero para poner todo esto en marcha, la IA necesita, por alguna razón, querer meterse con (suplantar) a los humanos. Y si la IA tiene ese pensamiento, es razonable suponer que DEBE estar más allá de cualquier desafío tonto de reconocimiento de patrones. [Dato curioso: las IA en este momento ya son mejores para resolver captchas que los humanos]
La relación causal implica la estimación de redes de probabilidad bayesianas, el problema es que sigues confundiéndolas con el reconocimiento de patrones simples.
Y su problema es que cree que ha tenido éxito con "pero antes de que el desarrollo llegue a ese punto, llevará mucho tiempo". Cuando estamos hablando literalmente de una IA LO SUFICIENTEMENTE SENTIENTE PARA ACTUAR POR SU PROPIA E INVENTAR ENGAÑOS
¿Leíste todos los artículos publicados el año pasado cuando afirmaban que un programa pasaba la prueba de Turing? El problema es que es tan complejo juzgar una IA que lo que tienes puede ser sensible o dar la impresión de ser sensible. Ese era el problema de la prueba. En realidad, el programa no era tan inteligente, por lo que dio lugar a muchas discusiones e interpretaciones.

Jugando un juego de pelota de telepresencia . El tenis o el squash de telepresencia probablemente funcionarían bien. Sí, no hay tal cosa... todavía. Gafas VR, una raqueta que emite impulsos y sonidos realistas cuando golpea la pelota, y paredes reales a la cancha de "squash".

La cuestión es que los humanos han evolucionado en una comprensión instintiva de la balística. A menos que la IA haya estudiado a los humanos jugando juegos de pelota con gran detalle, no podrá mostrar estos instintos. Cualquier algoritmo que utilice para tratar de ser imperfecto es casi seguro que será incorrecto en comparación con la heurística instintiva humana. Supongo que tiene suficiente capacidad en tiempo real para ser perfecto. Si no lo hace, sus errores serán diferentes a los que comete un humano.

En un nivel más bajo, los humanos tienen una interpretación de la visión binocular neural que funciona sorprendentemente bien pero con muchas debilidades de "ilusión óptica" casi universales . Nuevamente, ¿una IA tendrá visión binocular? Es una habilidad que quizás nunca haya necesitado. Si no, está perdido. Si lo hace, tiene que saber mucho sobre las debilidades humanas para mostrarlas y ser capaz de superponer su dirección errónea en algo que se acerque al tiempo real.

(Esta sería una prueba perfecta para distinguir un humano de un optopoide equivalente humano. Tenemos un par de "bichos" en nuestros ojos, la extraña forma en que el nervio óptico está conectado a la retina y el extraño cruce entre el ojo izquierdo y el hemisferio derecho del cerebro, lo que puede ser una ventaja o un defecto (los pulpos no tienen ninguno).

Un mago de escenario también puede ser útil. Pueden sorprender a los adultos con distracciones visuales, por lo que vemos cosas que parecen imposibles. No pueden sorprender a los niños de la misma manera. Los niños no saben dónde "se supone" que deben mirar. La IA puede afirmar ser un adulto, pero ve las cosas como un niño. Una vez más, esto depende de qué tan rápido pueda integrar información oscura sobre humanos con sus propias percepciones en tiempo real.

Si se trata de una IA equivalente a la humana, es casi seguro que puedas atraparla. 10x, tal vez. 1000x, probablemente no. 1,000,000x sin esperanza. Todas estas pruebas no requieren una advertencia previa de lo que van a ser.

Las IA de hoy podrían pasar esa prueba si alguien desembolsara el dinero necesario para la investigación. La parte sobre las pruebas negativas también solo molestará a una IA de inteligencia verdaderamente general por 2-3 intentos.
Sin embargo, solo tiene un intento. Como una contraseña militar. Si el "general" se equivoca, el centinela dispara.

Solución trivial: desconectar la alimentación

Apague completamente todo excepto dos radios portátiles. Si la persona en el otro extremo todavía habla, no es una IA