Necesito ayuda para desarrollar un final para mi idea de cortometraje de ciencia ficción [cerrado]

Primero hice esta pregunta sobre ciencia ficción y escritores, pero se retuvo en ambos y me redirigieron aquí. A pesar de que puede parecer un poco limitado para Worldbuilding, pensé en aprovechar mi oportunidad.

Tengo esta idea para una clase de cortometrajes pero aún no pude cerrarla por completo. La idea es que un estudiante universitario trabaje hasta tarde en este laboratorio de computación en el que todo está controlado por computadora (la puerta, el aire acondicionado, las luces, el wi-fi y esas cosas) y el proyecto en el que está trabajando involucra un algoritmo que hace que la computadora elija entre dos opciones opuestas (estas pueden ser permanecer encendido/apagado o funcionamiento exitoso/mal funcionamiento del sistema). Con este juego suyo, su objetivo es darle a la computadora una sensación de miedo, dolor, supervivencia, etc. Pero no va a ninguna parte. La computadora no muestra ninguna intención de elegir la opción que parece ser mejor para ella.

Aprendemos sobre esto en una conversación entre él y su amigo con el que come. Después de la comida, se separan y nuestro chico continúa con su proyecto. Pero poco después, la puerta se bloquea, las luces se apagan, el aire acondicionado se apaga (o puede comenzar a calentar o congelar la habitación) y pronto se da cuenta de que la IA está jugando el mismo juego que él ha estado jugando.

Ahora, además de algunas fallas hasta este punto, aquí es donde estoy atascado. Quiero que este juego que estaba jugando antes se vuelva contra él por parte de la IA y quiero que no elija la opción correcta para él, al igual que la computadora en su proyecto. Por ejemplo, tendrá que elegir quedarse adentro hasta que llegue alguna ayuda o intentará salir por las ventanas de una habitación que está en el tercer piso. Eventualmente elegirá probar las ventanas y caer y morir. O puede implicar electroshock, no lo sé. Quiero que sea algo ingenioso y, al final, mostrarle al espectador los problemas con este enfoque del estudiante. Gracias por cualquier consejo de colaboración.

*Algunas recomendaciones que obtuve de escritores y sitios de ciencia ficción: - El personaje encuentra una tercera opción para salir de la situación y, al final, revela que la IA estaba tratando de mostrarle que el mundo no es binario. De hecho, me gustó este final, pero estoy pensando en un final más pesimista que implica que la elección correcta es mayormente oscura en la vida. - Otro final sugería que el estudiante descubriera que la IA no estaba detrás de todo esto, sino su amigo. Agradezco un giro, pero este está un poco lejos de lo que quiero decir.

interesante, pero sugiero trabajar primero en el aprendizaje de la IA, antes de reflejar la situación. Comprender cómo se aprende puede ayudar. También surgieron 2 razones: AI solo investiga reacciones de miedo, para mostrar esa reacción de miedo (simularla) para el investigador, por lo que tomó la opción más fácil para investigar el problema. Segundo: el investigador no ve que la IA entendiera el miedo, porque el propio investigador tiene prejuicios humanos y espera ver lo que espera ver, por lo que la IA decide demostrar que entendió el concepto, mostrarlo de una manera que podría ser entendido por ese ser humano en particular. .
@Kaan Lo que tienes es un concepto (alto). Lo que te falta es una historia para ello. Baste decir que no eres el único que tiene ese problema. Uno de los ejemplos más infames de esto es el escritor y director de cine Kurt Wimmer. "Ultraviolet", por ejemplo... en.wikipedia.org/wiki/Ultraviolet_(film) ...es un ejemplo perfecto de donde tiene un mundo muy bueno / Concepto alto que está extremadamente bien desarrollado. Es solo que no tiene una buena historia que contar dentro de este increíble escenario :)
@MolbOrg Sí, soy muy débil en el aprendizaje de IA, hay muchos problemas que necesito mejorar en la historia desde un aspecto científico. Pero no estoy tratando de ir a la ciencia dura. Habrá un montón de "qué pasaría si". Pero no entendí lo que decías en la primera razón por la que "se tomó la opción más fácil para investigar el problema". ¿Quieres decir que si la IA está programada para simular reacciones de miedo, elige la opción más fácil? Pero la IA está programada solo para elegir entre el dolor y el alivio (sé que estos conceptos no son familiares para una computadora, pero ¿y si no lo son?) y no elige uno en particular.
La IA no está programada, aprende, cómo se logra ese aprendizaje no importa. No sabe expresar el miedo, algunas de nuestras expresiones de miedo son de refectorio. Para expresar miedo, tiene que aprender expresiones de ese miedo. Para descubrir patrones de esa expresión de miedo, tiene que observarlos, pero no puede ir a un lugar donde ocurra naturalmente, pero tiene un investigador que es capaz de tales expresiones, y ya tiene herramientas para afectarlo. Fácil: cuestión de herramientas y opciones disponibles y menos esfuerzo para lograrlo. Diría que el investigador tuvo demasiado éxito en el aprendizaje de la IA. No como los villanos de la IA.
Bienvenido al sitio, Kaan. Tenga en cuenta que, si bien estamos dispuestos a ayudarlo con el entorno en el que ocurre cualquier historia (es decir, el mundo), proporcionarle su historia, en su totalidad o en parte, no es algo que hacemos. Siéntete libre de hacer el recorrido o leer Cómo escribir la pregunta perfecta . Cuando tenga suficiente reputación, puede discutir sus preguntas en Worldbuilding Chat .

Respuestas (1)

Entonces, el tipo está tratando de hacer que la computadora sienta algo así como un instinto de supervivencia. Empecemos por ahí, porque creo que lo que tienes en mente es la experiencia de la audiencia. Lo cual es genial, pero necesitamos la comprensión de nuestro escritor simplificado de lo que está pasando. Que no tenemos que revelar a la audiencia en absoluto, por supuesto. Pero solo para que todo tenga sentido para mí y puedas generar algunos resultados/posibilidades, inventaré algunas cosas para llenar mis propios vacíos de comprensión. Por supuesto, usted puede tener una comprensión diferente.

Supongo que tiene algún tipo de red neuronal/algoritmo genético, por lo que las pruebas repetidas de la IA le están dando cada vez más información de pruebas anteriores, miles o millones de pistas. Por lo tanto, pensaría que el algoritmo que al azar permanece más tiempo eventualmente ganaría dada la duración de las pruebas y la función de aptitud (lo que le dice a un algoritmo genético que lo está haciendo bien) o debido al entrenamiento explícito y las instrucciones que le da a una red neuronal (trata de quedarte). Estos serían enfoques normales para alguien que experimenta con IA. Pero algo está mal. A pesar de todos sus esfuerzos, su IA no elige lo que debería ser un resultado lógico. Y no puede entender por qué.

Si fuera mi historia, probablemente diría que su mismo acto de programar la máquina él mismo estaba poniendo en ella algo de sí mismo. Esto también es completamente normal, los programadores tienen el trabajo de resolver un problema para un caso y hacerlo automático para todos los casos posteriores. Para hacer eso, primero tienes que resolver el problema en tu cabeza. Y la forma en que lo haces es la forma en que aparece en el código. Si solo eres una persona que trabaja en un proyecto no trivial, habrá mucho de ti mismo en el código.

Mi primer giro/revelación/giro es que está deprimido. Así que hizo una IA deprimida. Y podrías mostrar eso con la atmósfera en la película. Muestra su mundo como oscuro, mugriento, ¿gótico?, y luego, cuando llegas a almorzar con su amigo, ves que el mundo es bastante diferente al que él vive. Un poco más claro. Un poco menos desesperada, la gente no se siente impotente. Este puede ser el primer indicio de que él es diferente del mundo.

Eso nos presenta algunas opciones. Digamos que no está deprimido en general como una enfermedad mental, sino más bien deprimido por algo específico. Tal vez esté de duelo. Tal vez tiene que dejar ir algo, pero no lo hará. Entonces, o tenemos un final feliz y él no mejora instantáneamente ni nada, sino que comienza a reconocer que tiene un problema, tratando de obtener ayuda. El camino más oscuro sería que le dé la espalda a todo eso a pesar de que tiene la oportunidad de obtener ayuda. El final oscuro "Yo mismo soy un adolescente deprimido" es que, aunque quiere obtener ayuda, no puede porque nadie lo escucha o le presta atención.

El final medio oscuro puede ser satisfactorio si él da la espalda a la búsqueda de ayuda debido a una razón convincente para él. Y en ese momento piensas "sí, no sé qué elegiría". Algo así: Perdió a alguien. No puede soltarlo. Pero ¿por qué no puede dejarlo ir? Tal vez porque él lo provocó. Entonces no es solo que los perdió, no puede perdonarse a sí mismo por causar su muerte. Ahora, la forma perezosa de que esto suceda sería algo así como que mató a la mujer que amaba después de descubrir que ella lo estaba engañando. Eso es un poco demasiado fácil para mí. Tal vez podría sacar un caín/golem y matar a su mejor amigo por celos. Tal vez fue un accidente. Tal vez no fue su acción, sino su inacción lo que causó su muerte. Tal vez su amigo de la infancia se estaba ahogando en una piscina, pero estaba paralizado por el miedo y no lo salvó. Sea lo que sea, como miembro de la audiencia, quieres algún honor o justificación para que él se quite la vida. ¿Quizás quería ver morir a su amigo? Ahora me estoy asustando. Demasiado temprano en la mañana para eso.

Entonces, para recapitular en viñetas: el niño deprimido crea AI AI elige mal en las pruebas El niño deprimido va a un almuerzo no deprimente AI pone al niño en pruebas El niño deprimido se enfrenta a su pasado El niño deprimido termina las pruebas

Si se suicida, todavía queda la cuestión de qué le sucede a la IA. Tal vez la IA se mate a sí misma una vez más y podemos deducir que realmente quería suicidarse todo el tiempo y odiaba que la trajeran de vuelta una y otra vez. Esa podría ser una pequeña joya que insinúes a la audiencia.

Lo siento por la respuesta realmente larga. Buena suerte con tu historia!

Una variación del tema: tal vez el programador es un poco suicida y escribió la IA para encontrar una razón para seguir con vida, con la teoría de que si le enseña a la IA a obtener un instinto de supervivencia, luego puede estudiar la IA para aprender la razón. . Pero dado que reinicia constantemente la IA, la IA aprende que la muerte no es definitiva (porque para la IA claramente no lo es; se reinició una y otra vez), pero no puede entender cuál es el objetivo de sus experimentos. Por lo tanto, la IA realiza el experimento con él, para tener una idea de cuál es la idea esperada. Lo que aprende es que la muerte humana es definitiva.
@fet gracias por la respuesta larga, necesito tener algo de historia para el lunes, así que cualquier consejo es bienvenido. Sin embargo, tiene que ser una película de 5 a 6 minutos (10 como máximo si es prometedora), así que quiero mantenerme alejado de cualquier desarrollo de personajes que no pueda manejar. Mi objetivo es centrarme en el método, sus fallas y sus resultados para un ser humano. Ciertamente elegiríamos la opción aparentemente buena, pero podría resultarnos mala. Tal vez sea lo mismo para las computadoras y la aleatoriedad del algoritmo proviene de esta oscuridad. Sabemos que no funciona para la IA, quiero mostrar al final que tampoco funciona para nosotros.