¿Alguien puede dirigirme a recursos de escritores sobre IA o ética robótica? [cerrado]

Estoy en el proceso de escribir una novela de ciencia ficción que involucrará una gran cantidad y variedad de formas de vida sintéticas. He estado muy influenciado por los trabajos de Asimov, y aunque no puedo establecer explícitamente las leyes que utilizo para el gobierno de la vida artificial, quiero tener una base sólida sobre cómo mis robots, o como se llamen, pueden para tomar decisiones éticas. Desde la perspectiva de la trama, también quiero algunas formas realistas en las que estas reglas puedan ser pirateadas o subvertidas.

Sé que podría hacer esta pregunta en un sitio de codificación pura, pero no quiero que me inunden líneas de código sin formato. Al mismo tiempo, no quiero leer tomos de filosofía que no tienen base en la programación informática moderna. Estoy buscando algo intermedio... Así que pensé que debe haber otras personas con mentalidad de ciencia ficción entre los escritores.SE con experiencia en este tipo de investigación. El pseudocódigo estaría bien, pero realmente no quiero sentarme con scripts de IA y tratar de proyectarlos en el futuro. Para aquellos que puedan pensar que estoy tratando de evitar investigar, simplemente diría que me encanta investigar, pero me vendría bien un poco de ayuda sobre dónde enfocar esa investigación en este momento.

Entonces, para reafirmar la pregunta: ¿Hay algún escritor aquí que pueda recomendar buenos recursos intermedios que traten los conceptos de la filosofía y la programación de la inteligencia artificial y/o la ética sistemática?

Lo siento si esta es una pregunta extraña, y gracias a todos los que se toman el tiempo para considerarla.

También puede preguntar en scifi.stackexchange.com
Hay entradas de Wikipedia sobre este tema con una larga lista de referencias. Una búsqueda obvia en Google señala otros. ¿Podría elaborar lo que falta allí, para que podamos responder mejor a su pregunta? Ejemplos: en.wikipedia.org/wiki/Ethics_of_artificial_intelligence - en.wikipedia.org/wiki/Roboethics - cs.bath.ac.uk/~jjb/web/ai.html - links999.net/robotics/artificial_intelligence/index.html
Agradezco las sugerencias y volveré a publicar en scifi.SE... Para ser más específico, estoy tratando de evitar puras conjeturas. Es más fácil encontrar opiniones que encontrar ejemplos, así que si tuviera que elegir uno u otro preferiría respuestas más técnicas. Una respuesta perfecta podría ser que alguien tomara las 3 leyes de Asimov y las escribiera como algoritmos. O cualquier conjunto de algoritmos que puedan ser la base de una vida artificial ética... Cualesquiera que sean los recursos que elija, obviamente tengo mucho más que leer.
Hola Steve, me temo que las preguntas de investigación están fuera de tema aquí, según estas preguntas frecuentes y otras [similares] ( meta.writers.stackexchange.com/questions/294/… ) . Lamento ser desalentador, pero espero que las discusiones vinculadas sean claras y razonables. Y buena suerte para encontrar los recursos que está buscando. ¡Suena genial!
Por cierto, probablemente encontrará muchos buenos recursos al buscar en Google la frase que le interesa, además de "ciencia popular", que le dará muchos artículos introductorios, incluidos artículos de Wikipedia , que serán tanto informativos como útil para encontrar recursos más detallados.
Eche un vistazo a este artículo para obtener una introducción , luego puede ver a qué hace referencia para profundizar.

Respuestas (1)

Hay un problema simple al describir la ética como algoritmos; ¡Hay demasiadas opiniones diferentes sobre lo que está bien y lo que está mal! (O si 'correcto' e 'incorrecto' incluso existen).

Asimov, por ejemplo, hizo que sus robots siguieran un código ético muy simple (¡sin intención de jugar con las palabras!). Como resultado, los robots de Asimov no pueden tomar decisiones difíciles. Un robot no podría hacer frente a una situación en la que debe matar a un terrorista para salvar la vida de otra persona, por ejemplo.

¿Seguirán todas sus formas de vida sintética las mismas pautas éticas, o diferentes 'especies' (o modelos ?) tendrán diferentes ideas de lo que está bien y lo que está mal?

Una vez que se haya decidido por un conjunto de reglas éticas, no creo que deba volverse demasiado técnico con la codificación real. Incluso hoy en día, la programación requiere menos detalles técnicos y le permite a uno simplemente escribir lo que quiere que se haga. (Como alguien lo expresó, "Hoy en día, se ocupa del qué y deja que el código se ocupe del cómo ).

En resumen, un algoritmo simple debería funcionar, siempre que no deje ningún agujero.

Aceptado por el esfuerzo... Me gustaría hablar más sobre estas cosas, pero si se han considerado fuera de tema aquí, supongo que no lo tomaré como algo personal. Gracias por los comentarios. En cuanto a mis planes, pretendo tener algoritmos intencionalmente contradictorios trabajando en tensión, pero ese es otro tema para otro día.
Interesante; no solo no recuerdo haber escrito esto, sino que no estoy de acuerdo conmigo mismo en muchos puntos aquí.
Solo una nota: el trabajo de Asimov se hizo exactamente para mostrar cuán ridícula la idea de controlar la ética de un robot mediante un simple conjunto de reglas nunca funcionaría, ya que literalmente todas sus historias giraban en torno a los robots que rompían una u otra regla.