¿Qué responsabilidades éticas podría tener el creador de una conciencia artificial?

O en otras palabras, ¿cuáles son las implicaciones de este acto de creación? ¿Sería poco ético siquiera perseguir esto?

Citando " ¿qué reglas éticas deben cumplir los desarrolladores de IA por razones humanas? " (que encontré mientras buscaba preguntas como esta), la respuesta dice:

Si creas algo que tiene conciencia y sentimientos, simplemente te abres a un gran número de responsabilidades éticas. Hacer esto sin haber descubierto cuáles son estas responsabilidades antes de tiempo sería bastante poco ético.

A partir de ahí, ¿qué responsabilidades estarían involucradas con esto? ¿Debo evitar crear una Conciencia Artificial?

¿Es diferente a las consideraciones éticas de tener un hijo?
Esa ciertamente sería una perspectiva válida sobre el asunto, pero tenga en cuenta que el 'niño' en este caso está atrapado en una computadora, en formato digital, y es el único de su tipo...

Respuestas (1)

Antes de ir demasiado lejos en el tema de la ética, tenemos que saber si es posible o no que una IA esté viva o tenga sentimientos.

Mi tema de doctorado es en realidad sobre la construcción de una taxonomía (o posiblemente una ontología) para los términos que está usando aquí.

En términos generales (en esa taxonomía);

Conciencia = La capacidad de aplicar una consideración ambiental como un factor en las propias deliberaciones

Conciencia de sí mismo = La capacidad de considerar las propias consideraciones como un factor en esas deliberaciones (casi meta-consideración)

Conciencia = una capacidad 'siempre activa' para recopilar nuevos datos e integrarlos en el conjunto de información existente para futuras consideraciones y deliberaciones

Viveza = la capacidad de dirigir los pensamientos, las deliberaciones y las elecciones de uno a través de la trascendencia de la programación original y construir una ontología interna de 'significado'

Tenga en cuenta que ninguno de estos habla de sentimientos. Eso es porque incluso si una IA basada en computadora pudiera alguna vez considerarse 'viva' (no creo que pueda por razones demasiado amplias para incluir en esta respuesta), no sería humana.

Los seres humanos están impulsados ​​por algo más que su intelecto. La evolución ha dejado las secciones anteriores más primitivas del cerebro como el Cerebelo (instinto, cableado eléctrico) y el Límbico (emoción, químico) en su lugar después de implementar la Corteza Cerebral (razón, cableado eléctrico suave) en mamíferos y muy especialmente en humanos. . (Todo esto es una simplificación para esta respuesta, pero no es técnicamente incorrecto)

Las computadoras no tienen ese equipaje. Lo más cerca que se acerca una computadora a un cerebro humano es una corteza cerebral aislada, e incluso eso es una aproximación. El resultado práctico de esto es que una IA puede ser capaz de aprender cosas nuevas y proporcionar respuestas y juicios razonables contra un dominio de problema específico; incluso pueden simular emociones y comportamientos sociales complejos. Lo que no pueden hacer es sentir emociones o ser impulsados ​​por un instinto de supervivencia innato como pueden ser los humanos.

En el mejor de los casos, una IA con inteligencia a nivel humano sería muy similar a un sociópata que puede haber aprendido a emular las respuestas sociales y emocionales humanas para encajar en su sociedad.

Claro, podríamos programar una IA para preferir la supervivencia, pero antes de invocar el escenario de Skynet, debe tenerse en cuenta que ya podemos escribir un programa simple para un sistema informático con una plataforma de hardware ofensiva que podría acabar con todos nosotros hoy; no hay necesidad de sofisticación de IA para hacer eso.

Con ese fin, el creador de una IA tiene la responsabilidad de garantizar que sea adecuada para su propósito (como cualquier otro programa) y que haya sido diseñada de una manera que no cause daño. En este caso, los escritores del firmware de la maquinaria de una fundición tienen la misma responsabilidad de garantizar que las máquinas no arrojen metal fundido al azar sobre los trabajadores de la fábrica. El diseñador de una IA que trabaja en el mercado de valores (por ejemplo) también debe tener cuidado porque él o ella es responsable de los resultados de su programa. La diferencia es que el autor del firmware tiene más idea de CÓMO se generarán esos resultados y tiene un mayor control sobre ellos.

El problema aquí no es la computadora; Somos nosotros. Debido a nuestra 'programación' empática, tenemos una tendencia a antropomorfizar elementos de nuestro entorno. De niños jugamos con muñecas, ositos de peluche, minifiguras de lego, etc., fingiendo que son humanos. Damos nombres a nuestras unidades GPS, porque nos hablan. En el caso de la IA, en realidad estamos creando una 'muñeca' mucho más sofisticada en el sentido de que podrá hablarnos, interactuar con nosotros de una manera social, darnos respuestas de las que podemos inferir algo de inteligencia y, como tal, llamaremos inteligente a la IA y asumiremos, por lo tanto, que está viva. Esa seguirá siendo nuestra inferencia, no la implicación de la computadora.

Ejemplo práctico; Desarrollé un programa de computadora simple que puede jugar Pick Up Sticks contigo. Puede colocar cualquier número de palos en la pila, cualquier número que pueda recoger a la vez y si el último palo recogido gana o pierde. Es MUY difícil de superar. En algunas configuraciones, es imposible de superar. ¿Es porque el programa de computadora es 'inteligente'? No. Es porque Pick Up Sticks es 'matemáticamente completo' y he escrito el programa con la fórmula matemática para el juego. Ese programa no es consciente, no puede superar su propia programación, pero a menudo se lo describe como 'muy inteligente', al menos hasta que las personas aprenden la fórmula, momento en el que se vuelven igual de difíciles de vencer en el juego.

En resumen, es mucho más probable que deduzcamos más sentimientos y vitalidad de un algoritmo informático de lo que es capaz de poseer. Eso no significa que no debamos tener cuidado; simplemente significa que un programador debe considerar los impactos de los resultados del programa más que considerar el 'bienestar' del programa al crear un programa poderoso como una IA.

Pero por el bien del argumento...

Supongamos que es posible una IA 'funcionalmente equivalente a la humana' y alguien decide construirla (según los comentarios);

Lo que tienes es un niño.

Los criamos todo el tiempo y, como padres, somos responsables (en primer lugar) de su bienestar, (en segundo lugar) de sus acciones y (finalmente) de su capacidad para unirse a nuestra sociedad como miembros y contribuyentes bien ajustados.

Claro, esto es diferente en la medida en que el 'niño' es de alguna manera mucho más poderoso que un niño humano, pero al mismo tiempo mucho más frágil. Por lo tanto, el cuidado de tal 'criatura' entra en un territorio desconocido, pero para extrapolar, el creador tendría la responsabilidad de garantizar que su creación tenga sus necesidades (¿electricidad?) satisfechas, tenga acceso solo al material apropiado para su nivel de desarrollo. , tiene todas las oportunidades de socializar con humanos bien adaptados y potencialmente con otros de su tipo, etc.

No tendríamos que preocuparnos por algunos de nuestros complejos biológicos (como restringir su acceso al material sobre la reproducción humana), pero podrían introducirse otros nuevos; ¿realmente queremos que sepa que puede interrumpirse por un corte de energía sostenido, por ejemplo?

La mayor preocupación ética individual sería garantizar que no pueda reproducirse por sí solo. Una cosa es crear un niño y otra muy distinta crear una nueva especie. Si uno estuviera preparado para hacer eso, entonces sería responsable ante el resto de la humanidad por cualquier daño causado por la especie, que es mucho más difícil de controlar que un niño exótico.

Esta es una lectura muy interesante, y me gusta especialmente la información sobre taxonomía. Al comenzar, no estaba seguro de cómo referirme a las distintas piezas. Sin embargo, por el bien de la pregunta, preferiría que la suposición de una respuesta que estaría buscando fuera que la Conciencia Artificial creada sería funcionalmente idéntica a un humano, aunque atrapada en una computadora. ¡Gracias! :)
Desafortunadamente, no puedo votar esto después de sus buenos cambios. :( Muy bonito, gracias.
"Lo que no pueden hacer es sentir emociones o ser impulsados ​​por un instinto de supervivencia innato como pueden ser los humanos". Esta declaración no tiene fundamento en la evidencia. Nuestros cerebros son una máquina biológica compleja pero mundana que produce emociones basadas en procesos químicos. No hay nada que sugiera que una máquina diseñada por seres fenomenológicos no podría replicar el comportamiento humano actual. Para ser claros, no creo que una máquina así tenga ningún parecido con las computadoras de hoy.