¿Cómo prohibiría una sociedad la inteligencia artificial sin prohibir las computadoras? [cerrado]

Una forma de evitar un "apocalipsis robótico" sería prohibir por completo la inteligencia artificial. Pero, ¿y si quisieran mantener algunas computadoras, solo por razones prácticas? ¿Qué tipo de limitaciones pondrían para evitar que se vuelvan demasiado poderosos?

Hay dos formas en las que puedo imaginar que hagan esto: prohibir las computadoras con especificaciones superiores a un cierto límite o más simplemente prohibir cierto hardware (como las CPU). Sin embargo, dudo que prohíban qué tipo de software podrían tener las computadoras porque realmente no habría forma de prohibir el software sin prohibir también todo lo demás. Tomando clases de programación yo mismo, sé que incluso unas pocas 'etiquetas' pueden usarse para hacer una sorprendente variedad de programas. En realidad, casi todo se compone de declaraciones 'si-entonces'.

Pero en realidad, si prohibieran las computadoras poderosas, esto causaría otros problemas. ¿Podrían las computadoras seguir reduciéndose de tamaño con el tiempo, siempre y cuando las empresas no produzcan computadoras con especificaciones superiores al límite? Si es así, ¿no abriría eso la posibilidad de que alguien vuelva a hacer una computadora superinteligente?

Me imagino que a la gente le gustaría tener al menos bases de datos y quizás programas de oficina. Los juegos primitivos también pueden ser tolerados, aunque los juegos tridimensionales probablemente sean cosa del pasado. Algunas naciones pueden simplemente prohibir las computadoras en general. O no permita nada más avanzado que una simple calculadora manual. Y por 'simple', me refiero al tipo que no puede dibujar gráficos y solo puede hacer sumas, restas, multiplicaciones y divisiones.

Por supuesto, a pesar de sus mejores esfuerzos, aún habría computadoras de alta gama dando vueltas, y aún habría personas con el conocimiento para hacer más. Y estoy seguro de que a una nación canalla no le importaría intentar desarrollar una IA avanzada con fines militares.

En cuanto al conmundo que tenía en mente, me imagino un mundo donde ocurrió un levantamiento de robots. Se las arreglaron para suprimirlo, y ahora todos quieren evitar más avances en la IA o el nivel de IA que permitió que ocurriera el levantamiento en primer lugar. Esto crearía una especie de mundo retrofuturista, ya que todas las tecnologías actuales tendrían que depender únicamente de tecnología más antigua, ya que no se toleraría la informática de alta gama.

¿Qué es una "sociedad"? ¿Una ciudad, un país, una confederación suelta de múltiples países como la UE, "Occidente", todos de la humanidad? Para una ciudad o un país o incluso para toda la UE no funcionará: otras ciudades o países que no limiten voluntariamente su tecnología los aplastarán económicamente y eventualmente los conquistarán. Es bastante obvio que una idea tan estúpida puede sobrevivir sólo si toda la humanidad acepta estar sujeta a las reglas tontas; pero luego tienes un problema mucho más difícil: cómo unir a toda la humanidad bajo el talón de hierro de un dictador.
AI significa muchas cosas para las personas que no son informáticos. Aclare lo que quiere decir con IA, porque hay todo un mundo entre la IA en general y el "levantamiento de robots". Está sobrestimando la potencia informática necesaria para la IA práctica. Uno de los primeros sistemas expertos exitosos fue el legendario XCON , que se ejecutaba en computadoras cien veces más lento que el procesador Atom de nivel de entrada más barato que podría comprar hoy. Todavía no sabemos si es posible hacer una IA autoconsciente de propósito general , y no estamos ni cerca de poder hacer una.
Para un tratamiento interesante y posiblemente esclarecedor del tema, vea si puede obtener una copia de Antibodies de Charles Stross, está en la colección Toast . Por cierto, esta es también más o menos la historia de la serie Dune .
Las computadoras ahora son efectivamente ubicuas y no tenemos IA en el modo totalmente consciente de sí mismo. Ciertamente no al nivel del apocalipsis de los robots. Si se prohibiera la verdadera IA, se habría estado ejecutando en computadoras o redes mucho más poderosas que cualquier cosa que tengamos hoy. Su mundo retro-futuro se vería mucho más computarizado que el suyo. Así que habría montones de ordenadores por todas partes. Pero no hay IA ni robots inteligentes.
Bueno, lo admito, parte del motivo de la prohibición también es evitar el 'desempleo tecnológico'. Entonces, realmente, cualquier forma de automatización física está prohibida. No quieren máquinas que puedan afectar físicamente al mundo de ninguna manera, o que tomen decisiones por su cuenta. Personalmente, no creo que el 'levantamiento' fuera realmente una 'revuelta', sino más bien robots militares que salieron mal. Tenían máquinas que manejaban todo su complejo militar-industrial, incluso permitiéndole tomar decisiones por sí mismo. La computadora terminó haciendo cosas que no eran buenas para la vida orgánica. Además, tenía la capacidad de fabricar más de sí mismo.
Lo que sucedió fue más sobre los robots de fábrica que se multiplicaron sin control que cualquier otra cosa. Causaron un gran daño al medio ambiente, ya que, por supuesto, el clima realmente no les importa (no necesitan comida ni oxígeno). Las máquinas incluso nivelarían ciudades solo por recursos. Realmente no los veo como verdaderamente inteligentes, pero sin pensar harían cosas que pueden o no beneficiar a los humanos. Los humanos simplemente le dieron a las computadoras demasiada agencia. Quiero decir, confiaban en ellos para la investigación científica e incluso para tomar algunas decisiones militares.
Estaban usando computadoras en tácticas militares, e incluso para decirles cómo distribuir los recursos y qué debían hacer. Básicamente estaban usando calculadoras para decidir qué debían hacer. Incluso permitiendo que las calculadoras controlen directamente el hardware militar. Obviamente, esto terminó en un desastre. Y, por supuesto, con el tipo de cosas que suceden en línea hoy (como la intromisión de Rusia en las elecciones extranjeras), me imagino que la gente en el futuro sería mucho más cautelosa con Internet que nosotros ahora.
Asegúrese de presentar el tipo y el nivel correctos de IA. La "IA fuerte" es básicamente un ser humano en un disco duro; hay seres artificiales mucho más poderosos en ese espectro.
Desde la perspectiva de alguien en la industria, la inteligencia artificial es un objetivo en movimiento. En los primeros días, una declaración elegante de "cambio" era suficiente para contar como un sistema experto. Luego fue heurística por un tiempo. Más recientemente, son varios tipos de redes neuronales. En este punto, las máquinas todavía no tienen voluntad, aunque pueden encontrar soluciones a preguntas que nunca se hicieron como un efecto secundario de resolver problemas particulares.

Respuestas (6)

Hasta que realmente sucede, una computadora se despierta y comienza a "humanizarnos", es decir, no podemos, no sabemos y no sabremos si la " IA fuerte " es siquiera posible. Una vez que suceda, sabremos exactamente qué tan lejos podemos llegar en términos de densidad computacional, mimetismo humano, codificación de complejidad genética, etc. antes de que obtengamos máquinas inteligentes potencialmente mortales que piensen que la respuesta apropiada para la humanidad es matarla . con fuego Entonces se pueden poner límites a esas tecnologías particulares.

Sin embargo, hay un problema, el mundo no sabrá si la investigación que los llevó a una IA fuerte la primera vez representa la única vía para tal situación o si todavía estamos abiertos a otro despegue difícil hasta que lleguen a un nuevo y forma diferente de la misma situación de nuevo. Entonces, no hay una solución dura y rápida para bloquear la IA, si postulas un mundo en el que sea posible, aparte de volver a lo básico, quita todos los chips de computadora de todo y vuélvete analógico.

Vale la pena considerar el impacto en la población mundial de su levantamiento de robots, eche un vistazo a esta pregunta sobre la regresión tecnológica para obtener algunos consejos. Es posible que no necesite poner límites a la tecnología durante mucho tiempo, momento en el cual las personas probablemente habrán olvidado cómo llegaron allí.

RE volviendo a lo analógico: las únicas inteligencias verdaderas que conocemos son analógicas...

Honestamente, como hemos visto hoy, prácticamente no existe un sistema que pueda prevenir el 100% de la actividad ilegal. El objetivo (uno espera) es diseñar un sistema que bloquee la mayor cantidad posible de actividad ilegal y, al mismo tiempo, minimice las molestias para el ciudadano respetuoso de la ley que no tiene conexión con la misma. Entonces, el sistema de cómo restringen la tecnología puede ser secundario a la mentalidad de la sociedad que acepta esos sistemas.

Aquí hay un par de ideas rudimentarias para los sistemas, aunque.

No debería necesitar prohibir las computadoras poderosas, solo prohibir ciertos programas y funciones que se ejecutan en ellas. Hacer que todas las computadoras en esta sociedad requieran estar conectadas a su versión de Internet, con un sistema central capaz de verificar que no esté ejecutando nada ilegal. Más bien totalitario, pero si se toma la decisión de tener tales límites, eso es lo que se obtiene.

La otra opción es convertir todos los dispositivos personales en terminales tontos, extrayendo toda la información de fuentes centrales. Incluso los juegos y otros programas usan el modelo de transmisión, como Playstation Now o algo similar (y con suerte mucho mejor). Eso limita la cantidad de máquinas verdaderamente poderosas que existen. Las máquinas de "funcionamiento nativo" solo se utilizan en empresas, laboratorios de ciencias e industria, e incluso entonces, podrían tener los requisitos de conexión enumerados anteriormente.

Cuanto mayor sea la amenaza que el gobierno ve en AI, más debe trabajar para convencer a la gente de eso, para que la gente acepte más restricciones en la causa de su prevención. Si su objetivo como escritor es mostrar que tales sistemas de IA son realmente incorrectos y peligrosos, entonces lo gira para que la ciudadanía esté de acuerdo y las restricciones se consideren razonables y aceptables. Si ya ha ocurrido un levantamiento, eso no debería ser difícil.

Todavía habrá muchas personas que no estarán de acuerdo, y algunas intentarán experimentar nuevamente. Y si ahí es donde quieres que vaya la historia, hay una cantidad de motivaciones razonables para ellos. Los científicos que simplemente quieren continuar explorando lo que podemos hacer, los legos que no están de acuerdo con la cultura supervisada que proporciona un sistema de este tipo, aquellos que ven a la IA como seres sensibles y niegan la idea de que no se les debería permitir existir, etc.

Un problema con este concepto es que requiere una cooperación global completa. Pero, si tener una IA funcional puede darle a alguien (un gobierno/empresa/organización criminal/grupo terrorista) una ventaja militar o económica, entonces probablemente no solo querrá tener una, sino que querrá tenerla antes que su la competencia lo hace. Esto sigue siendo cierto incluso después de un apocalipsis cercano: seguramente habrá algunas organizaciones que coloquen las posibles ganancias por encima de los riesgos. Y estos no serán solo científicos corruptos y anarquistas, sino también gobiernos, megacuerpos y organizaciones ilegales...
Es por eso que dije que bordeaba lo imposible de hacer cumplir perfectamente. La guerra de gérmenes es tremendamente ilegal, pero asumir que todas las grandes potencias no tienen reservas, incluso si lo hacen girar como "En caso de que alguna vez haya una fuga, necesitamos culturas para crear una cura", te estás engañando a ti mismo. Si la IA alguna vez vuelve a ser legal, o si algo malo sucede y solo más IA puede ayudar, entonces todos podrían afirmar que lograron la mayor noche en vela de todos los tiempos y sacar a relucir lo que tenían todo el tiempo.

La verdadera IA requiere una CAJA NEGRA .

Por CAJA NEGRA me refiero a algún componente exótico que no se encuentra en las computadoras o supercomputadoras modernas. En su mundo, el tipo de IA que tenemos hoy en día. aprendizaje automático, redes neuronales, etcétera nunca tendrá el potencial de volverse verdaderamente sensible. Pero cuando se descubre esta CAJA NEGRA , la verdadera IA se vuelve posible.

Cada uno de los robots del levantamiento de robots tenía una CAJA NEGRA como parte de su chasis, pero las computadoras de oficina de la época no. Dado que las computadoras de oficina no necesitan ser inteligentes, sería una pérdida de dinero tener una.

Después del levantamiento hubo una prohibición de las cajas BLACK BOX . Eso hace que toda la tecnología de nivel moderno siga siendo posible, pero prohíbe la verdadera IA. Podría dejar la puerta abierta a los mentats .

La CAJA NEGRA puede ser lo que quieras. Para los propósitos de la historia, es posible que nunca se explique. Una opción de moda sería algún pequeño procesador cuántico que permita a la computadora imitar las reacciones que ocurren en el cerebro humano.

La solución obvia parecería ser prohibir el software cuyo estado no pueda explicarse o predecirse completamente a partir del propio software y sus datos de entrada.

Para esto, estoy usando la definición de "inteligencia artificial" de algo así como "software que hace cosas que no son solicitadas directamente por el usuario o por rutas de código explícitas dentro de ese software"; coloquialmente, el software está diseñado para tomar decisiones por sí mismo. El software puede o no tener la capacidad de interactuar o influir en el mundo real, o ser influenciado por el mundo real; para esta definición en particular, eso es irrelevante. "Usuario", aquí, incluye datos de entrada proporcionados al software y no almacenados en medios persistentes de algún tipo, pero también podría incluir archivos de datos preparados previamente o incluso datos de sensores registrados del mundo real.

Por lo tanto, es perfectamente aceptable tener un procesador de textos, un juego 3D o incluso un software avanzado de control de vuelo para un avión; siempre que el estado de dicha pieza de software pueda explicarse por referencia a su código, sus datos almacenados de forma persistente y las entradas del usuario (o sensor). Incluso si el software utiliza números aleatorios, mientras esos números aleatorios sean los mismos, el estado resultante del software siempre será el mismo. Dadas las mismas entradas, el software estará en el mismo estado cada vez.

El software que no cumpla con esta barra estaría prohibido. Esto, por definición, incluiría software que de alguna manera toma "decisiones" por sí mismo, de una manera no controlada por sus entradas.

Tales prohibiciones podrían presentarse de diversas formas. Puede prohibir la distribución del software, o puede prohibir su creación, o puede prohibir su uso. Las implicaciones serían diferentes según el camino que tome, pero el resultado será en gran medida el mismo; fuera de círculos muy limitados, dicho software no existirá.

De hecho, esto no está tan lejos de lo que ya tenemos en algunos campos. Por ejemplo, en aviación existe el DO-178C que impone requisitos, entre otras cosas, sobre la previsibilidad del software en aviónica. Muy básicamente, y sin la intención de ser un resumen exacto; para el software crítico para la seguridad, se debe demostrar que el estado del software se puede predecir en función de las entradas, y el estado del software debe coincidir con los criterios de diseño; esas entradas pueden ser cosas como entradas de sensores simuladas del mundo real, pero si el software recibe las mismas entradas de sensores simuladas repetidamente, entonces su estado final debería (con suerte) ser idéntico y demostrar que se remonta a los criterios de diseño del software.

Por supuesto, probablemente hará que el desarrollo de software sea mucho más costoso que en nuestro mundo, si todos los estados posibles del software deben ser demostrablemente alcanzables por el mismo conjunto de entradas. Una cosa que probablemente no verás mucho es el subprocesamiento múltiple; es demasiado difícil lograr que haga exactamente las mismas cosas en el mismo orden, con cada estado intermedio siendo el mismo, e incluso cuando lo hace, pierde gran parte de la ventaja de los subprocesos múltiples al obligar al software a comportarse de esa manera. forma.

Prohibir el código fuente en los lenguajes completos de Turing.

Es realmente difícil hacer una computadora que no sea Turing-completa. Es realmente fácil construir sistemas que accidentalmente son Turing-completos. Por lo tanto, no querría ni necesitaría prohibir el hardware completo de Turing, o incluso los lenguajes ensambladores o las representaciones intermedias del compilador. Pero puede exigir que todo el código fuente escrito por programadores humanos se escriba en un lenguaje de alto nivel no completo de Turing totalmente verificable. Incluso hay buenas razones prácticas por las que esta restricción podría establecerse apartede solo prevenir la IA. Podría ser simplemente una cuestión de garantizar la seguridad y la calidad. El software patrocinado por el gobierno para proyectos críticos como los sistemas de control aeroespacial, donde un error significa, en el mejor de los casos, perder millones de dólares y, en el peor de los casos, la muerte de personas, requiere procedimientos de verificación formales extremadamente estrictos y restricciones en los estilos de codificación permitidos para minimizar ciertas clases de errores. . Entonces, solo necesita una situación política que le permita extender ese tipo de control de calidad ultraparanoico a todo el software, de modo que pueda ser castigado por escribir código en un lenguaje que no impone una verificabilidad formal perfecta en todo momento, lo que necesariamente significa no es Turing completo.

El acceso a lenguajes más potentes para aplicaciones específicas que realmente lo requieran aún podría estar disponible mediante la licencia específica del proyecto y la revisión del código oficial, asegurando que no se lleven a cabo proyectos de IA.

Edite para abordar los comentarios, ya que un comentario no proporciona suficiente espacio:

Primero, ¿por qué esto proporcionaría una garantía contra una IA fuerte? Bueno, creo que todos podemos estar de acuerdo en que los humanos son, a todos los efectos prácticos, capaces de realizar cálculos completos de Turing, módulo hasta la finitud de nuestros cráneos. Una máquina TC no puede ser simulada por una máquina que no sea TC, por lo que podemos concluir que ninguna máquina abstracta (es decir, programa) descrita en un marco que no sea TC puede replicar las capacidades cognitivas completas de una mente humana.

En segundo lugar, ¿cómo se escriben programas útiles en un marco que no es de TC? Hay numerosos enfoques posibles para esto, algunos más prácticos otros. Por ejemplo, uno podría simplemente restringir severamente la memoria disponible para cualquier programa en particular, de modo que pueda modelarse razonablemente como un autómata de estado finito. Hay muchos entornos del mundo real en los que esto se hace realmente, como cuando se programan procesadores integrados en dispositivos con recursos de hardware severamente restringidos.

Trivialmente, si puede lograr el estado de TC solo con bifurcación condicional y lectura/escritura de memoria arbitraria ... lo evita al rechazar explícitamente una o ambas características. Por ejemplo, el enfoque adoptado por lenguajes como GLSL para garantizar la terminación elimina las ramas no estructuradas, restringe la recursividad y requiere que todos los bucles tengan un límite superior determinado estáticamente. Superficialmente, el lenguaje parece "normal", pero los programas que fallan en el análisis semántico serán rechazados por el compilador incluso si son sintácticamente válidos. O bien, puede adoptar el enfoque utilizado por los sistemas de prueba formales como Coq, que requieren composición de expresiones, solo tienen estructuras de datos inmutables, solo usan expresiones condicionales en lugar de bifurcaciones, y reemplazan bucles y recursión general con recursión estructural estricta en datos finitos. Muchos programas útiles también se pueden escribir explícitamente como autómatas push-down. Si tuviera que diseñar un lenguaje que aplicara estáticamente las pautas de codificación C de la NASA, eso es más o menos lo que obtendría: sin asignación dinámica, solo acceso variable local, etc. Al abstraerse por completo de la memoria subyacente de la máquina, tales programas pueden ser re- conceptualizado en términos de analizadores-combinadores funcionales puros. La gran mayoría de los intérpretes, compiladores e incluso una gran cantidad de aplicaciones de NLP entran en esta categoría. Y luego está el enorme conjunto de programas útiles que se pueden expresar explícitamente como autómatas/transductores de estado finito. Esta es otra gran parte del espacio de NLP, así como servidores web estáticos, enrutadores de red, menús telefónicos automatizados, correctores ortográficos, etc. Si tuviera que diseñar un lenguaje que aplicara estáticamente las pautas de codificación C de la NASA, eso es más o menos lo que obtendría: sin asignación dinámica, solo acceso variable local, etc. Al abstraerse por completo de la memoria subyacente de la máquina, tales programas pueden ser re- conceptualizado en términos de analizadores-combinadores funcionales puros. La gran mayoría de los intérpretes, compiladores e incluso una gran cantidad de aplicaciones de NLP entran en esta categoría. Y luego está el enorme conjunto de programas útiles que se pueden expresar explícitamente como autómatas/transductores de estado finito. Esta es otra gran parte del espacio de NLP, así como servidores web estáticos, enrutadores de red, menús telefónicos automatizados, correctores ortográficos, etc. Si tuviera que diseñar un lenguaje que aplicara estáticamente las pautas de codificación C de la NASA, eso es más o menos lo que obtendría: sin asignación dinámica, solo acceso variable local, etc. Al abstraerse por completo de la memoria subyacente de la máquina, tales programas pueden ser re- conceptualizado en términos de analizadores-combinadores funcionales puros. La gran mayoría de los intérpretes, compiladores e incluso una gran cantidad de aplicaciones de NLP entran en esta categoría. Y luego está el enorme conjunto de programas útiles que se pueden expresar explícitamente como autómatas/transductores de estado finito. Esta es otra gran parte del espacio de NLP, así como servidores web estáticos, enrutadores de red, menús telefónicos automatizados, correctores ortográficos, etc. etc. Al abstraerse por completo de la memoria subyacente de la máquina, estos programas pueden reconceptualizarse en términos de analizadores-combinadores funcionales puros. La gran mayoría de los intérpretes, compiladores e incluso una gran cantidad de aplicaciones de NLP entran en esta categoría. Y luego está el enorme conjunto de programas útiles que se pueden expresar explícitamente como autómatas/transductores de estado finito. Esta es otra gran parte del espacio de NLP, así como servidores web estáticos, enrutadores de red, menús telefónicos automatizados, correctores ortográficos, etc. etc. Al abstraerse por completo de la memoria subyacente de la máquina, estos programas pueden reconceptualizarse en términos de analizadores-combinadores funcionales puros. La gran mayoría de los intérpretes, compiladores e incluso una gran cantidad de aplicaciones de NLP entran en esta categoría. Y luego está el enorme conjunto de programas útiles que se pueden expresar explícitamente como autómatas/transductores de estado finito. Esta es otra gran parte del espacio de NLP, así como servidores web estáticos, enrutadores de red, menús telefónicos automatizados, correctores ortográficos, etc. s el enorme conjunto de programas útiles que se pueden expresar explícitamente como transductores/autómatas de estado finito. Esta es otra gran parte del espacio de NLP, así como servidores web estáticos, enrutadores de red, menús telefónicos automatizados, correctores ortográficos, etc. s el enorme conjunto de programas útiles que se pueden expresar explícitamente como transductores/autómatas de estado finito. Esta es otra gran parte del espacio de NLP, así como servidores web estáticos, enrutadores de red, menús telefónicos automatizados, correctores ortográficos, etc.

Primero: considerando que cualquier lenguaje con bifurcación condicional (por ejemplo, declaraciones "if" o comandos "ir a") y la capacidad de leer/escribir en la memoria es Turing -completo , ¿cómo puede tal prohibición permitir que los programas sean útiles (sin bifurcación no deje espacio para algo más que cálculos de memoria, ninguna lectura/escritura de memoria hace que casi todas las tareas útiles sean imposibles)?
Segundo: ¿cómo no ser Turing completo es una garantía contra una IA fuerte?
@G0BLiN respondió en una edición, porque los comentarios no son lo suficientemente largos.

Antes de responder "cómo", debe responder "por qué".

La IA es el estudio de las cosas de la computadora que aún no funcionan. Esto se debe a que una vez que los investigadores de IA logran que algo funcione, deja de ser "IA" y se convierte en un algoritmo más.

Los primeros investigadores de IA comenzaron con el ajedrez. Luego se inventó el algoritmo Minimax, y se convirtió en solo una cuestión de ajustar la función de puntuación y darle más potencia informática. Jugar al ajedrez dejó de ser IA. Del mismo modo, la optimización de los compiladores, el reconocimiento de voz, la búsqueda de rutas y jugar un buen juego de Go se consideraron alguna vez como el ámbito de la investigación de la IA. Todo dejó de ser IA una vez resuelto el problema.

Desde que Mary Shelley escribió Frankenstein, casi todo el pensamiento sobre la vida artificial, incluida la IA, se ha basado en el tropo de la "revolución de los robots"; la suposición es que cualquier ser consciente y sintiente naturalmente querrá lo que todos los seres sintientes (es decir, todos los humanos) quieren: alguna combinación de dinero, poder , sexo y, por supuesto, la existencia continua del ser sintiente en cuestión. En este modelo, la "conciencia" y la "sensibilidad" se ven como cajas negras con una sola naturaleza atómica, y dado que los humanos somos seres conscientes, se deduce que esa naturaleza será esencialmente naturaleza humana.

Pero, ¿qué es la "naturaleza humana"? La mejor respuesta que tenemos es que es básicamente una colección de impulsos instintivos modulados hasta cierto punto por nuestro intelecto y educación.

Así que supongamos que descubrimos cómo crear seres conscientes y sintientes. Por definición, los entenderemos, seremos capaces de desarmarlos y volver a armarlos como queramos. La conciencia ya no será la caja negra sellada, será un juego de piezas. Podemos darle los instintos que queramos. Claro, alguien puede crear un monstruo megalómano con la intención de reproducirse y sobrevivir a toda costa, pero eso es una noticia vieja . En cambio, nos interesará más crear puertas automáticas que realmente estén felices de abrirse para usted y volver a cerrarse con la satisfacción del trabajo bien hecho . El malware artificialmente inteligente es una gran ciencia ficción, pero una vez que puede desarmarlo y analizarlo, no tiene ninguna esperanza de ocultar su verdadera naturaleza.

El verdadero problema es ético. Sí, puedes crear un ser sintiente, pero ¿tiene derechos? ¿Qué derechos tiene un esclavo creado? Si tiene derecho a la vida, a la libertad ya la búsqueda de la felicidad, ¿qué significa eso cuando la única felicidad que puede alcanzar es abriendo y cerrando puertas o manejando un ascensor ? Si las autoridades descubren tal ser, ¿tienen derecho a terminar con su existencia o editarlo para hacerlo "mejor" (lo que sea que eso signifique)?

Dado esto, sería perfectamente razonable prohibir la creación de seres sintientes artificiales. Tal prohibición aún tendría que ser aplicada, por supuesto. Sin duda, habrá algunas personas muy desagradables que simplemente construyan sus propias IA inteligentes aisladas para experimentar con ellas , o simplemente para torturar , y otras que construyan una puerta de entrada inteligente solo porque es una idea genial. Sin embargo, hacer tal cosa es como tener una planta de cannabis (antes); difícil de encontrar, pero una vez que las autoridades se den cuenta, pasará un momento desagradable. Por supuesto, tener algo conectado a la red será obvio con bastante rapidez , por lo que la aplicación se vuelve mucho más fácil.

"Así que supongamos que descubrimos cómo crear seres conscientes y sintientes. Por definición, los entenderemos, seremos capaces de desarmarlos y volver a armarlos", bueno, no necesariamente. Una forma de hacer IA es el enfoque de "caja negra" en el que la IA se mejora a sí misma sin que los humanos entiendan cómo lo hace exactamente. Tampoco diría que jugar al ajedrez o el reconocimiento de voz "dejó de ser IA" solo porque se implementó. Todavía es una IA de enfoque limitado diseñada para hacer el truco específico, pero el cerebro también se compone de funciones tan especializadas.