Una forma de evitar un "apocalipsis robótico" sería prohibir por completo la inteligencia artificial. Pero, ¿y si quisieran mantener algunas computadoras, solo por razones prácticas? ¿Qué tipo de limitaciones pondrían para evitar que se vuelvan demasiado poderosos?
Hay dos formas en las que puedo imaginar que hagan esto: prohibir las computadoras con especificaciones superiores a un cierto límite o más simplemente prohibir cierto hardware (como las CPU). Sin embargo, dudo que prohíban qué tipo de software podrían tener las computadoras porque realmente no habría forma de prohibir el software sin prohibir también todo lo demás. Tomando clases de programación yo mismo, sé que incluso unas pocas 'etiquetas' pueden usarse para hacer una sorprendente variedad de programas. En realidad, casi todo se compone de declaraciones 'si-entonces'.
Pero en realidad, si prohibieran las computadoras poderosas, esto causaría otros problemas. ¿Podrían las computadoras seguir reduciéndose de tamaño con el tiempo, siempre y cuando las empresas no produzcan computadoras con especificaciones superiores al límite? Si es así, ¿no abriría eso la posibilidad de que alguien vuelva a hacer una computadora superinteligente?
Me imagino que a la gente le gustaría tener al menos bases de datos y quizás programas de oficina. Los juegos primitivos también pueden ser tolerados, aunque los juegos tridimensionales probablemente sean cosa del pasado. Algunas naciones pueden simplemente prohibir las computadoras en general. O no permita nada más avanzado que una simple calculadora manual. Y por 'simple', me refiero al tipo que no puede dibujar gráficos y solo puede hacer sumas, restas, multiplicaciones y divisiones.
Por supuesto, a pesar de sus mejores esfuerzos, aún habría computadoras de alta gama dando vueltas, y aún habría personas con el conocimiento para hacer más. Y estoy seguro de que a una nación canalla no le importaría intentar desarrollar una IA avanzada con fines militares.
En cuanto al conmundo que tenía en mente, me imagino un mundo donde ocurrió un levantamiento de robots. Se las arreglaron para suprimirlo, y ahora todos quieren evitar más avances en la IA o el nivel de IA que permitió que ocurriera el levantamiento en primer lugar. Esto crearía una especie de mundo retrofuturista, ya que todas las tecnologías actuales tendrían que depender únicamente de tecnología más antigua, ya que no se toleraría la informática de alta gama.
Hasta que realmente sucede, una computadora se despierta y comienza a "humanizarnos", es decir, no podemos, no sabemos y no sabremos si la " IA fuerte " es siquiera posible. Una vez que suceda, sabremos exactamente qué tan lejos podemos llegar en términos de densidad computacional, mimetismo humano, codificación de complejidad genética, etc. antes de que obtengamos máquinas inteligentes potencialmente mortales que piensen que la respuesta apropiada para la humanidad es matarla . con fuego Entonces se pueden poner límites a esas tecnologías particulares.
Sin embargo, hay un problema, el mundo no sabrá si la investigación que los llevó a una IA fuerte la primera vez representa la única vía para tal situación o si todavía estamos abiertos a otro despegue difícil hasta que lleguen a un nuevo y forma diferente de la misma situación de nuevo. Entonces, no hay una solución dura y rápida para bloquear la IA, si postulas un mundo en el que sea posible, aparte de volver a lo básico, quita todos los chips de computadora de todo y vuélvete analógico.
Vale la pena considerar el impacto en la población mundial de su levantamiento de robots, eche un vistazo a esta pregunta sobre la regresión tecnológica para obtener algunos consejos. Es posible que no necesite poner límites a la tecnología durante mucho tiempo, momento en el cual las personas probablemente habrán olvidado cómo llegaron allí.
Honestamente, como hemos visto hoy, prácticamente no existe un sistema que pueda prevenir el 100% de la actividad ilegal. El objetivo (uno espera) es diseñar un sistema que bloquee la mayor cantidad posible de actividad ilegal y, al mismo tiempo, minimice las molestias para el ciudadano respetuoso de la ley que no tiene conexión con la misma. Entonces, el sistema de cómo restringen la tecnología puede ser secundario a la mentalidad de la sociedad que acepta esos sistemas.
Aquí hay un par de ideas rudimentarias para los sistemas, aunque.
No debería necesitar prohibir las computadoras poderosas, solo prohibir ciertos programas y funciones que se ejecutan en ellas. Hacer que todas las computadoras en esta sociedad requieran estar conectadas a su versión de Internet, con un sistema central capaz de verificar que no esté ejecutando nada ilegal. Más bien totalitario, pero si se toma la decisión de tener tales límites, eso es lo que se obtiene.
La otra opción es convertir todos los dispositivos personales en terminales tontos, extrayendo toda la información de fuentes centrales. Incluso los juegos y otros programas usan el modelo de transmisión, como Playstation Now o algo similar (y con suerte mucho mejor). Eso limita la cantidad de máquinas verdaderamente poderosas que existen. Las máquinas de "funcionamiento nativo" solo se utilizan en empresas, laboratorios de ciencias e industria, e incluso entonces, podrían tener los requisitos de conexión enumerados anteriormente.
Cuanto mayor sea la amenaza que el gobierno ve en AI, más debe trabajar para convencer a la gente de eso, para que la gente acepte más restricciones en la causa de su prevención. Si su objetivo como escritor es mostrar que tales sistemas de IA son realmente incorrectos y peligrosos, entonces lo gira para que la ciudadanía esté de acuerdo y las restricciones se consideren razonables y aceptables. Si ya ha ocurrido un levantamiento, eso no debería ser difícil.
Todavía habrá muchas personas que no estarán de acuerdo, y algunas intentarán experimentar nuevamente. Y si ahí es donde quieres que vaya la historia, hay una cantidad de motivaciones razonables para ellos. Los científicos que simplemente quieren continuar explorando lo que podemos hacer, los legos que no están de acuerdo con la cultura supervisada que proporciona un sistema de este tipo, aquellos que ven a la IA como seres sensibles y niegan la idea de que no se les debería permitir existir, etc.
La verdadera IA requiere una CAJA NEGRA .
Por CAJA NEGRA me refiero a algún componente exótico que no se encuentra en las computadoras o supercomputadoras modernas. En su mundo, el tipo de IA que tenemos hoy en día. aprendizaje automático, redes neuronales, etcétera nunca tendrá el potencial de volverse verdaderamente sensible. Pero cuando se descubre esta CAJA NEGRA , la verdadera IA se vuelve posible.
Cada uno de los robots del levantamiento de robots tenía una CAJA NEGRA como parte de su chasis, pero las computadoras de oficina de la época no. Dado que las computadoras de oficina no necesitan ser inteligentes, sería una pérdida de dinero tener una.
Después del levantamiento hubo una prohibición de las cajas BLACK BOX . Eso hace que toda la tecnología de nivel moderno siga siendo posible, pero prohíbe la verdadera IA. Podría dejar la puerta abierta a los mentats .
La CAJA NEGRA puede ser lo que quieras. Para los propósitos de la historia, es posible que nunca se explique. Una opción de moda sería algún pequeño procesador cuántico que permita a la computadora imitar las reacciones que ocurren en el cerebro humano.
La solución obvia parecería ser prohibir el software cuyo estado no pueda explicarse o predecirse completamente a partir del propio software y sus datos de entrada.
Para esto, estoy usando la definición de "inteligencia artificial" de algo así como "software que hace cosas que no son solicitadas directamente por el usuario o por rutas de código explícitas dentro de ese software"; coloquialmente, el software está diseñado para tomar decisiones por sí mismo. El software puede o no tener la capacidad de interactuar o influir en el mundo real, o ser influenciado por el mundo real; para esta definición en particular, eso es irrelevante. "Usuario", aquí, incluye datos de entrada proporcionados al software y no almacenados en medios persistentes de algún tipo, pero también podría incluir archivos de datos preparados previamente o incluso datos de sensores registrados del mundo real.
Por lo tanto, es perfectamente aceptable tener un procesador de textos, un juego 3D o incluso un software avanzado de control de vuelo para un avión; siempre que el estado de dicha pieza de software pueda explicarse por referencia a su código, sus datos almacenados de forma persistente y las entradas del usuario (o sensor). Incluso si el software utiliza números aleatorios, mientras esos números aleatorios sean los mismos, el estado resultante del software siempre será el mismo. Dadas las mismas entradas, el software estará en el mismo estado cada vez.
El software que no cumpla con esta barra estaría prohibido. Esto, por definición, incluiría software que de alguna manera toma "decisiones" por sí mismo, de una manera no controlada por sus entradas.
Tales prohibiciones podrían presentarse de diversas formas. Puede prohibir la distribución del software, o puede prohibir su creación, o puede prohibir su uso. Las implicaciones serían diferentes según el camino que tome, pero el resultado será en gran medida el mismo; fuera de círculos muy limitados, dicho software no existirá.
De hecho, esto no está tan lejos de lo que ya tenemos en algunos campos. Por ejemplo, en aviación existe el DO-178C que impone requisitos, entre otras cosas, sobre la previsibilidad del software en aviónica. Muy básicamente, y sin la intención de ser un resumen exacto; para el software crítico para la seguridad, se debe demostrar que el estado del software se puede predecir en función de las entradas, y el estado del software debe coincidir con los criterios de diseño; esas entradas pueden ser cosas como entradas de sensores simuladas del mundo real, pero si el software recibe las mismas entradas de sensores simuladas repetidamente, entonces su estado final debería (con suerte) ser idéntico y demostrar que se remonta a los criterios de diseño del software.
Por supuesto, probablemente hará que el desarrollo de software sea mucho más costoso que en nuestro mundo, si todos los estados posibles del software deben ser demostrablemente alcanzables por el mismo conjunto de entradas. Una cosa que probablemente no verás mucho es el subprocesamiento múltiple; es demasiado difícil lograr que haga exactamente las mismas cosas en el mismo orden, con cada estado intermedio siendo el mismo, e incluso cuando lo hace, pierde gran parte de la ventaja de los subprocesos múltiples al obligar al software a comportarse de esa manera. forma.
Prohibir el código fuente en los lenguajes completos de Turing.
Es realmente difícil hacer una computadora que no sea Turing-completa. Es realmente fácil construir sistemas que accidentalmente son Turing-completos. Por lo tanto, no querría ni necesitaría prohibir el hardware completo de Turing, o incluso los lenguajes ensambladores o las representaciones intermedias del compilador. Pero puede exigir que todo el código fuente escrito por programadores humanos se escriba en un lenguaje de alto nivel no completo de Turing totalmente verificable. Incluso hay buenas razones prácticas por las que esta restricción podría establecerse apartede solo prevenir la IA. Podría ser simplemente una cuestión de garantizar la seguridad y la calidad. El software patrocinado por el gobierno para proyectos críticos como los sistemas de control aeroespacial, donde un error significa, en el mejor de los casos, perder millones de dólares y, en el peor de los casos, la muerte de personas, requiere procedimientos de verificación formales extremadamente estrictos y restricciones en los estilos de codificación permitidos para minimizar ciertas clases de errores. . Entonces, solo necesita una situación política que le permita extender ese tipo de control de calidad ultraparanoico a todo el software, de modo que pueda ser castigado por escribir código en un lenguaje que no impone una verificabilidad formal perfecta en todo momento, lo que necesariamente significa no es Turing completo.
El acceso a lenguajes más potentes para aplicaciones específicas que realmente lo requieran aún podría estar disponible mediante la licencia específica del proyecto y la revisión del código oficial, asegurando que no se lleven a cabo proyectos de IA.
Edite para abordar los comentarios, ya que un comentario no proporciona suficiente espacio:
Primero, ¿por qué esto proporcionaría una garantía contra una IA fuerte? Bueno, creo que todos podemos estar de acuerdo en que los humanos son, a todos los efectos prácticos, capaces de realizar cálculos completos de Turing, módulo hasta la finitud de nuestros cráneos. Una máquina TC no puede ser simulada por una máquina que no sea TC, por lo que podemos concluir que ninguna máquina abstracta (es decir, programa) descrita en un marco que no sea TC puede replicar las capacidades cognitivas completas de una mente humana.
En segundo lugar, ¿cómo se escriben programas útiles en un marco que no es de TC? Hay numerosos enfoques posibles para esto, algunos más prácticos otros. Por ejemplo, uno podría simplemente restringir severamente la memoria disponible para cualquier programa en particular, de modo que pueda modelarse razonablemente como un autómata de estado finito. Hay muchos entornos del mundo real en los que esto se hace realmente, como cuando se programan procesadores integrados en dispositivos con recursos de hardware severamente restringidos.
Trivialmente, si puede lograr el estado de TC solo con bifurcación condicional y lectura/escritura de memoria arbitraria ... lo evita al rechazar explícitamente una o ambas características. Por ejemplo, el enfoque adoptado por lenguajes como GLSL para garantizar la terminación elimina las ramas no estructuradas, restringe la recursividad y requiere que todos los bucles tengan un límite superior determinado estáticamente. Superficialmente, el lenguaje parece "normal", pero los programas que fallan en el análisis semántico serán rechazados por el compilador incluso si son sintácticamente válidos. O bien, puede adoptar el enfoque utilizado por los sistemas de prueba formales como Coq, que requieren composición de expresiones, solo tienen estructuras de datos inmutables, solo usan expresiones condicionales en lugar de bifurcaciones, y reemplazan bucles y recursión general con recursión estructural estricta en datos finitos. Muchos programas útiles también se pueden escribir explícitamente como autómatas push-down. Si tuviera que diseñar un lenguaje que aplicara estáticamente las pautas de codificación C de la NASA, eso es más o menos lo que obtendría: sin asignación dinámica, solo acceso variable local, etc. Al abstraerse por completo de la memoria subyacente de la máquina, tales programas pueden ser re- conceptualizado en términos de analizadores-combinadores funcionales puros. La gran mayoría de los intérpretes, compiladores e incluso una gran cantidad de aplicaciones de NLP entran en esta categoría. Y luego está el enorme conjunto de programas útiles que se pueden expresar explícitamente como autómatas/transductores de estado finito. Esta es otra gran parte del espacio de NLP, así como servidores web estáticos, enrutadores de red, menús telefónicos automatizados, correctores ortográficos, etc. Si tuviera que diseñar un lenguaje que aplicara estáticamente las pautas de codificación C de la NASA, eso es más o menos lo que obtendría: sin asignación dinámica, solo acceso variable local, etc. Al abstraerse por completo de la memoria subyacente de la máquina, tales programas pueden ser re- conceptualizado en términos de analizadores-combinadores funcionales puros. La gran mayoría de los intérpretes, compiladores e incluso una gran cantidad de aplicaciones de NLP entran en esta categoría. Y luego está el enorme conjunto de programas útiles que se pueden expresar explícitamente como autómatas/transductores de estado finito. Esta es otra gran parte del espacio de NLP, así como servidores web estáticos, enrutadores de red, menús telefónicos automatizados, correctores ortográficos, etc. Si tuviera que diseñar un lenguaje que aplicara estáticamente las pautas de codificación C de la NASA, eso es más o menos lo que obtendría: sin asignación dinámica, solo acceso variable local, etc. Al abstraerse por completo de la memoria subyacente de la máquina, tales programas pueden ser re- conceptualizado en términos de analizadores-combinadores funcionales puros. La gran mayoría de los intérpretes, compiladores e incluso una gran cantidad de aplicaciones de NLP entran en esta categoría. Y luego está el enorme conjunto de programas útiles que se pueden expresar explícitamente como autómatas/transductores de estado finito. Esta es otra gran parte del espacio de NLP, así como servidores web estáticos, enrutadores de red, menús telefónicos automatizados, correctores ortográficos, etc. etc. Al abstraerse por completo de la memoria subyacente de la máquina, estos programas pueden reconceptualizarse en términos de analizadores-combinadores funcionales puros. La gran mayoría de los intérpretes, compiladores e incluso una gran cantidad de aplicaciones de NLP entran en esta categoría. Y luego está el enorme conjunto de programas útiles que se pueden expresar explícitamente como autómatas/transductores de estado finito. Esta es otra gran parte del espacio de NLP, así como servidores web estáticos, enrutadores de red, menús telefónicos automatizados, correctores ortográficos, etc. etc. Al abstraerse por completo de la memoria subyacente de la máquina, estos programas pueden reconceptualizarse en términos de analizadores-combinadores funcionales puros. La gran mayoría de los intérpretes, compiladores e incluso una gran cantidad de aplicaciones de NLP entran en esta categoría. Y luego está el enorme conjunto de programas útiles que se pueden expresar explícitamente como autómatas/transductores de estado finito. Esta es otra gran parte del espacio de NLP, así como servidores web estáticos, enrutadores de red, menús telefónicos automatizados, correctores ortográficos, etc. s el enorme conjunto de programas útiles que se pueden expresar explícitamente como transductores/autómatas de estado finito. Esta es otra gran parte del espacio de NLP, así como servidores web estáticos, enrutadores de red, menús telefónicos automatizados, correctores ortográficos, etc. s el enorme conjunto de programas útiles que se pueden expresar explícitamente como transductores/autómatas de estado finito. Esta es otra gran parte del espacio de NLP, así como servidores web estáticos, enrutadores de red, menús telefónicos automatizados, correctores ortográficos, etc.
Antes de responder "cómo", debe responder "por qué".
La IA es el estudio de las cosas de la computadora que aún no funcionan. Esto se debe a que una vez que los investigadores de IA logran que algo funcione, deja de ser "IA" y se convierte en un algoritmo más.
Los primeros investigadores de IA comenzaron con el ajedrez. Luego se inventó el algoritmo Minimax, y se convirtió en solo una cuestión de ajustar la función de puntuación y darle más potencia informática. Jugar al ajedrez dejó de ser IA. Del mismo modo, la optimización de los compiladores, el reconocimiento de voz, la búsqueda de rutas y jugar un buen juego de Go se consideraron alguna vez como el ámbito de la investigación de la IA. Todo dejó de ser IA una vez resuelto el problema.
Desde que Mary Shelley escribió Frankenstein, casi todo el pensamiento sobre la vida artificial, incluida la IA, se ha basado en el tropo de la "revolución de los robots"; la suposición es que cualquier ser consciente y sintiente naturalmente querrá lo que todos los seres sintientes (es decir, todos los humanos) quieren: alguna combinación de dinero, poder , sexo y, por supuesto, la existencia continua del ser sintiente en cuestión. En este modelo, la "conciencia" y la "sensibilidad" se ven como cajas negras con una sola naturaleza atómica, y dado que los humanos somos seres conscientes, se deduce que esa naturaleza será esencialmente naturaleza humana.
Pero, ¿qué es la "naturaleza humana"? La mejor respuesta que tenemos es que es básicamente una colección de impulsos instintivos modulados hasta cierto punto por nuestro intelecto y educación.
Así que supongamos que descubrimos cómo crear seres conscientes y sintientes. Por definición, los entenderemos, seremos capaces de desarmarlos y volver a armarlos como queramos. La conciencia ya no será la caja negra sellada, será un juego de piezas. Podemos darle los instintos que queramos. Claro, alguien puede crear un monstruo megalómano con la intención de reproducirse y sobrevivir a toda costa, pero eso es una noticia vieja . En cambio, nos interesará más crear puertas automáticas que realmente estén felices de abrirse para usted y volver a cerrarse con la satisfacción del trabajo bien hecho . El malware artificialmente inteligente es una gran ciencia ficción, pero una vez que puede desarmarlo y analizarlo, no tiene ninguna esperanza de ocultar su verdadera naturaleza.
El verdadero problema es ético. Sí, puedes crear un ser sintiente, pero ¿tiene derechos? ¿Qué derechos tiene un esclavo creado? Si tiene derecho a la vida, a la libertad ya la búsqueda de la felicidad, ¿qué significa eso cuando la única felicidad que puede alcanzar es abriendo y cerrando puertas o manejando un ascensor ? Si las autoridades descubren tal ser, ¿tienen derecho a terminar con su existencia o editarlo para hacerlo "mejor" (lo que sea que eso signifique)?
Dado esto, sería perfectamente razonable prohibir la creación de seres sintientes artificiales. Tal prohibición aún tendría que ser aplicada, por supuesto. Sin duda, habrá algunas personas muy desagradables que simplemente construyan sus propias IA inteligentes aisladas para experimentar con ellas , o simplemente para torturar , y otras que construyan una puerta de entrada inteligente solo porque es una idea genial. Sin embargo, hacer tal cosa es como tener una planta de cannabis (antes); difícil de encontrar, pero una vez que las autoridades se den cuenta, pasará un momento desagradable. Por supuesto, tener algo conectado a la red será obvio con bastante rapidez , por lo que la aplicación se vuelve mucho más fácil.
AlexP
AlexP
Ceniza
a4android
usuario50663
usuario50663
usuario50663
Ceniza
chico pojo