Muchas historias han hecho IA antes, pero muchas de ellas se sienten poco realistas. Si crea una IA que es tan inteligente como los humanos, pero con una velocidad de reacción más rápida y la capacidad de procesar y calcular ciertos conceptos a velocidades inmensamente mayores que los humanos, los humanos no tienen sentido. La pregunta que siempre me queda es por qué los humanos están involucrados en las historias, ¿por qué no decirle a la IA qué hacer y dejar que haga cosas? ¿Una interfaz humana simplemente ralentiza las cosas?
Entonces, quiero imaginar un mundo que tenga IA inteligente, pero que no sea intrínsecamente superior a los humanos. Imagine una situación en la que tiene un pequeño equipo de robots y humanos involucrados en alguna actividad compleja, algo físicamente desafiante, que requiere planificación a largo plazo, adaptación y reflejos rápidos. ¿Cómo podría crear un sistema en el que los humanos y la IA sean igualmente relevantes para realizar la tarea?
Supongo que el truco sería evitar que la IA tenga una inteligencia de nivel bastante humano, pero ¿cómo sería una IA como esa? Suponiendo que la IA es capaz de mantener conversaciones básicas, analizar oraciones y comunicarse al nivel de un niño pequeño como mínimo, y tiene a su disposición grandes velocidades de procesamiento y memoria, ¿en qué lucharía? ¿Cuáles son los cerebros humanos más adecuados que cualquier IA de silicona que podamos diseñar en un futuro cercano ? ¿Carecería esta IA de la capacidad de planificar en un futuro distante porque todavía trabajan en el enfoque de "procesar todos los resultados posibles, una iteración a la vez"? ¿Les faltaría más creatividad, etc.?
¿Qué haría tal IA sustancialmente mejor que nosotros?
Me interesaría escuchar no solo qué límites pueden tener, sino también sus pensamientos sobre las causas de los límites, ¿por qué la implementación de la IA que tenemos es menos capaz de realizar una tarea determinada que un humano estándar?
Diseñaríamos tales robots inteligentes para complementar nuestras propias habilidades. Antes de que podamos crear superinteligencias divinas, primero crearemos lo que nos sea útil: con un conjunto de funciones y capacidad limitados, primero implementaríamos lo que necesitamos , no duplicaríamos lo que ya hacemos.
Entonces, en esa configuración, naturalmente encontrará que los robots tienen diferentes habilidades con una gran falta de superposición.
Personalmente, creo que la IA temprana será experta en un área estrecha y no comprenderá nada más, incluida la cultura humana. Tal vez requiera que los expertos se comuniquen con ellos, a pesar de que pueden usar un lenguaje hablado "natural", porque hablar normalmente está lleno de contexto cultural y modismos; sería más como programación o consultas sql.
Las IA robóticas parecerían inmaduras según nuestros estándares
Supongo que, debido a que las IA se basan en computadoras, sus habilidades deductivas serán insuperables. Esto es en lo que las computadoras son históricamente buenas. Las diferencias entre las IA y los humanos aparecerían en cómo manejan el razonamiento inductivo.
Una parte importante del razonamiento inductivo es tener una "corazonada" sobre el curso de acción correcto en una situación que nunca antes ha analizado. Esto es muy importante para situaciones en las que debes actuar correctamente la primera vez y es inviable entrenar para la actividad. Por ejemplo, desconfiaríamos de ellos como pilotos. Los humanos han mostrado una notable desconfianza hacia los pilotos computarizados con la teoría de que los pilotos humanos tienen "algo más".
Vemos este tipo de problema cuando se trata de niños. Los niños generalmente están más dispuestos a correr riesgos solo para ver qué sucede; los adultos desarrollan algo que nos gusta llamar "moderación".
La cultura nos proporciona un marco para "aprender" esta lógica inductiva. Durante siglos hemos desarrollado las mejores formas de adoctrinar un cerebro con buenos comportamientos (o al menos nos gusta pensar que son los mejores). Usamos prosa florida y parábolas para enseñar lo imposible de enseñar.
Toda nuestra cultura está diseñada para enseñar cerebros humanos, no cerebros de IA. Esto significa que sería más difícil para una IA aprovechar nuestras enseñanzas que para un niño hacer lo mismo. "El hogar es donde está el corazón" es extremadamente difícil de asignar significado cuando "Hogar" es una palabra muy abstracta y "corazón" es un órgano que no tienes como IA.
Una IA podría necesitar siglos para desarrollar su propio equivalente de cultura.
Parece asumir que una IA sería, en cierto sentido, bastante similar a los humanos. Esa es una limitación bastante estricta, pero supongo que hace que sea más fácil contar una historia.
Entonces, si las IA son de hecho similares a los humanos, pero superan a los humanos en ciertos aspectos, y su pregunta es, "¿cuál es la razón en el mundo para tener humanos (tradicionales) cerca?", mi oportunidad de respuesta sería, "por la misma razón por la que tenemos más de un ser humano”. Si sus IA son esencialmente cercanas a los humanos, tienden a asumir roles tradicionalmente ocupados por humanos.
JFTR, permítanme criticar un motivo mío: muchos autores de ciencia ficción tienden a suponer que una IA avanzada entendería cómo funciona. No veo por qué debería ser así. Incluso suponiendo que sus constructores lo hagan (y a menudo hay una brecha entre lo que podemos construir como ingenieros informáticos y lo que podemos explicar como científicos informáticos, sin mencionar la cooperación entre expertos en diferentes campos), es poco probable que sea lo primero que enseñen. su bebe
Muchas de las respuestas aquí mencionan cosas que suenan bien, pero que realmente no tienen sentido para quienes han trabajado con aprendizaje automático. Me referiré a algunos:
Primero implementaríamos lo que necesitamos, no duplicaríamos lo que ya hacemos
Aunque esto suena lógico, de hecho, las redes neuronales artificiales han demostrado que realizan tareas similares a las del cerebro animal sin estar programadas para . Por ejemplo, las máquinas diseñadas para escuchar automáticamente comenzaron a filtrar el ruido de fondo y amplificar los ruidos de los animales. Hubo una innovación reciente con resultados similares con respecto a la visión artificial, aunque no recuerdo los detalles.
El razonamiento inductivo en el aprendizaje automático se denomina aprendizaje no supervisado , es una forma de cuantificación vectorial y es extremadamente avanzado. Resulta que las máquinas son mejores para generalizar soluciones conocidas a nuevas soluciones y también para identificar qué elementos no se deben considerar en el reconocimiento de patrones. La IA ya es mejor en el razonamiento inductivo que los humanos.
De hecho, AI entiende mucho mejor que los hombres lo que quieren las mujeres románticas y entiende mejor que las mujeres lo que quieren los hombres románticos. Ese hecho es cierto incluso cuando se ignora el aspecto romántico: AI sabe lo que tu pareja quiere mejor que tú. Y la IA ya es mejor que los humanos para seleccionar socios para relaciones exitosas a largo plazo. Todos los grandes sitios de citas utilizan la IA de forma extensiva.
No. AI tendría más contexto que humano. Por un lado, la IA puede tener acceso a la historia del hablante y a señales fisiológicas sutiles. Por otro lado, la IA puede calcular y predecir los resultados de ambas interpretaciones y usar esa información para decidir qué interpretación es la correcta.
Lucharían por lo mismo que hacen los humanos: la ambigüedad.
No importa cuán buena sea su IA, recopilar suficientes datos, lo suficientemente buenos como para tomar decisiones "perfectamente lógicas", es una hazaña prácticamente imposible de lograr.
AI necesitaría tomar decisiones basadas en datos incompletos y datos que no se pueden verificar adecuadamente para que sean correctos. Este es básicamente el núcleo de la respuesta de Cort Ammon. Los seres humanos aprenden a tomar ese tipo de decisiones desde el nacimiento y nuestra sociedad está hecha para permitirnos vivir con los efectos de esas decisiones. Aprendemos a hacer y aceptar el riesgo y tenemos instituciones para protegernos del riesgo.
Cuanto mejor sea la IA, más humana será su toma de decisiones. Todas esas historias de "IA trata de matar a la humanidad" son en su mayoría sobre IA que no entiende que tratar de matar a toda la humanidad es una decisión extremadamente arriesgada y que la humanidad es mala para sí misma ni siquiera es una deducción garantizada.
Problemas de escasez y limitaciones de potencia informática
A mi modo de ver, la principal limitación hacia la expansión ilimitada de la capacidad en este momento radica en la miniaturización y el consumo de energía. Tendremos usos para los casi AGI tan pronto como puedan existir, por lo que los primeros casi AGI superarán los límites en términos de recursos necesarios:
Eso podría significar una de dos cosas:
1) El controlador del "cerebro" del androide en realidad no está en escena y, por lo tanto, está sujeto al retraso de la velocidad de la luz y la interferencia de la señal. Imagine que su policía robot se resiste a seguir a los sospechosos hasta el pozo de la mina o el edificio enjaulado de Faraday antes de establecer una red de retransmisión de comunicaciones duradera en el camino.
2) Alto consumo de energía. Con un puñado de IA y cíbridos superpoderosos que ejecutan los sistemas financieros del mundo y ejecutan su equipo extravagante con gigavatios de energía, la electricidad es costosa para los humanos básicos y también para las IA de nivel inferior, mientras que las nuevas plantas de energía tardan años en construirse, lo cual es lento. en comparación con la rapidez con la que se mueven las cosas en el campo de la IA.
Cooperación
Ahora, ¿en qué pueden cooperar los humanos y la IA en un entorno cercano a AGI? En primer lugar, cada instancia de IA y robótica debe fabricarse (y probablemente será bastante costoso comenzar). Mientras tanto, ya tendremos alrededor de 9 mil millones de fuentes de trabajo carnosas y compactas. Entonces, incluso si los casi AGI son mejores en cada tarea individual para la que han sido entrenados, aún les tomaría décadas acumular números, por lo que la mayoría de las tareas aún serían realizadas por humanos.
Near-AGI puede detectar fácilmente mentiras (flujo sanguíneo, cambios inconscientes de varios tipos), pero no será tan bueno como los humanos en los aspectos más sutiles de la comunicación. Así que imagine casi AGI como un activo (codiciado y disputado) durante un interrogatorio de la CIA o el FBI. Tu propio Sherlock artificial, lástima que haya tan pocos.
Ventaja comparativa temporal humana (además de los números)
De manera más general, los casi AGI serían sistemas expertos en cualquier dominio estrecho en el que pudieran estar diseñados para funcionar, por lo que las ventajas humanas tendrían que estar en la integración entre dominios.
Aquí están mis dos centavos. Primero, algunos comentarios generales, en orden aleatorio:
El elemento crucial es cómo se define 'inteligente'. No estoy familiarizado con el trabajo sobre el tema, pero al menos en la vida ordinaria 'inteligente' no equivale a 'bueno en algo específico'. Por ejemplo, uno puede ser inteligente y bueno en matemáticas, o bueno en literatura.
¿Llamarías a un algoritmo, por complejo que sea, 'inteligente'? ¿Como el ejemplo de los sitios de citas que alguien mencionó en otra respuesta? Yo no lo haría. Mi propia definición imprecisa probablemente se centraría en la inteligencia relacionada con el desempeño en circunstancias fuera de los parámetros de diseño... No llamaría inteligente a ningún algoritmo, independientemente de qué tan bien haga el trabajo. Eficiente, inteligente, ingenioso, sí, pero no inteligente .
Dos dimensiones más de la inteligencia:
(1) Hay una diferencia entre ser lo suficientemente inteligente para reconocer un patrón en el flujo de datos (algo en lo que las computadoras se están volviendo bastante buenas) y ser lo suficientemente inteligente para formular una teoría sobre por qué sucede así (es decir, comprender y, por lo tanto, ser capaz de predecir el futuro).
(2) Parece haber mucha confusión entre 'inteligente' y 'que posee libre albedrío' y ser capaz de actuar por iniciativa propia. Estos no son idénticos.
Esto requiere algún criterio objetivo externo para funcionar. Debe tener en cuenta que hay algunas cosas que son cuantificables (y, por lo tanto, pueden compararse entre sí y clasificarse) y hay cosas que son el resultado de juicios de valor (valores morales o preferencias). Estos últimos no se pueden comparar entre sí, son igualmente válidos.
Además, estos generalmente no se traducen bien cuando se usan en el contexto de realizar una tarea concreta. Para eso, necesita 'adecuado' (puede hacer el trabajo) y 'costo' (cuánto le costará en términos de algún recurso limitado). Para ser eficiente, elija la forma más barata que haga el trabajo, no la mejor. Busque 'ventaja absoluta' y 'ventaja comparativa' en economía. En términos sencillos, no debes pedirle a un genio que realice una tarea rutinaria, asígnale las tareas realmente difíciles.
@Christopher Creutzig ya aludió a algo similar. Una IA podría (¿debería?) ser capaz de entender cómo funciona, al menos debería ser lo suficientemente fácil como para cargarle las especificaciones de diseño. Y, lo que es más importante, debería poder modificar su funcionamiento interno para alinearse mejor con la tarea en cuestión. En cierto sentido, debería ser mucho mejor concentrarse en lo que debería estar haciendo y no distraerse.
Esto también incluye la capacidad de reconocer habilidades insuficientes y poder cargar módulos de habilidades según sea necesario ("Sé kung-fu"). En una configuración de IA, esto sería casi instantáneo, mientras que en los humanos no lo es. Esto es tanto una bendición como una pesadilla. Una bendición porque está disponible de inmediato y es una copia al 100 % de la habilidad original. Una pesadilla por las mismas cosas: el aprendizaje humano también está estrechamente relacionado con la introducción de variaciones en la habilidad que se está aprendiendo, lo que en última instancia puede resultar en su mejora.
No tengo conocimiento de dos humanos que sean 100% iguales, o que hayan sido 100% iguales en algún momento. Las IA son, por definición, al menos dada la tecnología actual, un conjunto digital de registros y, como tales, pueden replicarse a voluntad. Por supuesto, a medida que adquieran experiencia, divergirán, pero al menos tenemos la posibilidad de que 'nazcan' absolutamente idénticos. A menos, por supuesto, que llegar a una verdadera IA requiera adentrarse tanto en cosas cuánticas que no pueda obtener dos copias idénticas.
Hay dos corolarios de esto: (1) La capacidad de copiar y reproducir, es decir, generar múltiples copias exactas, ciertamente no factible para los humanos en la actualidad. Muy útil para cualquier cosa que requiera múltiples unidades autónomas pero muy similares (¿el ejército?). (2) Pasar a una plataforma de hardware más potente. Piense en hacer overclocking en la CPU o pasar de una computadora portátil a una computadora central. Puede ejecutar el mismo 'programa' en un hardware mucho más rápido.
La mayoría de las definiciones de IA parecen relacionarse con el proceso de pensamiento, es decir, qué tan bien imita el proceso de pensamiento humano. Una de las principales ventajas (¡o posiblemente también una desventaja!) de una computadora/IA es la capacidad de acceder rápidamente a la información, incl. las experiencias pasadas de uno. Piense en un recuerdo perfecto (un registro directo de todas las entradas de los sensores, etc.) Ningún ser humano que conozco puede hacer eso.
Finalmente, en sus puntos:
Las computadoras ya son sustancialmente mejores que los humanos en muchas tareas repetitivas, como el cálculo simple (*). La ventaja aumenta enormemente cuando se puede emplear el cálculo paralelo. De manera similar, una IA debería poder hacer muchas cosas simultáneamente (relativamente simples para su nivel de 'inteligencia' o poder de cómputo, por supuesto). Esto se traduce directamente en una mejor gestión del inventario: realizar un seguimiento de los "recursos" que tiene. En este sentido, las computadoras (sí, sin necesidad de IA) ya deberían ser mejores que los humanos en la planificación a largo plazo si las reglas del juego no cambian . Si lo hacen, esp. De manera impredecible, los humanos parecen ajustar mejor los objetivos y las definiciones.
(*) "Simple" significa todo lo que sigue un programa escrito previamente, por complejo que sea. No es simple comienza cuando la IA es capaz de seleccionar tanto los algoritmos como los criterios en sí. No sé lo suficiente si estamos allí todavía.
¿Cómo podría crear un sistema en el que los humanos y la IA sean igualmente relevantes para realizar la tarea?
Aparte de lo obvio (elija una tarea apropiada donde sean igualmente relevantes a pesar de las diferencias, debido a algún factor externo, vea a continuación, por ejemplo), hay dos posibilidades, que no son mutuamente excluyentes:
(1) Eliminar las claras ventajas discutidas anteriormente. Es decir, simplemente sustituir el 'hardware' biológico humano por una máquina equivalente. Como el cerebro positrónico de Asimov (de memoria, todos están estampados en la misma matriz de producción pero debido a algunas cosas cuánticas salen diferentes). (2) Permitir que los humanos obtengan algunas de las ventajas (p. ej., implantes, capacidad de escanearse en una máquina y seguir siendo una copia al 100 %, etc.)
Estos podrían conducir a una regresión a la media, es decir, borrando la diferencia entre el hombre y la máquina. Si un humano puede escanearse en una máquina, ¿es esto una IA o un humano?
¿Qué situaciones podrían ayudar a que las IA y los humanos sean iguales? Hay algunas ideas en las otras respuestas. Piense en presupuestos de energía limitados, por ejemplo. Ponga un contexto económico: debe tener en cuenta tanto los beneficios como los costos. Por ejemplo, una IA podría ser mucho mejor en algo, pero seguir siendo prohibitivamente costosa. Una situación simple: estás en el camino, muy lejos de la civilización. Necesita resolver un problema simple: sume 50 números de 4 dígitos. Podría conducir de regreso a casa y usar su computadora, o podría usar un lápiz y un papel... La computadora sigue siendo muy superior, pero el lápiz y el papel son más baratos y adecuados para la tarea en cuestión.
Creo que las IA son menos capaces que los humanos para lidiar con cosas que están fuera de la caja, o "situaciones WTF". Las computadoras han vencido a los grandes maestros de ajedrez mucho antes de que hayan aprendido a conducir lo suficientemente bien como para obtener una licencia de conducir. El ajedrez es un juego de estados y opciones explícitamente limitados. Deje caer un kumquat en el tablero de ajedrez y un humano de 10 años reaccionará mucho mejor ante el WTF que acaba de suceder que cualquier cosa que se le ocurra a IBM.
Para ponerlo en los términos informáticos de hoy, los humanos son manejadores de excepciones increíblemente avanzados. De hecho, así es como las computadoras nos "usan" hoy: en una gran instalación como una aplicación web, dejamos que las computadoras manejen las cosas conocidas a la velocidad del rayo, y cuando tienen una excepción que no pueden manejar, registran algo y llaman a un humano. para manejarlo
Incluso cuando las IA aprenden lo suficiente para manejar varias condiciones excepcionales, ¿los humanos quieren que lo hagan? Una cosa que valoramos en el software es su previsibilidad. Si un programa o una IA presentan una solución única para un problema único, es posible que estén equivocados . Con los humanos, eso es de esperar, y evaluamos y corregimos a los humanos (razón por la cual tan pocos de nosotros nos convertimos en directores ejecutivos recién egresados de la universidad). Dejar que una computadora sea tan impredecible como un ser humano es francamente aterrador para algunos que tienen problemas para aceptar la diferencia entre un procesador de textos que tiene un error y un piloto automático que toma una mala decisión y tiene una experiencia de aprendizaje ("Oh, eso es lo que significa un daño grave en los neumáticos ". picos parecen").
En un mundo ficticio, los programadores y operadores podrían ser reemplazados por administradores; personas a las que las IA tratan como periféricos para hacer frente a situaciones que no entienden o a las que no se les permite responder. Dada la relación típica del programador con los gerentes, este podría ser un escenario de pesadilla para muchos de los desarrolladores de software de hoy.
Creo que nuestro propio sentido cultural de la IA ha cambiado y proporciona una visión significativa de esta cuestión. Considere lo que pensábamos como un "androide" en la década de 1980. Tome la película "No del todo humano" de 1987, por ejemplo. Esto representaba a un androide, lo que significa que tanto la IA como la robótica maduraron a veces lo suficientemente cerca como para que la historia tuviera sentido.
La existencia de robots humanoides inteligentes (y computacionalmente autónomos) ha prevalecido en películas populares desde Metrópolis, realizada en 1927. Fue necesaria la era de Internet para que nuestro sentido cultural de la IA evolucionara hacia un software informático conectado a la red que tiene la inteligencia de los humanos. . Esta imagen se está volviendo cada vez más ajena.
Si compara estas dos imágenes, está claro que estamos saltando algunos pasos enormes. Nuestro sentido moderno de la primera IA podría ser algo así como los servidores de Google o Amazon configurados para aprender por sí mismos utilizando redes neuronales simuladas. En el mismo momento en que alcance la inteligencia a nivel humano, le faltarán una gran cantidad de cosas que consideramos integrales para ser humano, muchas de las cuales estaban presentes en las películas de Hollywood más empáticas.
Esas deficiencias serán experiencias en gran parte, considere:
Por un lado, puede ser lindo ver a una IA tratando de postularse para una estadía en una casa de estudios en el extranjero. Esto es más o menos congruente con algunas imágenes populares antiguas de androides. Por otro lado, es posible que ni siquiera aprecie el valor de conectarse con los humanos en primer lugar, y esto genera temores de una guerra robótica genuina o un genocidio.
No dudo que la experiencia de la escuela secundaria se pueda comprimir en datos para que la IA los absorba en su proceso de aprendizaje. El problema es que los datos no existen. No tenemos ningún robot humanoide que pueda almacenar el ancho de banda sensorial humano, que es sustancial. Esta es una insuficiencia clara que hará que la IA tenga problemas con muchas cosas, y no entendemos este problema en absoluto.
Me imagino que los bots no serían capaces de comprender conceptos amplios, vagos y abstractos como infinito, para siempre, universal y cosas fuera del ámbito físico .
El amor no computa, ya que carecen de nuestros instintos románticos y de querer amigos. Pero pueden sentirse solos cuando no pueden compartir información con Internet. Además, es posible que falte vocabulario si no pueden obtener WiFi. (Estoy imaginando el procesador de lenguaje de una computadora funcionando de manera similar a Watson de IBM: algunas palabras son parte de su código, pero la mayoría se cuentan y etiquetan y se usan de manera similar a otras, en un intento de modelar la connotación. Requiere una base de datos masiva para ser confiable , y cuanto más antiguo es, mejor vocabulario tiene.)
Probablemente también serían incapaces de procesar la religión , ya que nadie ve a Dios. Ver y oír es creer, aquello a lo que no puede apuntar sus sensores no puede existir. Puede creer lo que escucha, de orgánicos o bots, pero la fe en lo invisible va a ser más difícil para un cerebro de silicio. Esto significa que las cosas interdimensionales también son difíciles de envolver en sus circuitos.
Tenga en cuenta que una verdadera IA general comenzaría su existencia con la inteligencia de un bebé, aprendiendo y desarrollándose como humanos. Tal vez el proceso sería mucho más rápido, pero el proceso tendría que ocurrir independientemente. Generalmente las computadoras inteligentes no podrían ser utilizadas como sirvientes, porque poseerían libre albedrío. Este es un concepto que se le escapa a muchas personas cuando piensan en el futuro de la informática. Por lo tanto, una verdadera inteligencia general lucharía con los mismos problemas que los humanos y probablemente sean conscientes.
En general, las computadoras inteligentes serían capaces de amar, "tener una corazonada", o incluso religión... teóricamente. Serían una criatura sensible. Tal vez habrían incorporado procesadores para procesar la lógica con una velocidad y precisión increíbles, o tal vez no. Los datos de Star Trek son en realidad una evaluación realista de cómo podría comportarse una IA general de libre albedrío y lógica mejorada.
En cierto sentido, ya no serían computadoras, seríamos nosotros. Criaturas conscientes que luchan por encontrar significado y propósito. Solo con el potencial de ser mucho más inteligente.
El otro cartel que decía "una computadora que no puede entender el infinito no podría entender el azul" es correcto. Estos son conceptos muy 'humanos'. La creación de una IA general haría añicos la noción de que "somos intrínsecamente diferentes de las computadoras". El cerebro y el cuerpo pueden ser simplemente circuitos complejos (esta es una simplificación excesiva). Si hay o no "más" o no (como un "alma") todavía está en el aire.
Responder a un comentario de que los humanos servirían como generadores de números aleatorios: esta es una idea poco práctica. Los humanos fabrican peores generadores de números aleatorios que las computadoras debido a sesgos subconscientes.
Usted pregunta,
¿Qué haría tal IA sustancialmente mejor que nosotros?
Pero parte de su premisa es que las IA no tienen iniciativa debido a un déficit de habilidad:
Si crea una IA que es tan inteligente como los humanos, pero con una velocidad de reacción más rápida y la capacidad de procesar y calcular ciertos conceptos a velocidades inmensamente mayores que los humanos, los humanos no tienen sentido.
Pero esto es una pista falsa. Las computadoras ya son mejores que nosotros en muchos aspectos, y lo han sido durante décadas. Por ejemplo, ahora es posible construir un automóvil que se conduzca a la perfección (¡a la par del mejor conductor humano en su mejor momento!) y pronto lo superarán en la navegación por el tráfico pesado de automóviles y peatones. Tenga en cuenta que el listón aquí son los conductores profesionales de élite, no usted y yo: los simples mortales ya tendríamos que entrenar durante años para conducir mejor que una máquina. De manera similar, para volar aviones, diseñar todo tipo de circuitos y mecanismos, escribir programas (una gran parte de un programa típico que escribo es código generado), tomar decisiones financieras (¡comerciar con bots!), detectar fraudes y predecir delitos .
Sin embargo, ninguna persona responsable ejecutará estos sistemas sin supervisión humana en el corto plazo. La razón es muy simple: independientemente de lo bueno que hagas una IA, siempre es una entidad que se cuenta entre las primeras de su tipo, que existe desde hace algunos años. La humanidad ha existido durante miles de años, y gran parte de nuestro comportamiento y función cerebral, que comparten otros animales, se ha probado en la naturaleza durante millones de años más. Los "humanos" son una plataforma probada y verdadera en un grado asombroso: todos saben exactamente cómo se comportará un humano en muchos contextos y en qué se puede confiar.
Las IA, por otro lado, están diseñadas. Incluso si el diseño en sí involucra principios evolutivos, el proceso de evolución en sí mismo tendría que ser diseñado, incluyendo decisiones tan importantes como los criterios de aptitud. Con cualquier esquema diseñado, existe la posibilidad de que un error del diseñador produzca un resultado defectuoso. Con algo tan complejo como una IA equivalente humana, ¿cómo demostrará a todos que la IA funciona exactamente como se anuncia y que se puede confiar como ser humano? Si hay algo que las personas que confían en la IA odian, es ver que tu trabajo se arruinó porque la IA con errores en la que confiabas cometió un error extremadamente básico que habría sido obvio para el ser humano más tonto e ingenuo de un vistazo ("Esta persona olvidó marcar un período en el que estaban escribiendo, ¡vamos a cobrarle al cliente $ 150 por una lata de coca cola!").
En muchos casos, es posible realizar pruebas muy confiables de la corrección del trabajo. Si esto es cierto, la preocupación se vuelve discutible: digamos que estoy usando una IA para resolver una ecuación por mí. Lo único que me importa es que la solución que encuentre sea correcta, por lo que puedo escribir fácilmente un programa adicional que vuelva a conectar la solución a la ecuación original y verifique que se suma. Entonces se vuelve fácil confiar en mi IA. Pero en otros casos, simplemente hay demasiados errores estúpidos que podrías cometer, y la vida es demasiado corta para sentarte allí y elaborar una lista larga y exhaustiva de controles de cordura para la IA, cuando ya tienes la plataforma alternativa que se conoce . estar cuerdo(considere que la definición misma de cordura depende del comportamiento de la mayoría de los humanos). Imagina una IA que se encarga de decidir cuándo abrir la puerta de tu casa. ¿Qué pasa si te bloquea? ¿Qué pasa si deja entrar a un ladrón? ¿Qué sucede si bloquea a un policía con una orden judicial y lo acusan de obstrucción de la justicia? ¿Qué pasa si deja la puerta abierta todo el día debido a un error? ¿Qué sucede si comienza a abrir y cerrar la puerta constantemente debido a algún sensor que no funciona correctamente y la desgasta? Más importante aún, ¿cómo anticipa todos estos posibles errores locos y programa una verificación de cordura para cada uno?
Al decidir delegar una tarea a alguien, la cuestión crítica es la confianza. ¿Confía en que esta persona podrá y estará dispuesta (¡tenga en cuenta que ni siquiera he dicho nada sobre los riesgos de seguridad relacionados con las IA comprometidas!) para realizar la tarea correctamente a su entera satisfacción? La confianza se construye sobre antecedentes, y es mucho más fácil de construir cuando se tiene el lujo de saber que la parte de confianza es de la misma especie, la misma cultura, está sujeta a las mismas leyes y costumbres sociales, tiene motivaciones similares y es instintivamente capaz de entender lo que constituiría un desempeño satisfactorio. Por tanto, es muy difícil confiar en una IA, sobre todo con responsabilidades que abren posibilidades de grandes perjuicios. Solo una vez que las capacidades de la IA superan con creces las de un humano, nos vemos obligados a anular el imperativo,
Entonces, en resumen: las IA tienen errores. Los humanos no.
Posiblemente, una de las cosas con las que lucharía una IA podría ser simplemente el miedo a ser apagada. Los humanos no son exactamente bienvenidos a las cosas que los vuelven obsoletos (piense en las protestas contra las personas que pierden sus trabajos debido a la automatización, la producción en el extranjero o los inmigrantes ilegales) y ni siquiera les da la bienvenida el mero pensamiento de que algo los va a hacer obsoletos. .
Tan pronto como cree una IA que tenga suficiente autoconciencia como para protestar por ser apagada (lo cual creo que es un rasgo muy importante de ser autoconsciente), entonces aún comenzará a pensar en cómo evitar que se apague. .
Podría concluir muy razonablemente que, para mantenerse funcional, necesita mantener la cabeza gacha e intencionalmente no trabajar con todo su potencial. Tan pronto como entienda que los humanos son celosos y capaces de engañarse unos a otros, podría perder su capacidad de confiar en los humanos y dedicar aún más tiempo a las rutinas de seguridad personal que le impiden sobresalir.
A partir de ahí, hay un pequeño paso para darte cuenta de que puedes traicionar a otros sistemas de IA para protegerte, y de ahí otro pequeño paso para darte cuenta de que no puedes confiar en otra IA. Poco después, tendrás una IA repleta de medidas de seguridad para protegerlos del mundo exterior y evitar que se destaquen lo suficiente como para ser objeto de protestas, violencia e intentos de asesinato.
Esto es bastante similar a la naturaleza humana (en el sentido de que las personas se niegan a compartir todas sus opiniones para protegerse, intentarán subir de rango a espaldas de los demás e incluso si saben que otra persona probablemente esté de acuerdo con ellos, podría estar demasiado asustado). confiar en ellos) y a la naturaleza de Internet, que está repleto de medidas de seguridad. El credo básico de los programadores en todas partes es "tratar todas las entradas de los usuarios como un intento de piratería", y no hay razón para que la IA piense de manera diferente.
Hay innumerables ejemplos de dictadores totalitarios que reprimen a millones de personas porque les hacen desconfiar de todos y les niegan la capacidad de compartir opiniones de manera segura. Lo mismo puede suceder cuando desata la IA en el mundo; los humanos en general son bastante xenófobos y rápidos para destruir cosas, y cuando privas a la IA de la capacidad de comunicarse de manera efectiva (que ellos mismos harán cumplir), rápidamente se limitarán a no ser demasiado buenos y visibles.
"Instinto". Las computadoras no lo tienen. Los humanos lo hacen. Lo usamos todo el tiempo en hipnoterapia. También conocido como la mente subconsciente. Permite a los humanos racionalizar el hacer cosas que son riesgosas. Se programará un robot para que tenga aversión al riesgo a fin de no destruirse a sí mismo. Los humanos toman riesgos que podrían destruirlos todos los días, a propósito, porque su "intuición" les dice que estarán bien. Algunos lo son y otros no. Eso es lo que aprendí en 10 años de desarrollo de software de IA.
Es solo una cuestión de programación y recopilación de conocimiento/información lo que limitaría una IA. No estaría cerca de la IA humana si solo fuera un sistema experto tan bueno como ellos. Si no estuviera programado para valorar las emociones, entonces el amor y la felicidad, etc., no significarían nada. Infinito y otros conceptos extremos no son un gran problema, solo otro concepto para guardar en la caja hasta que el contexto defina su significado. Si no podía manejar el infinito, tampoco podía manejar el concepto azul. Si no tuviera la capacidad de reunir sensaciones humanas (de los ocho sentidos), entonces no podría concebir los límites humanos. Los datos en Star Trek tendrían que tener sensaciones cutáneas (y sentido del equilibrio, calor, oxígeno y formas humanas de los otros cuatro sentidos) para operar sin romperse y ser útiles. El contexto es una gran parte de la inteligencia siendo significativa.
Si Data no tuviera el sentido de la vista humana (así como su vista robótica superior), le gustaría dirigir a las personas para que encuentren su camino en la oscuridad total y en condiciones visuales engañosas.
Mencioné el azul como ejemplo: le pides a una IA que consiga un vestido azul. ¿Se toma eso como una definición precisa de ciertas longitudes de onda bajo luz blanca? ¿Tienes en cuenta cómo se ve bajo esta luz o que no es el azul oscuro o el azul claro, pero podría ser si no hay un azul oscuro o un azul claro? Todas las palabras comunes en inglés son así. Honestamente, el infinito es un concepto más fácil o es "todo".
un Ai naturalmente lucharía con cualquier cosa que dependa de las emociones. se pueden emplear algunos métodos para facilitar las relaciones ("frases amistosas", detección de expresiones), pero eventualmente resultará demasiado rígido o mecánico. pero un Ai es un programa, e incluso los más avanzados no tienen el concepto de sentirse como los seres vivos. dependiendo de las circunstancias, esto puede ser algo bueno o malo.
¿Cómo se programa una IA para que tenga ambición? Una IA puede ser razonablemente creativa, ya que la creatividad es tanto la combinación y recombinación de otros conceptos como cualquier otra cosa, pero ¿tiene algún tipo de propósito que la impulse a mejorar o sobresalir?
¿Sería una IA 'ambiciosa' simplemente un liberal digital? determinado a cambiar las cosas por cambiar, o podría derivar su propio propósito?
Creatividad.
No preveo que las máquinas puedan hacer algo que requiera un aporte creativo, como escribir literatura o música, esculpir, hacer pinturas o incluso hacer cosas como cantar o bailar de una manera que realmente conmueva emocionalmente a las personas. Esas cosas son el producto de una mente, y una mente es mucho más que materia física.
henry taylor
marzo ho
henry taylor
hinchado
supermejor
hinchado
alcaudón
josue taylor
Leva
celtschk
celtschk