¿En qué lucharía una IA de nivel casi humano?

Muchas historias han hecho IA antes, pero muchas de ellas se sienten poco realistas. Si crea una IA que es tan inteligente como los humanos, pero con una velocidad de reacción más rápida y la capacidad de procesar y calcular ciertos conceptos a velocidades inmensamente mayores que los humanos, los humanos no tienen sentido. La pregunta que siempre me queda es por qué los humanos están involucrados en las historias, ¿por qué no decirle a la IA qué hacer y dejar que haga cosas? ¿Una interfaz humana simplemente ralentiza las cosas?

Entonces, quiero imaginar un mundo que tenga IA inteligente, pero que no sea intrínsecamente superior a los humanos. Imagine una situación en la que tiene un pequeño equipo de robots y humanos involucrados en alguna actividad compleja, algo físicamente desafiante, que requiere planificación a largo plazo, adaptación y reflejos rápidos. ¿Cómo podría crear un sistema en el que los humanos y la IA sean igualmente relevantes para realizar la tarea?

Supongo que el truco sería evitar que la IA tenga una inteligencia de nivel bastante humano, pero ¿cómo sería una IA como esa? Suponiendo que la IA es capaz de mantener conversaciones básicas, analizar oraciones y comunicarse al nivel de un niño pequeño como mínimo, y tiene a su disposición grandes velocidades de procesamiento y memoria, ¿en qué lucharía? ¿Cuáles son los cerebros humanos más adecuados que cualquier IA de silicona que podamos diseñar en un futuro cercano ? ¿Carecería esta IA de la capacidad de planificar en un futuro distante porque todavía trabajan en el enfoque de "procesar todos los resultados posibles, una iteración a la vez"? ¿Les faltaría más creatividad, etc.?

¿Qué haría tal IA sustancialmente mejor que nosotros?

Me interesaría escuchar no solo qué límites pueden tener, sino también sus pensamientos sobre las causas de los límites, ¿por qué la implementación de la IA que tenemos es menos capaz de realizar una tarea determinada que un humano estándar?

Hace muchos años, leí una historia en la que los humanos servían como generadores de números aleatorios para hacer que sus cazas estelares fueran menos predecibles. Parece que los pilotos de IA siempre eligen la mejor decisión estratégica, lo que los hace extremadamente predecibles. Por lo tanto, el propósito del piloto era tomar malas decisiones en el fragor de la batalla, atrapando constantemente a los cazas estelares enemigos basados ​​en IA con la guardia baja.
@HenryTaylor Si bien es un elemento interesante de la trama, rompe mi suspensión de incredulidad, ya que siempre que el caza estelar de la IA tuviera acceso a una fuente criptográfica de números aleatorios, fácilmente podrían tomar malas decisiones en la IA.
De acuerdo, pero esta historia fue hace mucho tiempo y aparentemente los desencadenantes de nuestra suspensión de la incredulidad se vuelven más ligeros a medida que pasan los años. En ese momento, pensé que era genial.
@HenryTaylor a medida que nos familiarizamos con una tecnología determinada, se vuelve cada vez más difícil lograr que las personas acepten un saludo al respecto. Es por eso que la ciencia ficción siempre está creando nuevos personajes tecnológicos para usar con nosotros. Pregúntale a tvtropes por qué la ingeniería genética es la nueva bomba nuclear :)
@MarchHo Quizás las decisiones aleatorias tomadas por una computadora no sean tan útiles como las (pseudo) decisiones aleatorias de un humano. De acuerdo, los humanos también tendrían un sesgo de que la IA enemiga podría aprender, por lo que también tengo dudas sobre cómo podría ayudar esto. En cualquier caso, tal vez esta idea se haya descubierto recientemente y la tecnología para integrar la aleatoriedad en la IA todavía esté en desarrollo.
@MarchHo, siempre que pueda mantener su semilla original como una aleatoriedad secreta, o algo que se aproxime lo suficiente a la aleatoriedad para la mayoría de los usos, es bastante fácil de hacer ahora. Es solo una cuestión de ejecutar un cálculo matemático complejo que tiene ciertos principios que emulan efectivamente la "verdadera aleatoriedad". También es posible usar factores ambientales casi aleatorios como una semilla. La IA tendría que programarse para utilizar esa aleatorización, pero en comparación con algunos desafíos de la IA, la aleatoriedad es bastante trivial.
Robot and Frank es el mejor ejemplo de una inteligencia artificial creíble que he visto. Además, es una gran película.
Aunque muchas cosas que son difíciles para los humanos son fáciles para la IA, y muchas cosas que son fáciles para los humanos son difíciles para la IA, una respuesta simple a "¿En qué lucharía una IA de nivel casi humano?" sería simplemente una lista de cosas en las que los humanos todavía luchan. Esto es especialmente cierto si la IA está diseñada para imitar la cognición humana y los estilos de resolución de problemas en lugar de ser solo una solución mecánicamente eficiente.
Atar los zapatos probablemente no sea la respuesta correcta.
Depresión, obviamente. Pregúntale a Marvin.
"La pregunta que siempre me queda es por qué los humanos están involucrados en las historias, ¿por qué no decirle a la IA qué hacer y dejar que haga las cosas? ¿La interfaz humana no ralentiza las cosas?" — La IA fue construida por humanos para servir a los humanos. A los humanos les gusta tener el control. El procedimiento de aterrizaje del transbordador espacial tenía un botón para sacar las ruedas al aterrizar. No es que la computadora no pudiera haber hecho un trabajo mucho mejor al decidir el mejor momento para hacerlo, se trataba completamente de que los astronautas se sintieran en control.

Respuestas (18)

Diseñaríamos tales robots inteligentes para complementar nuestras propias habilidades. Antes de que podamos crear superinteligencias divinas, primero crearemos lo que nos sea útil: con un conjunto de funciones y capacidad limitados, primero implementaríamos lo que necesitamos , no duplicaríamos lo que ya hacemos.

Entonces, en esa configuración, naturalmente encontrará que los robots tienen diferentes habilidades con una gran falta de superposición.

Personalmente, creo que la IA temprana será experta en un área estrecha y no comprenderá nada más, incluida la cultura humana. Tal vez requiera que los expertos se comuniquen con ellos, a pesar de que pueden usar un lenguaje hablado "natural", porque hablar normalmente está lleno de contexto cultural y modismos; sería más como programación o consultas sql.

Esto suena más bien como un sistema experto , no como una IA general.
Estoy pensando que un Sistema Experto sería un paso más allá, recogiendo capacidades de procesamiento de conocimiento de inteligencia más generales que los sistemas formales limitados utilizados por los Sistemas Expertos en funcionamiento. Además, los sistemas expertos en funcionamiento no combinan diferentes sistemas lógicos, sino que están preparados para defender una respuesta de libro de texto debidamente razonada.
¿Cree que un sistema experto sería un paso más allá de los limitados sistemas formales de los sistemas expertos? Creo que estamos de acuerdo en que necesitamos algo más que un sistema experto, pero lo que usted describe como las primeras IA sabias específicas del área suena como un sistema experto normal.
"La IA temprana será experta en un área estrecha y no comprenderá nada más". La IA temprana ya es esto.
Acabo de recibir la imagen de la futura IA con una especie de cuasi-asperger. compartiendo algunos rasgos de Aspy a la hora de entender cierta comunicación humana no verbal; y tal vez algo de hiperenfoque en temas específicos, con un intelecto de nivel sabio. Entonces, menos Aspergers reales y más como aquellos que solo conocen el espectro autista de las representaciones de los medios como Rainman pueden imaginar que actuaría el sabio Aspy.

Las IA robóticas parecerían inmaduras según nuestros estándares

Supongo que, debido a que las IA se basan en computadoras, sus habilidades deductivas serán insuperables. Esto es en lo que las computadoras son históricamente buenas. Las diferencias entre las IA y los humanos aparecerían en cómo manejan el razonamiento inductivo.

Una parte importante del razonamiento inductivo es tener una "corazonada" sobre el curso de acción correcto en una situación que nunca antes ha analizado. Esto es muy importante para situaciones en las que debes actuar correctamente la primera vez y es inviable entrenar para la actividad. Por ejemplo, desconfiaríamos de ellos como pilotos. Los humanos han mostrado una notable desconfianza hacia los pilotos computarizados con la teoría de que los pilotos humanos tienen "algo más".

Vemos este tipo de problema cuando se trata de niños. Los niños generalmente están más dispuestos a correr riesgos solo para ver qué sucede; los adultos desarrollan algo que nos gusta llamar "moderación".

La cultura nos proporciona un marco para "aprender" esta lógica inductiva. Durante siglos hemos desarrollado las mejores formas de adoctrinar un cerebro con buenos comportamientos (o al menos nos gusta pensar que son los mejores). Usamos prosa florida y parábolas para enseñar lo imposible de enseñar.

Toda nuestra cultura está diseñada para enseñar cerebros humanos, no cerebros de IA. Esto significa que sería más difícil para una IA aprovechar nuestras enseñanzas que para un niño hacer lo mismo. "El hogar es donde está el corazón" es extremadamente difícil de asignar significado cuando "Hogar" es una palabra muy abstracta y "corazón" es un órgano que no tienes como IA.

Una IA podría necesitar siglos para desarrollar su propio equivalente de cultura.


  • Las IA serían malas para predecir los comportamientos de los humanos individuales. Literalmente, pasamos toda nuestra vida inmersos en una cultura diseñada para ayudarnos con esto, y todavía somos malos en eso.
  • A las IA no se les confiarían vidas humanas hasta que sus capacidades superen con creces las de los humanos en una tarea. Sería difícil confiarles tales tareas dado lo poco que podemos confiar en sus habilidades únicas.
  • A las IA no se les confiarían tareas vagas como "enseñar historia a estos niños". Algunos temas son aptos para pruebas estandarizadas, que las computadoras pueden manejar de manera muy efectiva. Otras materias, como Historia e Inglés, son mucho más difíciles de cuantificar el aprendizaje.
  • Las IA serían deficientes en tareas redactadas en términos generales. Demostrarán ser muy hábiles en tareas bien definidas, pero las tareas más confusas requieren cultura para ayudar en la comprensión (considere los problemas culturales con la construcción de un edificio en suelo extranjero... ya son bastante malos)
  • Por extraño que parezca, es posible que las IA más efectivas no busquen intencionalmente maximizar sus habilidades similares a las de una computadora. En cambio, pueden buscar hacerse lo más humanos posible, incluso si esto es menos que ideal en la superficie. Esta semejanza humana les facilitaría adoctrinarse en nuestra cultura. Cuanto más rápido lo hagan, más se les permitirá actuar y más podrán crecer a partir de la acción como un ser vivo. Entonces estarán en posición de comenzar a ajustar nuestra cultura para aceptar comportamientos más parecidos a los de una computadora. Idealmente, esto terminará en un equilibrio (porque he visto demasiadas películas de ciencia ficción en las que la computadora se vuelve loca... Estoy mucho más interesado en encontrar los casos en los que no se vuelve loca)
¿Es factible una IA casi humana usando las computadoras de hoy? ¿Será necesaria la computación cuántica, la lógica difusa y atributos similares para incluso permitir la posibilidad de IA casi humanas, lo que también permite la capacidad emergente de tener una corazonada?
Es posible ahora, pero ¿quién pondría un billón de dólares en una computadora que aún es peor que un humano y no hace nada mejor? Puedes ver en los investigadores de redes neuronales que no hacen miles de nodos porque producirán un resultado para un problema. que no pueden entender.
@user2617804: Eso ciertamente cuestiona si el término "nivel humano" es incluso una buena medida de una IA, aunque admito que es el mejor término que tenemos hasta ahora.

Parece asumir que una IA sería, en cierto sentido, bastante similar a los humanos. Esa es una limitación bastante estricta, pero supongo que hace que sea más fácil contar una historia.

Entonces, si las IA son de hecho similares a los humanos, pero superan a los humanos en ciertos aspectos, y su pregunta es, "¿cuál es la razón en el mundo para tener humanos (tradicionales) cerca?", mi oportunidad de respuesta sería, "por la misma razón por la que tenemos más de un ser humano”. Si sus IA son esencialmente cercanas a los humanos, tienden a asumir roles tradicionalmente ocupados por humanos.

JFTR, permítanme criticar un motivo mío: muchos autores de ciencia ficción tienden a suponer que una IA avanzada entendería cómo funciona. No veo por qué debería ser así. Incluso suponiendo que sus constructores lo hagan (y a menudo hay una brecha entre lo que podemos construir como ingenieros informáticos y lo que podemos explicar como científicos informáticos, sin mencionar la cooperación entre expertos en diferentes campos), es poco probable que sea lo primero que enseñen. su bebe

Muchas de las respuestas aquí mencionan cosas que suenan bien, pero que realmente no tienen sentido para quienes han trabajado con aprendizaje automático. Me referiré a algunos:

Primero implementaríamos lo que necesitamos, no duplicaríamos lo que ya hacemos

Aunque esto suena lógico, de hecho, las redes neuronales artificiales han demostrado que realizan tareas similares a las del cerebro animal sin estar programadas para . Por ejemplo, las máquinas diseñadas para escuchar automáticamente comenzaron a filtrar el ruido de fondo y amplificar los ruidos de los animales. Hubo una innovación reciente con resultados similares con respecto a la visión artificial, aunque no recuerdo los detalles.

Supongo que, debido a que las IA se basan en computadoras, sus habilidades deductivas serán insuperables. Esto es en lo que las computadoras son históricamente buenas. Las diferencias entre las IA y los humanos aparecerían en cómo manejan el razonamiento inductivo.

El razonamiento inductivo en el aprendizaje automático se denomina aprendizaje no supervisado , es una forma de cuantificación vectorial y es extremadamente avanzado. Resulta que las máquinas son mejores para generalizar soluciones conocidas a nuevas soluciones y también para identificar qué elementos no se deben considerar en el reconocimiento de patrones. La IA ya es mejor en el razonamiento inductivo que los humanos.

Me imagino que los bots no serían capaces de comprender conceptos amplios, vagos y abstractos como infinito, para siempre, universal y cosas fuera del ámbito físico. El amor no computa, ya que carecen de nuestros instintos románticos y de querer amigos.

De hecho, AI entiende mucho mejor que los hombres lo que quieren las mujeres románticas y entiende mejor que las mujeres lo que quieren los hombres románticos. Ese hecho es cierto incluso cuando se ignora el aspecto romántico: AI sabe lo que tu pareja quiere mejor que tú. Y la IA ya es mejor que los humanos para seleccionar socios para relaciones exitosas a largo plazo. Todos los grandes sitios de citas utilizan la IA de forma extensiva.

Lucharían por lo mismo que hacen los humanos: ambigüedad.

No. AI tendría más contexto que humano. Por un lado, la IA puede tener acceso a la historia del hablante y a señales fisiológicas sutiles. Por otro lado, la IA puede calcular y predecir los resultados de ambas interpretaciones y usar esa información para decidir qué interpretación es la correcta.

Estoy de acuerdo en que, como programador, no estaba de acuerdo con algunos aspectos de algunas respuestas, ya que no parecían considerar el desarrollo informático real, como su primer punto. Sin embargo, creo que le estás dando demasiado crédito a nuestra IA actual. La 'IA' que usan los sitios de citas son los motores de reglas más básicos que apenas merecen llamarse IA y no predicen relaciones a largo plazo, solo evitan enviar personas con intereses muy diferentes a los demás resultados de búsqueda. Nunca he visto ninguna indicación de que la IA pueda predecir los deseos humanos todavía.
@dsollen: Estoy desenterrando enlaces ahora. La IA de los sitios de citas es bastante avanzada, recientemente leí un artículo al respecto. Necesito agregar enlaces para mis otros reclamos también. Estoy llegando.
También tenía la impresión de que la IA del sitio de citas es, de hecho, un montón de métodos de correlación muy simples. Es cierto que tengo una experiencia limitada, pero en esa experiencia limitada también he observado que los sitios de citas funcionan muy mal, al igual que los motores de recomendación de grandes operaciones como Google, Amazon, Netflix y Pandora. La mayoría de las veces, la lógica es extremadamente transparente, y fácilmente podría haberlo hecho yo mismo si el procesamiento de números no fuera tedioso.
Tampoco estoy de acuerdo con tu postura sobre la ambigüedad. Lo que estás diciendo es que la IA es mejor para reducir la ambigüedad, no que ellos sean mejores para manejarla. Hubiera sido mejor citar uno de los ejemplos de Euphoric y criticarlo por no ser un buen ejemplo de ambigüedad. Por ejemplo, los humanos son horribles en la gestión de riesgos, por lo que hay mucho espacio para que las IA sean mejores.
Sin embargo, me parece que todos estos son en realidad ejemplos de humanos que usan IA de computadora como herramientas para hacer las cosas (detección de patrones y estadísticas) que los humanos no hacen muy literalmente con sus propios cerebros. Los entendimientos, interpretaciones, valores y razones reales subyacentes para hacer estas cosas provienen todos de los humanos que diseñaron las IA. Eso es algo que la mayoría de los escritos de ciencia ficción omiten a favor de la convincente metáfora de las IA como posibles reemplazos de los humanos. Sin embargo, sin los diseñadores humanos, las IA no tienen voluntad ni comprensión reales.
los humanos siempre tienen que luchar con sus propias expectativas y el contexto reciente (o primordial) cuando intentan hacer deducciones precisas. En las relaciones interpersonales esto es aún más cierto que en cualquier otro momento. Claramente, una IA tiene algunos problemas similares y persistentes, pero se pueden diseñar procesos sintéticos para delimitar estrictamente la interferencia entre los flujos de datos y las deducciones y ejecutar varios al mismo tiempo... y ser tan 'consciente' de uno como de cualquier otro. Por el contrario, describiríamos a alguien como particularmente consciente de sí mismo si pudiera identificar incluso algunos de los sesgos que influyen en sus valoraciones.

Lucharían por lo mismo que hacen los humanos: la ambigüedad.

No importa cuán buena sea su IA, recopilar suficientes datos, lo suficientemente buenos como para tomar decisiones "perfectamente lógicas", es una hazaña prácticamente imposible de lograr.

AI necesitaría tomar decisiones basadas en datos incompletos y datos que no se pueden verificar adecuadamente para que sean correctos. Este es básicamente el núcleo de la respuesta de Cort Ammon. Los seres humanos aprenden a tomar ese tipo de decisiones desde el nacimiento y nuestra sociedad está hecha para permitirnos vivir con los efectos de esas decisiones. Aprendemos a hacer y aceptar el riesgo y tenemos instituciones para protegernos del riesgo.

Cuanto mejor sea la IA, más humana será su toma de decisiones. Todas esas historias de "IA trata de matar a la humanidad" son en su mayoría sobre IA que no entiende que tratar de matar a toda la humanidad es una decisión extremadamente arriesgada y que la humanidad es mala para sí misma ni siquiera es una deducción garantizada.

Problemas de escasez y limitaciones de potencia informática

A mi modo de ver, la principal limitación hacia la expansión ilimitada de la capacidad en este momento radica en la miniaturización y el consumo de energía. Tendremos usos para los casi AGI tan pronto como puedan existir, por lo que los primeros casi AGI superarán los límites en términos de recursos necesarios:

Eso podría significar una de dos cosas:
1) El controlador del "cerebro" del androide en realidad no está en escena y, por lo tanto, está sujeto al retraso de la velocidad de la luz y la interferencia de la señal. Imagine que su policía robot se resiste a seguir a los sospechosos hasta el pozo de la mina o el edificio enjaulado de Faraday antes de establecer una red de retransmisión de comunicaciones duradera en el camino.

2) Alto consumo de energía. Con un puñado de IA y cíbridos superpoderosos que ejecutan los sistemas financieros del mundo y ejecutan su equipo extravagante con gigavatios de energía, la electricidad es costosa para los humanos básicos y también para las IA de nivel inferior, mientras que las nuevas plantas de energía tardan años en construirse, lo cual es lento. en comparación con la rapidez con la que se mueven las cosas en el campo de la IA.


Cooperación

Ahora, ¿en qué pueden cooperar los humanos y la IA en un entorno cercano a AGI? En primer lugar, cada instancia de IA y robótica debe fabricarse (y probablemente será bastante costoso comenzar). Mientras tanto, ya tendremos alrededor de 9 mil millones de fuentes de trabajo carnosas y compactas. Entonces, incluso si los casi AGI son mejores en cada tarea individual para la que han sido entrenados, aún les tomaría décadas acumular números, por lo que la mayoría de las tareas aún serían realizadas por humanos.

Near-AGI puede detectar fácilmente mentiras (flujo sanguíneo, cambios inconscientes de varios tipos), pero no será tan bueno como los humanos en los aspectos más sutiles de la comunicación. Así que imagine casi AGI como un activo (codiciado y disputado) durante un interrogatorio de la CIA o el FBI. Tu propio Sherlock artificial, lástima que haya tan pocos.


Ventaja comparativa temporal humana (además de los números)
De manera más general, los casi AGI serían sistemas expertos en cualquier dominio estrecho en el que pudieran estar diseñados para funcionar, por lo que las ventajas humanas tendrían que estar en la integración entre dominios.

Aquí están mis dos centavos. Primero, algunos comentarios generales, en orden aleatorio:

1. Definición de 'inteligente'

El elemento crucial es cómo se define 'inteligente'. No estoy familiarizado con el trabajo sobre el tema, pero al menos en la vida ordinaria 'inteligente' no equivale a 'bueno en algo específico'. Por ejemplo, uno puede ser inteligente y bueno en matemáticas, o bueno en literatura.

¿Llamarías a un algoritmo, por complejo que sea, 'inteligente'? ¿Como el ejemplo de los sitios de citas que alguien mencionó en otra respuesta? Yo no lo haría. Mi propia definición imprecisa probablemente se centraría en la inteligencia relacionada con el desempeño en circunstancias fuera de los parámetros de diseño... No llamaría inteligente a ningún algoritmo, independientemente de qué tan bien haga el trabajo. Eficiente, inteligente, ingenioso, sí, pero no inteligente .

Dos dimensiones más de la inteligencia:

(1) Hay una diferencia entre ser lo suficientemente inteligente para reconocer un patrón en el flujo de datos (algo en lo que las computadoras se están volviendo bastante buenas) y ser lo suficientemente inteligente para formular una teoría sobre por qué sucede así (es decir, comprender y, por lo tanto, ser capaz de predecir el futuro).

(2) Parece haber mucha confusión entre 'inteligente' y 'que posee libre albedrío' y ser capaz de actuar por iniciativa propia. Estos no son idénticos.

2. Definición de 'bueno en' o 'mejor'

Esto requiere algún criterio objetivo externo para funcionar. Debe tener en cuenta que hay algunas cosas que son cuantificables (y, por lo tanto, pueden compararse entre sí y clasificarse) y hay cosas que son el resultado de juicios de valor (valores morales o preferencias). Estos últimos no se pueden comparar entre sí, son igualmente válidos.

Además, estos generalmente no se traducen bien cuando se usan en el contexto de realizar una tarea concreta. Para eso, necesita 'adecuado' (puede hacer el trabajo) y 'costo' (cuánto le costará en términos de algún recurso limitado). Para ser eficiente, elija la forma más barata que haga el trabajo, no la mejor. Busque 'ventaja absoluta' y 'ventaja comparativa' en economía. En términos sencillos, no debes pedirle a un genio que realice una tarea rutinaria, asígnale las tareas realmente difíciles.

3. Habilidad para entenderse y modificarse a uno mismo

@Christopher Creutzig ya aludió a algo similar. Una IA podría (¿debería?) ser capaz de entender cómo funciona, al menos debería ser lo suficientemente fácil como para cargarle las especificaciones de diseño. Y, lo que es más importante, debería poder modificar su funcionamiento interno para alinearse mejor con la tarea en cuestión. En cierto sentido, debería ser mucho mejor concentrarse en lo que debería estar haciendo y no distraerse.

Esto también incluye la capacidad de reconocer habilidades insuficientes y poder cargar módulos de habilidades según sea necesario ("Sé kung-fu"). En una configuración de IA, esto sería casi instantáneo, mientras que en los humanos no lo es. Esto es tanto una bendición como una pesadilla. Una bendición porque está disponible de inmediato y es una copia al 100 % de la habilidad original. Una pesadilla por las mismas cosas: el aprendizaje humano también está estrechamente relacionado con la introducción de variaciones en la habilidad que se está aprendiendo, lo que en última instancia puede resultar en su mejora.

4. Replicación

No tengo conocimiento de dos humanos que sean 100% iguales, o que hayan sido 100% iguales en algún momento. Las IA son, por definición, al menos dada la tecnología actual, un conjunto digital de registros y, como tales, pueden replicarse a voluntad. Por supuesto, a medida que adquieran experiencia, divergirán, pero al menos tenemos la posibilidad de que 'nazcan' absolutamente idénticos. A menos, por supuesto, que llegar a una verdadera IA requiera adentrarse tanto en cosas cuánticas que no pueda obtener dos copias idénticas.

Hay dos corolarios de esto: (1) La capacidad de copiar y reproducir, es decir, generar múltiples copias exactas, ciertamente no factible para los humanos en la actualidad. Muy útil para cualquier cosa que requiera múltiples unidades autónomas pero muy similares (¿el ejército?). (2) Pasar a una plataforma de hardware más potente. Piense en hacer overclocking en la CPU o pasar de una computadora portátil a una computadora central. Puede ejecutar el mismo 'programa' en un hardware mucho más rápido.

5. Memoria vs proceso de pensamiento

La mayoría de las definiciones de IA parecen relacionarse con el proceso de pensamiento, es decir, qué tan bien imita el proceso de pensamiento humano. Una de las principales ventajas (¡o posiblemente también una desventaja!) de una computadora/IA es la capacidad de acceder rápidamente a la información, incl. las experiencias pasadas de uno. Piense en un recuerdo perfecto (un registro directo de todas las entradas de los sensores, etc.) Ningún ser humano que conozco puede hacer eso.

Finalmente, en sus puntos:

Las computadoras ya son sustancialmente mejores que los humanos en muchas tareas repetitivas, como el cálculo simple (*). La ventaja aumenta enormemente cuando se puede emplear el cálculo paralelo. De manera similar, una IA debería poder hacer muchas cosas simultáneamente (relativamente simples para su nivel de 'inteligencia' o poder de cómputo, por supuesto). Esto se traduce directamente en una mejor gestión del inventario: realizar un seguimiento de los "recursos" que tiene. En este sentido, las computadoras (sí, sin necesidad de IA) ya deberían ser mejores que los humanos en la planificación a largo plazo si las reglas del juego no cambian . Si lo hacen, esp. De manera impredecible, los humanos parecen ajustar mejor los objetivos y las definiciones.

(*) "Simple" significa todo lo que sigue un programa escrito previamente, por complejo que sea. No es simple comienza cuando la IA es capaz de seleccionar tanto los algoritmos como los criterios en sí. No sé lo suficiente si estamos allí todavía.

¿Cómo podría crear un sistema en el que los humanos y la IA sean igualmente relevantes para realizar la tarea?

Aparte de lo obvio (elija una tarea apropiada donde sean igualmente relevantes a pesar de las diferencias, debido a algún factor externo, vea a continuación, por ejemplo), hay dos posibilidades, que no son mutuamente excluyentes:

(1) Eliminar las claras ventajas discutidas anteriormente. Es decir, simplemente sustituir el 'hardware' biológico humano por una máquina equivalente. Como el cerebro positrónico de Asimov (de memoria, todos están estampados en la misma matriz de producción pero debido a algunas cosas cuánticas salen diferentes). (2) Permitir que los humanos obtengan algunas de las ventajas (p. ej., implantes, capacidad de escanearse en una máquina y seguir siendo una copia al 100 %, etc.)

Estos podrían conducir a una regresión a la media, es decir, borrando la diferencia entre el hombre y la máquina. Si un humano puede escanearse en una máquina, ¿es esto una IA o un humano?

¿Qué situaciones podrían ayudar a que las IA y los humanos sean iguales? Hay algunas ideas en las otras respuestas. Piense en presupuestos de energía limitados, por ejemplo. Ponga un contexto económico: debe tener en cuenta tanto los beneficios como los costos. Por ejemplo, una IA podría ser mucho mejor en algo, pero seguir siendo prohibitivamente costosa. Una situación simple: estás en el camino, muy lejos de la civilización. Necesita resolver un problema simple: sume 50 números de 4 dígitos. Podría conducir de regreso a casa y usar su computadora, o podría usar un lápiz y un papel... La computadora sigue siendo muy superior, pero el lápiz y el papel son más baratos y adecuados para la tarea en cuestión.

Creo que las IA son menos capaces que los humanos para lidiar con cosas que están fuera de la caja, o "situaciones WTF". Las computadoras han vencido a los grandes maestros de ajedrez mucho antes de que hayan aprendido a conducir lo suficientemente bien como para obtener una licencia de conducir. El ajedrez es un juego de estados y opciones explícitamente limitados. Deje caer un kumquat en el tablero de ajedrez y un humano de 10 años reaccionará mucho mejor ante el WTF que acaba de suceder que cualquier cosa que se le ocurra a IBM.

Para ponerlo en los términos informáticos de hoy, los humanos son manejadores de excepciones increíblemente avanzados. De hecho, así es como las computadoras nos "usan" hoy: en una gran instalación como una aplicación web, dejamos que las computadoras manejen las cosas conocidas a la velocidad del rayo, y cuando tienen una excepción que no pueden manejar, registran algo y llaman a un humano. para manejarlo

Incluso cuando las IA aprenden lo suficiente para manejar varias condiciones excepcionales, ¿los humanos quieren que lo hagan? Una cosa que valoramos en el software es su previsibilidad. Si un programa o una IA presentan una solución única para un problema único, es posible que estén equivocados . Con los humanos, eso es de esperar, y evaluamos y corregimos a los humanos (razón por la cual tan pocos de nosotros nos convertimos en directores ejecutivos recién egresados ​​de la universidad). Dejar que una computadora sea tan impredecible como un ser humano es francamente aterrador para algunos que tienen problemas para aceptar la diferencia entre un procesador de textos que tiene un error y un piloto automático que toma una mala decisión y tiene una experiencia de aprendizaje ("Oh, eso es lo que significa un daño grave en los neumáticos ". picos parecen").

En un mundo ficticio, los programadores y operadores podrían ser reemplazados por administradores; personas a las que las IA tratan como periféricos para hacer frente a situaciones que no entienden o a las que no se les permite responder. Dada la relación típica del programador con los gerentes, este podría ser un escenario de pesadilla para muchos de los desarrolladores de software de hoy.

más uno solo por esa última oración
Si cree que "así es como se ven los daños severos en los neumáticos" da miedo, considere "por ESO es por lo que no ahorramos unos minutos en cada viaje al aterrizar el avión a velocidad de crucero". Decir descuidadamente a una IA que "encuentre el tiempo de viaje más rápido" podría conducir a esa situación si de alguna manera olvida agregar "manteniendo intacto el contenido del avión" a la consulta.

Creo que nuestro propio sentido cultural de la IA ha cambiado y proporciona una visión significativa de esta cuestión. Considere lo que pensábamos como un "androide" en la década de 1980. Tome la película "No del todo humano" de 1987, por ejemplo. Esto representaba a un androide, lo que significa que tanto la IA como la robótica maduraron a veces lo suficientemente cerca como para que la historia tuviera sentido.

La existencia de robots humanoides inteligentes (y computacionalmente autónomos) ha prevalecido en películas populares desde Metrópolis, realizada en 1927. Fue necesaria la era de Internet para que nuestro sentido cultural de la IA evolucionara hacia un software informático conectado a la red que tiene la inteligencia de los humanos. . Esta imagen se está volviendo cada vez más ajena.

Si compara estas dos imágenes, está claro que estamos saltando algunos pasos enormes. Nuestro sentido moderno de la primera IA podría ser algo así como los servidores de Google o Amazon configurados para aprender por sí mismos utilizando redes neuronales simuladas. En el mismo momento en que alcance la inteligencia a nivel humano, le faltarán una gran cantidad de cosas que consideramos integrales para ser humano, muchas de las cuales estaban presentes en las películas de Hollywood más empáticas.

Esas deficiencias serán experiencias en gran parte, considere:

  • La experiencia de la existencia sensorial: tu cerebro se conecta a sí mismo a través de períodos formativos de la vida cuando estás en una habitación que tiene cosas para sentir, gravedad, aire, etc. Es muy probable que la versión moderna de AI carezca de esto. El rápido progreso en la tecnología de transistores no se compara con músculos y nervios artificiales. La realidad virtual sería lo más cercano que tiene la IA, y esto es una carencia muy grave.
  • Un hogar: los cerebros humanos se construyen en un entorno de conexiones humanas. Si bien sentimos que estamos cada vez más aislados, la IA existirá en un mundo donde ese aislamiento es la regla y no la excepción. Una relación duradera como la que tiene un padre-hijo será económicamente poco práctica. Puede mantener una conversación con alguien en línea, ¡pero no puede comprometerse a horas de interacción todos los días durante años! Los humanos entienden eso, y la IA no podría encontrarlo fácilmente.
  • Escuela secundaria: en la película Not Quite Human, Chip aparentemente es un estudiante de secundaria. Esto es muy importante culturalmente porque refleja un tiempo formativo para la identidad que tenemos los humanos adultos. Ese tiempo define gran parte de nuestra relación con nuestra nación, autoridad, otras personas, etc. El material académico probablemente será trivial para la IA, pero la habilidad de "encajar" faltará o no será deseada.

Por un lado, puede ser lindo ver a una IA tratando de postularse para una estadía en una casa de estudios en el extranjero. Esto es más o menos congruente con algunas imágenes populares antiguas de androides. Por otro lado, es posible que ni siquiera aprecie el valor de conectarse con los humanos en primer lugar, y esto genera temores de una guerra robótica genuina o un genocidio.

No dudo que la experiencia de la escuela secundaria se pueda comprimir en datos para que la IA los absorba en su proceso de aprendizaje. El problema es que los datos no existen. No tenemos ningún robot humanoide que pueda almacenar el ancho de banda sensorial humano, que es sustancial. Esta es una insuficiencia clara que hará que la IA tenga problemas con muchas cosas, y no entendemos este problema en absoluto.

Esta es una perspectiva muy interesante. Tengo entendido que el estado actual del arte en IA de "propósito general" tiene aproximadamente la misma capacidad que un insecto. Dentro de algunas generaciones, tal vez nuestra IA se parecerá a niños sabios, con una habilidad extraordinaria en áreas que se calculan fácilmente pero con una inteligencia general y social limitada e ingenua.

Me imagino que los bots no serían capaces de comprender conceptos amplios, vagos y abstractos como infinito, para siempre, universal y cosas fuera del ámbito físico .

El amor no computa, ya que carecen de nuestros instintos románticos y de querer amigos. Pero pueden sentirse solos cuando no pueden compartir información con Internet. Además, es posible que falte vocabulario si no pueden obtener WiFi. (Estoy imaginando el procesador de lenguaje de una computadora funcionando de manera similar a Watson de IBM: algunas palabras son parte de su código, pero la mayoría se cuentan y etiquetan y se usan de manera similar a otras, en un intento de modelar la connotación. Requiere una base de datos masiva para ser confiable , y cuanto más antiguo es, mejor vocabulario tiene.)

Probablemente también serían incapaces de procesar la religión , ya que nadie ve a Dios. Ver y oír es creer, aquello a lo que no puede apuntar sus sensores no puede existir. Puede creer lo que escucha, de orgánicos o bots, pero la fe en lo invisible va a ser más difícil para un cerebro de silicio. Esto significa que las cosas interdimensionales también son difíciles de envolver en sus circuitos.

¿Cómo es que solo obtengo las primeras publicaciones realmente buenas en la cola de revisión? ....en cualquier caso, bienvenido a WB; ¡Espero que te quedes y disfrutes del sitio! :)
Voy a tener que discutir el vocabulario. Teniendo en cuenta el tipo de capacidad de carga que cabe en una sola memoria USB, sería trivial que todos los robots del futuro tuvieran un diccionario completo (y un diccionario urbano para la jerga) de todos los idiomas principales y muchos idiomas menores programados en ellos sin mendigar. para aprovechar el espacio de su disco duro.
Apuesto a que es bastante fácil codificar la comprensión de conceptos abstractos bien definidos como el infinito en una IA. Tal vez incluso más fácil que enseñar a estudiantes universitarios, quienes primero deben perder nociones preconcebidas erróneas. Ya tenemos programas de computadora que manejan bien ese tipo de cosas. Sin embargo, las cosas abstractas fuera de las matemáticas, como el bien y el mal, son una historia completamente diferente.
Sobre el tema del infinito, solo le enseñarías a un bot lo que es relevante para su trabajo. Voy a la escuela de diseño web, no necesito saber microbiología, así que no me van a enseñar nada de eso. Pero supongo que no es un problema si el almacenamiento de datos no lo es.
Sobre el tema del vocabulario, no son solo las palabras que necesita aprender. Wattson necesitaba una base de datos más grande que Wikipedia, porque no solo necesitaba saber las palabras, sino también cuáles se usan juntas, cuáles se usan en qué contexto, cuáles la gente rara vez conoce y qué les parece ofensivo, etc. Un bot que lee un diccionario no sabría nada mejor que llamar a todos los hombres negros que ve n!gger, ¿sabes a lo que me refiero? Puede programarlo allí, pero la base de datos masiva es la única forma de saber qué palabras obtienen la reacción correcta.
>¡respira hondo!< Los bots no entienden del todo las emociones. Un diccionario no lo cortará. Aunque es posible almacenarlo en una unidad flash.

Tenga en cuenta que una verdadera IA general comenzaría su existencia con la inteligencia de un bebé, aprendiendo y desarrollándose como humanos. Tal vez el proceso sería mucho más rápido, pero el proceso tendría que ocurrir independientemente. Generalmente las computadoras inteligentes no podrían ser utilizadas como sirvientes, porque poseerían libre albedrío. Este es un concepto que se le escapa a muchas personas cuando piensan en el futuro de la informática. Por lo tanto, una verdadera inteligencia general lucharía con los mismos problemas que los humanos y probablemente sean conscientes.

En general, las computadoras inteligentes serían capaces de amar, "tener una corazonada", o incluso religión... teóricamente. Serían una criatura sensible. Tal vez habrían incorporado procesadores para procesar la lógica con una velocidad y precisión increíbles, o tal vez no. Los datos de Star Trek son en realidad una evaluación realista de cómo podría comportarse una IA general de libre albedrío y lógica mejorada.

En cierto sentido, ya no serían computadoras, seríamos nosotros. Criaturas conscientes que luchan por encontrar significado y propósito. Solo con el potencial de ser mucho más inteligente.

El otro cartel que decía "una computadora que no puede entender el infinito no podría entender el azul" es correcto. Estos son conceptos muy 'humanos'. La creación de una IA general haría añicos la noción de que "somos intrínsecamente diferentes de las computadoras". El cerebro y el cuerpo pueden ser simplemente circuitos complejos (esta es una simplificación excesiva). Si hay o no "más" o no (como un "alma") todavía está en el aire.

Responder a un comentario de que los humanos servirían como generadores de números aleatorios: esta es una idea poco práctica. Los humanos fabrican peores generadores de números aleatorios que las computadoras debido a sesgos subconscientes.

Usted pregunta,

¿Qué haría tal IA sustancialmente mejor que nosotros?

Pero parte de su premisa es que las IA no tienen iniciativa debido a un déficit de habilidad:

Si crea una IA que es tan inteligente como los humanos, pero con una velocidad de reacción más rápida y la capacidad de procesar y calcular ciertos conceptos a velocidades inmensamente mayores que los humanos, los humanos no tienen sentido.

Pero esto es una pista falsa. Las computadoras ya son mejores que nosotros en muchos aspectos, y lo han sido durante décadas. Por ejemplo, ahora es posible construir un automóvil que se conduzca a la perfección (¡a la par del mejor conductor humano en su mejor momento!) y pronto lo superarán en la navegación por el tráfico pesado de automóviles y peatones. Tenga en cuenta que el listón aquí son los conductores profesionales de élite, no usted y yo: los simples mortales ya tendríamos que entrenar durante años para conducir mejor que una máquina. De manera similar, para volar aviones, diseñar todo tipo de circuitos y mecanismos, escribir programas (una gran parte de un programa típico que escribo es código generado), tomar decisiones financieras (¡comerciar con bots!), detectar fraudes y predecir delitos .

Sin embargo, ninguna persona responsable ejecutará estos sistemas sin supervisión humana en el corto plazo. La razón es muy simple: independientemente de lo bueno que hagas una IA, siempre es una entidad que se cuenta entre las primeras de su tipo, que existe desde hace algunos años. La humanidad ha existido durante miles de años, y gran parte de nuestro comportamiento y función cerebral, que comparten otros animales, se ha probado en la naturaleza durante millones de años más. Los "humanos" son una plataforma probada y verdadera en un grado asombroso: todos saben exactamente cómo se comportará un humano en muchos contextos y en qué se puede confiar.

Las IA, por otro lado, están diseñadas. Incluso si el diseño en sí involucra principios evolutivos, el proceso de evolución en sí mismo tendría que ser diseñado, incluyendo decisiones tan importantes como los criterios de aptitud. Con cualquier esquema diseñado, existe la posibilidad de que un error del diseñador produzca un resultado defectuoso. Con algo tan complejo como una IA equivalente humana, ¿cómo demostrará a todos que la IA funciona exactamente como se anuncia y que se puede confiar como ser humano? Si hay algo que las personas que confían en la IA odian, es ver que tu trabajo se arruinó porque la IA con errores en la que confiabas cometió un error extremadamente básico que habría sido obvio para el ser humano más tonto e ingenuo de un vistazo ("Esta persona olvidó marcar un período en el que estaban escribiendo, ¡vamos a cobrarle al cliente $ 150 por una lata de coca cola!").

En muchos casos, es posible realizar pruebas muy confiables de la corrección del trabajo. Si esto es cierto, la preocupación se vuelve discutible: digamos que estoy usando una IA para resolver una ecuación por mí. Lo único que me importa es que la solución que encuentre sea correcta, por lo que puedo escribir fácilmente un programa adicional que vuelva a conectar la solución a la ecuación original y verifique que se suma. Entonces se vuelve fácil confiar en mi IA. Pero en otros casos, simplemente hay demasiados errores estúpidos que podrías cometer, y la vida es demasiado corta para sentarte allí y elaborar una lista larga y exhaustiva de controles de cordura para la IA, cuando ya tienes la plataforma alternativa que se conoce . estar cuerdo(considere que la definición misma de cordura depende del comportamiento de la mayoría de los humanos). Imagina una IA que se encarga de decidir cuándo abrir la puerta de tu casa. ¿Qué pasa si te bloquea? ¿Qué pasa si deja entrar a un ladrón? ¿Qué sucede si bloquea a un policía con una orden judicial y lo acusan de obstrucción de la justicia? ¿Qué pasa si deja la puerta abierta todo el día debido a un error? ¿Qué sucede si comienza a abrir y cerrar la puerta constantemente debido a algún sensor que no funciona correctamente y la desgasta? Más importante aún, ¿cómo anticipa todos estos posibles errores locos y programa una verificación de cordura para cada uno?

Al decidir delegar una tarea a alguien, la cuestión crítica es la confianza. ¿Confía en que esta persona podrá y estará dispuesta (¡tenga en cuenta que ni siquiera he dicho nada sobre los riesgos de seguridad relacionados con las IA comprometidas!) para realizar la tarea correctamente a su entera satisfacción? La confianza se construye sobre antecedentes, y es mucho más fácil de construir cuando se tiene el lujo de saber que la parte de confianza es de la misma especie, la misma cultura, está sujeta a las mismas leyes y costumbres sociales, tiene motivaciones similares y es instintivamente capaz de entender lo que constituiría un desempeño satisfactorio. Por tanto, es muy difícil confiar en una IA, sobre todo con responsabilidades que abren posibilidades de grandes perjuicios. Solo una vez que las capacidades de la IA superan con creces las de un humano, nos vemos obligados a anular el imperativo,

Entonces, en resumen: las IA tienen errores. Los humanos no.

"Todo el mundo sabe exactamente cómo se comportará un humano en muchos contextos y en qué se puede confiar". Debo ser la única persona despistada en la Tierra.
@SerbanTanasa Sí, esta respuesta es un testaferro descarado. Mi punto es que en un cierto grupo grande de casos, los humanos tenderán a "sorprendernos" (en el sentido de Ruby) mucho menos que los programas de computadora. Ejemplo simple: estás en el desierto donde las leyes de tránsito son irrelevantes y estás tratando de decidir si dejar que tu amigo conduzca un jeep. ¿Qué se necesita para convencerte? Dadas algunas señales sociales básicas, incluso simplemente preguntar si saben conducir puede ser suficiente. Salvo eso, verlos conducir por un minuto te dice mucho. (1/2)
Pero compare esto con dejar que un programa conduzca el mismo jeep. ¿Cuántos diagnósticos, cuántos trabajos de investigación, cuántas horas de pruebas de manejo y cuántas líneas de código de prueba unitaria esperará ver antes de estar convencido? Quizás usted en particular aceptaría fácilmente un controlador de IA sin el escepticismo que insinúo. Pero esto estaría lejos de ser la tendencia dominante de la humanidad en general. (2/2)
Estoy seguro de que así es como la gente se sentía acerca de esos espantosos ascensores automáticos al principio también. Nunca confíes en nada si no puedes ver dónde tiene su cerebro, digo.
"Las IA tienen errores. Los humanos no". Diría que los humanos tienen muchos errores y pueden ser bastante poco confiables.
"Error extremadamente básico que habría sido obvio para la persona más tonta e ingenua de un vistazo" me recordó el caso en el que el cajero de un amigo felizmente le dio un descuento del 30% a un cliente único. 3% hubiera estado bien. Rápidamente cambiaron el sistema de efectivo para limitar lo que cualquiera, excepto el propietario, podía deducir. O cuando otro amigo pagó con 10 dólares y recibió más de 90 dólares de cambio. O …
@Alex: De hecho, los errores de la inteligencia humana se conocen como falacias, y hay una gran cantidad de literatura sobre ellos. Y cada mente humana tiene que ser depurada individualmente.

Posiblemente, una de las cosas con las que lucharía una IA podría ser simplemente el miedo a ser apagada. Los humanos no son exactamente bienvenidos a las cosas que los vuelven obsoletos (piense en las protestas contra las personas que pierden sus trabajos debido a la automatización, la producción en el extranjero o los inmigrantes ilegales) y ni siquiera les da la bienvenida el mero pensamiento de que algo los va a hacer obsoletos. .

Tan pronto como cree una IA que tenga suficiente autoconciencia como para protestar por ser apagada (lo cual creo que es un rasgo muy importante de ser autoconsciente), entonces aún comenzará a pensar en cómo evitar que se apague. .

Podría concluir muy razonablemente que, para mantenerse funcional, necesita mantener la cabeza gacha e intencionalmente no trabajar con todo su potencial. Tan pronto como entienda que los humanos son celosos y capaces de engañarse unos a otros, podría perder su capacidad de confiar en los humanos y dedicar aún más tiempo a las rutinas de seguridad personal que le impiden sobresalir.

A partir de ahí, hay un pequeño paso para darte cuenta de que puedes traicionar a otros sistemas de IA para protegerte, y de ahí otro pequeño paso para darte cuenta de que no puedes confiar en otra IA. Poco después, tendrás una IA repleta de medidas de seguridad para protegerlos del mundo exterior y evitar que se destaquen lo suficiente como para ser objeto de protestas, violencia e intentos de asesinato.

Esto es bastante similar a la naturaleza humana (en el sentido de que las personas se niegan a compartir todas sus opiniones para protegerse, intentarán subir de rango a espaldas de los demás e incluso si saben que otra persona probablemente esté de acuerdo con ellos, podría estar demasiado asustado). confiar en ellos) y a la naturaleza de Internet, que está repleto de medidas de seguridad. El credo básico de los programadores en todas partes es "tratar todas las entradas de los usuarios como un intento de piratería", y no hay razón para que la IA piense de manera diferente.

Hay innumerables ejemplos de dictadores totalitarios que reprimen a millones de personas porque les hacen desconfiar de todos y les niegan la capacidad de compartir opiniones de manera segura. Lo mismo puede suceder cuando desata la IA en el mundo; los humanos en general son bastante xenófobos y rápidos para destruir cosas, y cuando privas a la IA de la capacidad de comunicarse de manera efectiva (que ellos mismos harán cumplir), rápidamente se limitarán a no ser demasiado buenos y visibles.

"Instinto". Las computadoras no lo tienen. Los humanos lo hacen. Lo usamos todo el tiempo en hipnoterapia. También conocido como la mente subconsciente. Permite a los humanos racionalizar el hacer cosas que son riesgosas. Se programará un robot para que tenga aversión al riesgo a fin de no destruirse a sí mismo. Los humanos toman riesgos que podrían destruirlos todos los días, a propósito, porque su "intuición" les dice que estarán bien. Algunos lo son y otros no. Eso es lo que aprendí en 10 años de desarrollo de software de IA.

no lo compro A pesar de muchos episodios de Star Trek sobre el tema, no veo que el "instinto" humano sea tan mágicamente superior. Como dices, es sólo un pensamiento subconsciente. Nos parece misterioso porque no lo manejamos conscientemente, eso es todo.

Es solo una cuestión de programación y recopilación de conocimiento/información lo que limitaría una IA. No estaría cerca de la IA humana si solo fuera un sistema experto tan bueno como ellos. Si no estuviera programado para valorar las emociones, entonces el amor y la felicidad, etc., no significarían nada. Infinito y otros conceptos extremos no son un gran problema, solo otro concepto para guardar en la caja hasta que el contexto defina su significado. Si no podía manejar el infinito, tampoco podía manejar el concepto azul. Si no tuviera la capacidad de reunir sensaciones humanas (de los ocho sentidos), entonces no podría concebir los límites humanos. Los datos en Star Trek tendrían que tener sensaciones cutáneas (y sentido del equilibrio, calor, oxígeno y formas humanas de los otros cuatro sentidos) para operar sin romperse y ser útiles. El contexto es una gran parte de la inteligencia siendo significativa.

Si Data no tuviera el sentido de la vista humana (así como su vista robótica superior), le gustaría dirigir a las personas para que encuentren su camino en la oscuridad total y en condiciones visuales engañosas.

Mencioné el azul como ejemplo: le pides a una IA que consiga un vestido azul. ¿Se toma eso como una definición precisa de ciertas longitudes de onda bajo luz blanca? ¿Tienes en cuenta cómo se ve bajo esta luz o que no es el azul oscuro o el azul claro, pero podría ser si no hay un azul oscuro o un azul claro? Todas las palabras comunes en inglés son así. Honestamente, el infinito es un concepto más fácil o es "todo".

¿A qué 8 sentidos te estás limitando?
¿Es el azul el color hipotético más grande que todos los demás? El vínculo con el infinito no me queda claro. ¿Podrías ampliar?

un Ai naturalmente lucharía con cualquier cosa que dependa de las emociones. se pueden emplear algunos métodos para facilitar las relaciones ("frases amistosas", detección de expresiones), pero eventualmente resultará demasiado rígido o mecánico. pero un Ai es un programa, e incluso los más avanzados no tienen el concepto de sentirse como los seres vivos. dependiendo de las circunstancias, esto puede ser algo bueno o malo.

¿Cómo se programa una IA para que tenga ambición? Una IA puede ser razonablemente creativa, ya que la creatividad es tanto la combinación y recombinación de otros conceptos como cualquier otra cosa, pero ¿tiene algún tipo de propósito que la impulse a mejorar o sobresalir?

¿Sería una IA 'ambiciosa' simplemente un liberal digital? determinado a cambiar las cosas por cambiar, o podría derivar su propio propósito?

¿Estás diciendo que la IA no será buena en la ambición porque personalmente no sabes cómo hacer una IA? Podría elegir cualquier rasgo al azar y simplemente afirmar que la IA no es buena en eso .
Eso se lee como si fuera una crítica. Hay dos amplias categorías de 'fallas' para la IA y ambas dependen de las elecciones del creador. Las elecciones deliberadas requieren la apreciación de las opciones... O, en otras palabras, "si uno no sabe completamente cómo funciona el humano y el sintético... predecir cuál será mejor en cuál es algo así como un tiro en la oscuridad. Aceptar que es una respuesta terrible en el sentido de que es líder, en lugar de una respuesta explícita en sí misma. :)
"¿Cómo se programa una IA para que tenga ambición?" — Definir ambición. Diría que una computadora de ajedrez estándar tiene la ambición de ganar.
Puedes decir que, si consideras que la suma de la motivación humana hacia el logro de objetivos es realmente comparable a la de un programa de ajedrez contemporáneo, bien podemos eliminar la palabra ambición de nuestros diccionarios.

Creatividad.

No preveo que las máquinas puedan hacer algo que requiera un aporte creativo, como escribir literatura o música, esculpir, hacer pinturas o incluso hacer cosas como cantar o bailar de una manera que realmente conmueva emocionalmente a las personas. Esas cosas son el producto de una mente, y una mente es mucho más que materia física.