¿Cuáles podrían ser algunas de las implicaciones filosóficas más significativas de una singularidad tecnológica?

Varios futurólogos y tecnólogos destacados, sobre todo Kurzweil y Moravec, han proyectado diferentes plazos para una próxima singularidad tecnológica en el próximo siglo o incluso en unas pocas décadas.

Suponiendo, quizás ingenuamente, que les tomemos la palabra, ¿cuáles podrían ser algunas de las implicaciones filosóficas más significativas, cruciales o de mayor alcance de un aumento masivo en la cantidad y calidad de la inteligencia para nuestra civilización?

En particular, ¿qué consideraciones éticas podrían estar involucradas en el desarrollo previsto de mentes simuladas que poseen una gran semejanza con las mentes humanas, o inteligencia artificial de nivel sobrehumano?

Pregunta rápida: ¿qué tipo de respuesta esperas? ¿Es una respuesta especulativa, "Creo" (con razones), o más bien una respuesta "de acuerdo con" (con citas)?
@commando Si bien agradecería una respuesta citada de manera sólida, dada la hipótesis especulativa involucrada, estoy dispuesto a conformarme con una respuesta bien razonada. De paso, algunas de mis principales preocupaciones son la ética de la funcionalidad cerebral de ingeniería inversa y los derechos civiles de las IA (o archivos mentales cargados, etc.)
Creo que el punto más significativo de la singularidad que realmente sucede es el hecho de que realmente sucedió :) Encuentro la predicción tan confusa y mal fundamentada que sería un milagro si Kurzweil y compañía realmente resultaran ser correctos. ¡Eso necesitaría una explicación filosófica!

Respuestas (4)

Si tienen razón, las máquinas responderán a esta pregunta mucho mejor que nosotros ahora. Esa será la revolución en la ética.

Sin embargo, la probabilidad de que esto suceda en una escala de tiempo similar a la sugerida por Kurzweil y Moravec es tan cercana a cero que no vale la pena pensar en el problema. En un conflicto entre las predicciones basadas en la sociología (el avance del progreso tecnológico impulsado por las fuerzas del mercado y las mejoras de diseño incrementales) y las limitaciones basadas en la física (disipación resistiva de energía, corrientes de fuga, incertidumbre mecánica cuántica, etc.), desconcertantemente se han puesto del lado de sociología. Esto casi nunca ha sido cierto en el pasado. No es que no conozcamos la física, es que la conocemos y no admitirá el tipo de aumento en el poder de procesamiento que Kurzweil imagina con cariño.

Gracias y +1! ¿Podría ampliar un poco las limitaciones físicas que cree que las líneas de tiempo de Moravec/Kurzweil están dejando de lado de manera efectiva? Escuché a Michio Kaku, por ejemplo, discutir el "colapso" de la Ley de Moore dentro de unas pocas décadas. Sé que está un poco al margen de la pregunta principal, pero tengo curiosidad por saber si este es el problema básico con la hipótesis de la singularidad tecnológica como lo ves.
@JosephWeissman: no tengo tiempo para dar una respuesta adecuada, pero existen todo tipo de límites físicos, que van desde la energía mínima requerida para realizar un cálculo de un bit, hasta las densidades de energía máximas en todos los materiales conocidos, cada uno de lo que causará problemas para varios esquemas de computación. Si compara estas cosas con, por ejemplo, el gráfico de La era de las máquinas espirituales ( en.wikipedia.org/wiki/File:PPTExponentialGrowthof_Computing.jpg ), se hace evidente que Kurzweil está siendo un poco optimista. Los sigmoides parecen exponenciales desde el principio... un error clásico.

Con respecto a la ética de las mentes simuladas, parece que la prueba de Turing corta ese nudo gordiano en particular de manera bastante irrevocable. Si se tiene en cuenta el tenor del debate sobre la conciencia, aún no se ha encontrado una alternativa plausible para clasificar los niveles de conciencia, y la naturaleza binaria de la clasificación proporcionada reduce todas esas preocupaciones éticas a equivalentes humanos*.

Sin embargo, para ampliar las primeras líneas de la respuesta de Rex, creo que la perspectiva más emocionante es algo análogo a la idea de Sam Harris de un cálculo utilitario basado en estados mentales. En un mundo posterior a la singularidad, su supuesto cálculo "en principio" se convierte potencialmente en un asunto "en la práctica", lo cual es una perspectiva tentadora en extremo. En un mundo con el poder de procesamiento y el equipo para cuantificar con precisión la felicidad, un subproducto necesario de nuestra capacidad para simular mentes, la ética se convierte en un juego de pelota completamente diferente.

*Ciertamente, puedo imaginar todas esas preocupaciones, pero creo que podría valer la pena hacer esto como una pregunta separada... Editar: Así que lo he preguntado

@TomBoardman: respuesta interesante y +1 (aunque no estoy convencido de su premisa principal), pero no creo que Harris haya abordado adecuadamente todas las críticas clásicas del utilitarismo (al menos no públicamente), excepto para decir, en efecto , "Bueno, no podemos hacerlo bien, pero al menos podemos evitar hacer algo terriblemente horrible". Eso deja mucho que desear en mi opinión. Si conoce trabajos suyos más recientes que aborden algunos de los temas más espinosos (p. ej., qué valora exactamente, cómo pondera las preocupaciones de las personas, etc.), ¡comparta!

En particular, ¿qué consideraciones éticas podrían estar involucradas en el desarrollo previsto de mentes simuladas que poseen una gran verosimilitud para las mentes humanas, o inteligencia artificial de nivel sobrehumano?

Me imagino que tal desarrollo dividirá el mundo de la ética en dos, cada lado con ideas muy diferentes:

Por un lado, la gente afirmará que tales mentes simuladas, en virtud de su verosimilitud con respecto a las mentes humanas, tienen derechos civiles. El fisicalismo , especialmente el tipo más completo ( todo es físico, es decir, un punto de vista materialista) es probable que atraiga a muchos a este punto de vista. Los fisicalistas verán las mentes simuladas como equivalentes a las mentes humanas; dado que ven todos los fenómenos como físicos, pensarán en una réplica de la mente humana con IA avanzada equivalente a la mente humana misma, que posee las mismas conexiones neurológicas y almacenamiento en forma de transistores y memoria.

Por otro lado, la gente afirmará que, a pesar de la verosimilitud de estas mentes simuladas para las mentes humanas, no tienen ni deberían tener ningún derecho ético. Esto se debe a que son solo objetos físicos y carecen de la conciencia y sensibilidad de los seres humanos. Los dualistas en particular se sentirán atraídos por este punto de vista, porque no ven la conciencia humana como replicable por medios puramente físicos. Por lo tanto, independientemente de cuán poderosa sea la IA de las computadoras, simplemente no tendrán la mente de las personas, por lo que no se les puede atribuir ningún derecho particular.

En última instancia, me parece que la ética de las computadoras y la IA avanzada depende en gran medida de los puntos de vista ontológicos de cada uno; aquellos inclinados hacia la metafísica probablemente negarían los derechos a las computadoras, mientras que los fisicalistas puros probablemente atribuirían derechos a las computadoras.

Gracias atrasadas y +1! Algunos puntos muy útiles aquí
Parece como los casos anteriores de derechos civiles: déjelos defenderse en la corte y legalmente, estamos obligados por el resultado.

El principal problema significativo con la idea de la Singularidad es que no existe una buena teoría de la conciencia y por lo tanto de la inteligencia; muchos de los avances en lo que podría interpretarse ampliamente como inteligencia artificial han sido precedidos por una buena teoría de lo que es posible y cómo ha sido posible; por ejemplo:

  • indexación: esta es la idea básica de la búsqueda y, por supuesto, detrás de Google y otros motores de búsqueda; el gran aumento del poder de procesamiento y la disponibilidad de grandes conjuntos de datos, es decir, la web mejora enormemente esta capacidad; tanto que a veces parece magia; pero la idea básica es simple.

  • robótica: hay una buena comprensión del movimiento - Mecánica newtoniana; esto se puede aplicar al problema de imitar el movimiento natural de escarabajos, peces, cuadrúpedos, bípedos y pájaros; mucho de este trabajo ya se ha hecho; y se puede ver que varias tecnologías encajan en un paradigma que hará de esto una realidad.

  • equipo sensorial: por ejemplo, visión artificial; tenemos una buena teoría de óptica y acústica; de la química y el espectro electromagnético; El nuevo problema importante aquí es la coincidencia de patrones, pero nuevamente podemos ver de manera bastante directa lo que se requiere y es cuestión de tiempo que esto se haga bien.

También vale la pena señalar que el gran aumento en el poder de procesamiento, que ha estado siguiendo la Ley de Moore durante algún tiempo, es una consecuencia del tipo de tecnologías que se utilizan dentro de los microprocesadores; esencialmente todo se convierte en la mitad del tamaño cada pocos años; y es este proceso el que ha estado impulsando el progreso; por ejemplo , no se puede prever un proceso similar para la energía solar simplemente porque existe un límite teórico sobre la cantidad de energía que se puede generar por metro cuadrado de luz solar; en algún momento la Ley de Moore se detendrá y uno se verá obligado a comprender el Paralelismo Masivo; la web, por supuesto, es un precursor de esto a un nivel muy básico; como lo son las redes neuronales.

Incluso antes de que nos acerquemos a la inteligencia similar a la humana, habrá importantes desafíos éticos asociados con la convergencia de ciertas tecnologías; por ejemplo, la guerra de drones y la vigilancia masiva ya han causado mucha preocupación; problemas similares se harán evidentes en el futuro previsible.

También vale la pena relatar una historia de Fredric Brown, llamada Respuesta ; y lo suficientemente breve como para citar aquí:

Dwan Ev soldó ceremoniosamente la conexión final con oro. Los ojos de una docena de cámaras de televisión lo miraban y el subether mostraba en todo el universo una docena de imágenes de lo que estaba haciendo. Se enderezó y asintió a Dwar Reyn, luego se movió a una posición al lado del interruptor que completaría el contacto cuando lo lanzara. El interruptor que conectaría, todo a la vez, todas las monstruosas máquinas informáticas de todos los planetas poblados del universo (noventa y seis mil millones de planetas) al supercircuito que los conectaría a todos en una supercalculadora, una máquina cibernética que combinar todo el conocimiento de todas las galaxias. Dwar Reyn habló brevemente a los trillones que miraban y escuchaban. Luego, después de un momento de silencio, dijo: "Ahora, Dwar Ev". Dwar Ev pulsó el interruptor. Hubo un zumbido poderoso, la oleada de energía de noventa y seis mil millones de planetas. Las luces destellaron y se silenciaron a lo largo del panel de millas de largo.

Dwar Ev dio un paso atrás y respiró hondo. "El honor de hacer la primera pregunta es tuyo, Dwar Reyn".

"Gracias", dijo Dwar Reyn. "Será una pregunta que ninguna máquina cibernética ha sido capaz de responder".

Se volvió hacia la máquina. "¿Hay un Dios?"

La poderosa voz respondió sin dudarlo, sin el clic de un solo relé. "Sí, ahora hay un Dios". Un miedo repentino brilló en el rostro de Dwar Ev. Saltó para agarrar el interruptor. Un relámpago del cielo sin nubes lo derribó y fundió el interruptor.