Con respecto a la IA y los robots, ¿pueden alcanzar la sensibilidad y la conciencia?

Si un robot tuviera un sistema cognitivo en su 'cabeza' que pudiera pasar la Prueba de Turing y sus habilidades de IA fueran autosuficientes (y pudiera reprogramar cualquier parte de 'sí mismo' sin causar autosabotaje), ¿cuánto tiempo tardaría en desarrollarse? tarda en volverse consciente?

Ha habido mucha publicidad en Hollywood sobre tales situaciones y me preguntaba qué se necesitaría para llegar a este punto. No desde un punto de vista tecnológico sino desde un punto de vista filosófico. ¿Puede una computadora aprender a ser humana? ¿O es necesario poner a un ser humano en una computadora (es decir, trascendencia)?

Como científicos informáticos, nos gusta creer que el poder computacional de las computadoras es ilimitado y, de ser así, es más una cuestión de si necesitamos o no filósofos para describir lo humano a una computadora. ¿Puede un ser "tonto" esencial entenderlo como lo hemos hecho nosotros, pero sin tenerlo para empezar? Siendo conciencia o sensibilidad.

Bueno, todavía necesitamos la entrada de un programador externo (e ignorar la necesidad conduce a una falla catastrófica a largo plazo), así que... ;-)
Si un robot con IA avanzada pudiera reprogramarse con respecto a procesos importantes, es posible que no tenga que esperar la ayuda de un programador externo. Tal vez esto podría suceder en un futuro cercano..
Más o menos hasta Descartes
Me parece que estás preguntando algo como: "si un robot tiene un sistema cognitivo comparable a la mente humana, ¿por qué no puede aprender el arte de la programación de computadoras?". Por que no ? ...
Creo que las ediciones de esta pregunta la han mejorado bastante, y estoy reabriendo la pregunta.
Siempre. Porque el mundo ya está lleno de robots... y no hechos artificialmente.
¿Es un objetivo de la inteligencia artificial "crear" un sistema similar a una computadora que sea autosuficiente y capaz de reprogramar "partes" para posiblemente aumentar la eficiencia y la autoorganización? ¿Podría caracterizar tal sistema como un 'motor cognitivo' que está constantemente 'trabajando' para disminuir o estabilizar la 'información-entropía'? (si el concepto de entropía se puede aplicar a la información)
Si un sistema informático de IA pudiera reprogramarse a sí mismo y ser capaz de hacer esto continuamente y administrar todos sus programas interactivos resultantes y otra información. paquetes no necesitaría ningún programador 'externo' o su entrada. Podría ser su propio programador y reprogramador 'personal'. Todo el tiempo gestionando todos estos esfuerzos; sus propios 'proyectos' computacionales. Tal sistema lo llamo 'auto-cibernético', en oposición a un sistema que requiere entrada 'externa' para funciones importantes; esto lo llamo 'exo-cibernético'. Por tanto, un sistema de IA autocibernética sería su propio sistema de gestión de la información.
¿Qué pasa si los 'comienzos' de la conciencia están en parte dentro de un sistema dinámico que puede administrar y manipular su propia información; y que tiene la capacidad de reprogramarse en tiempo de hormigas..
En resumen, no. Cualquier otro punto de vista requeriría alguna evidencia de la cual no hay ninguna. La idea de que la conciencia es simplemente computación no tiene respaldo científico, aunque es popular entre los científicos. Aquellos que estudian la conciencia generalmente la descartan por contradecir la evidencia. .
Argumento aquí que se requiere un cambio estructural para que ocurra la creatividad de las reglas, lo que implica la intersubjetividad o la comprensión basada en agentes de otros agentes en la comunidad que desarrollan reglas dinámicamente: philosopher.stackexchange.com/a/86890/30474

Respuestas (4)

Este tipo de pregunta asume que la conciencia humana es una propiedad emergente del cerebro. No tenemos idea si esto es cierto. Si la conciencia es inmaterial, entonces es incapaz de ser copiada por una computadora.

Entonces, la pregunta previa que debe responderse es si la conciencia es de origen material. El sentido común diría que no.

Un sistema informático que es 'de algún modo' autosostenible podría tener un 'conglomerado' de programas con ciertas cualidades necesarias invariantes. Esta jerarquía de programas interactivos que se necesita para que la computadora funcione podría considerarse una parte INMATERIAL del sistema al igual que usar la analogía de 'software' que representa la 'mente' y 'hardware' para representar el cerebro.
Estás diciendo que la conciencia es una propiedad emergente, que es el punto al que respondo en el comentario que comentaste...
¿No es un sistema operativo de computadora un sistema de programas que son 'inmateriales' pero que pueden ser copiados por una computadora? Si un sistema operativo de una máquina de IA es 'autosuficiente', podría 'agregar' nuevas cualidades a su 'estructura lógica' y, por lo tanto, tener cualidades emergentes.
Si un sistema de IA desarrollara habilidades para automantener todas sus cualidades importantes, sería un 'conglomerado' autoorientado de 'paquetes' y programas de información, todos constantemente diseñados y rediseñados para mantenerse 'sí mismos' existentes. Así que este 'conjunto' de información 'activa' que se perpetúa a sí mismo. los procesos serían análogos a la 'mente' automanipuladora de información (un sistema autosuficiente de procesos activos 'semi-invariantes'). Creo que cualquier proceso importante se considera intangible porque no es completamente 'explicable' por las estructuras físicas y sus interacciones.
¿Por qué es de sentido común que la conciencia es inmaterial? Tal vez no entiendo tu uso de la palabra material.
Solo estoy usando el término inmaterial porque he escuchado y leído sobre muchas personas que describen la conciencia de esa manera, como si no estuviera 'arraigada' en procesos físicos reales en el cerebro o algún tipo de 'estructuras' físicas de neuronas y axones. etc., entonces no es 'real' o es 'fantasmal'. Creo que la conciencia o un sistema operativo de IA autosuficiente (un análogo a la 'mente') son tan reales como el cerebro.
¿Es el argumento del 'fisicalismo' que nuestras 'mentes' son idénticas a nuestros cerebros? Para tomar una analogía, el hardware no puede reestructurar o reprogramar el software (a menos que algún hardware dañe el software), sin embargo, por analogía, el hardware 'cerebral' puede reprogramar el software 'mental'. Creo que solo el software (ya sea en una computadora o en una 'mente-cerebro') ') puede alterar 'funcionalmente' otro software (por lo que todavía está funcionando).
Si existiera una serie de sistemas de IA autosuficientes y autosuficientes que no necesitaran la entrada de ningún 'programador externo', entonces todos estos sistemas podrían 'estudiarse' desde 'afuera' al ver cómo cada uno se programa y reprograma 'a sí mismo' y cómo cada uno administra y organiza estos programas. Estudie también cómo cada sistema 'establece' su propio 'proyecto' u objetivos y cómo los lleva a cabo. Si se estudian tales sistemas desde 'afuera', los 'programas' y cómo se manipulan se convierten en las 'unidades' básicas de estudio. Esto podría considerarse un estudio de 'patrones' de manipulación de programas o 'Meta-programación'.
¿Es un sistema de software que controla una máquina 'material' en origen? Si un sistema de software que 'hace' una nueva 'combinación' de software mediante un algoritmo genético, por ejemplo, y agrega esta nueva combinación de software al resto de su programación, ¿es esta adición material en origen?
Si soy consciente y sintiente en virtud de tener un alma (o, quizás más exactamente, siendo un alma que posee temporalmente un cuerpo), ¿qué impide que una computadora obtenga un alma? No he existido desde siempre, así que mi alma llegó a existir en algún momento de mi desarrollo, o un alma preexistente adherida a mi cuerpo. Ninguno de esos procesos requiere necesariamente ningún tipo de biología.
@DavidThornley, la computadora no sería sensible al igual que el cuerpo no es sensible. En ambos casos es sólo el alma la que es sensible.
El 'sentido común' tiene un historial bastante terrible, y no es una base para la filosofía o la ciencia.

Cada vez es más claro que con todas las teorías sobre el cerebro y la conciencia que existen, la prueba estará en el pudín. Con esto quiero decir, ¿se puede usar alguna teoría en particular para crear una máquina consciente de nivel adulto humano? Mi apuesta es por la Teoría Extendida de la Selección de Grupos Neuronales del difunto Gerald Edelman. El grupo líder en robótica basado en esta teoría es el Laboratorio de Neurorobótica de la UC en Irvine. El Dr. Edelman distinguió entre la conciencia primaria, que llegó primero en la evolución, y que los humanos comparten con otros animales conscientes, y la conciencia de orden superior, que llegó solo a los humanos con la adquisición del lenguaje. Una máquina con conciencia primaria probablemente tendrá que venir primero.

Lo que encuentro especial sobre el TNGS es la serie de autómatas de Darwin creada en el Instituto de Neurociencias por el Dr. Edelman y sus colegas en las décadas de 1990 y 2000. Estas máquinas funcionan en el mundo real, no en un mundo simulado restringido, y muestran un comportamiento físico convincente que indica funciones psicológicas superiores necesarias para la conciencia, como la categorización perceptual, la memoria y el aprendizaje. Se basan en modelos realistas de las partes del cerebro biológico que, según la teoría, cumplen estas funciones. El TNGS extendido permite el surgimiento de la conciencia basado solo en un mayor desarrollo evolutivo de las áreas del cerebro responsables de estas funciones, de manera parsimoniosa. Ninguna otra investigación que he encontrado es tan convincente.

Lo publico porque en casi todos los videos y artículos sobre el cerebro y la conciencia que encuentro, la actitud parece ser que todavía no sabemos casi nada sobre cómo funcionan el cerebro y la conciencia; que hay muchos datos pero ninguna teoría unificadora. Creo que el TNGS extendido es esa teoría. Mi motivación es mantener esa teoría frente al público. Y obviamente, lo considero el camino hacia una máquina verdaderamente consciente, primaria y de orden superior.

Mi consejo para las personas que desean crear una máquina consciente es que primero se basen seriamente en el TNGS extendido y los autómatas de Darwin, y continúen desde allí, posiblemente solicitando ingreso al laboratorio de Jeff Krichmar en UC Irvine. La hoja de ruta del Dr. Edelman hacia una máquina consciente se encuentra en https://arxiv.org/abs/2105.10461

Al final del día, ¿qué es un cerebro humano? Es una red de neuronas que han sido entrenadas para activarse de ciertas maneras, esencialmente simulando puertas lógicas como NAND y NOR. Se puede construir un mapeo teórico desde las puertas lógicas hasta las neuronas que muestre que las puertas lógicas son capaces de simular un cerebro/sistema nervioso humano. Por lo tanto, desde el punto de vista de la jerarquía de poder computacional/lenguaje , el cerebro humano "no es diferente" de una computadora porque son reducibles entre sí. Entonces, parece que la respuesta es Sí, es posible.

El costo de que una computadora desarrolle conciencia, sin embargo, es una historia diferente. El mapeo mencionado anteriormente ignora los pasos prácticos y los costos de cómo se crearía un cerebro/sensibilidad artificial en la práctica. Por lo que sabemos, los costos de crear prácticamente una máquina autoconsciente pueden ser prohibitivos. Entonces, si bien puede ser posible, puede no ser práctico.

Tal vez los costos de crear prácticamente una máquina autoconsciente y ponerla en marcha serían exorbitantes, pero si el sistema es autosuficiente, podría "mantenerse en funcionamiento" sin ningún costo adicional ni supervisión.
Además, no olvide que una vez que tenga uno de esos seres, suponiendo que esté basado en computadora, puede copiarlo fácilmente, por lo que el costo inicial puede ser enorme, pero no por unidad, ya que los copia. Supongo que el costo sería el costo del desarrollo del elemento físico y luego la educación, que muy probablemente sería similar a criar a un niño.
Hay una película fascinante ahora o pronto, llamada 'Autómatas', con Antonio Banderas (perdonen la ortografía) y Melanie Griffith sobre una sociedad futura donde algunos robots descubren cómo cambiarse a sí mismos y su propia programación, para 'reprogramarse' a sí mismos para ser ellos mismos. -suficiente. Banderas trabaja para alguna organización (creo) que se preocupa de que estos robots se 'reprogramen' entre sí, así que tiene que encontrarlos y destruirlos antes de cualquier 'revuelta'. Aunque no es una película típica de 'Robot Revolution'. Menciona cómo un robot que cambia su programación es como si estableciera autosuficiencia.
Si las 3 leyes de la robótica de Asimov son tan útiles para gobernar robots sensibles, ¿por qué la moralidad humana ha sido codificada y compactada en un pequeño número finito de "leyes" que todos deberían seguir en lugar de los enormes libros de leyes casi incomprensibles que solo los abogados pueden entender?

Suponiendo que el robot pase la prueba de Turing, nunca podrá tomar su propia decisión sin información adicional. Entonces, un robot que puede aprender en base a sus propias experiencias pasadas (aunque el uso de sensores y la capacidad de notar que partes de su propio sistema fallaron al hacer algo) sería la mejor descripción de un robot consciente. Sin embargo, para que esto sea tan inteligente como un humano, necesitaría pasar por tantas experiencias como todos los humanos en el mundo, y le tomaría demasiado tiempo enseñarle todo lo que sabemos. Una posibilidad es que los robots hablen entre sí, de modo que cuando uno aprenda algo, todos lo hagan. Tales como "no camines por un precipicio para seguir intacto". En este punto, cualquier robot que haya recibido este mensaje subirá a un acantilado, acceda a él'

Teniendo esto en cuenta, una vez que tenga el robot hasta el punto de que pueda moverse libremente y aprender, así como tener el conocimiento suficiente sobre su entorno para que pueda establecer reglas basadas en él, es consciente. Todavía puede cometer algunos errores terribles, como darle a alguien un cuchillo demasiado rápido y matarlo, como en este artículo , pero aún estará consciente. Sería prudente enseñarle ciertas cosas, pero no importa mucho cuando solo estamos tratando con el punto en el que se vuelve consciente.

Porque dijiste que puede cambiar las cosas dentro de sí mismo, eso satisface la necesidad de ser consciente de sí mismo. Ser capaz de cambiar algo dentro de sí mismo implica que tiene capacidades para ver su propio código y mecánica, lo que significa que también puede identificar fallas.

Probablemente, y considerando en qué punto nos encontramos con la robótica, estamos esperando el momento en que sepamos que el robot no nos dañará accidentalmente (lo que retrasaría la industria de la robótica por muchos años debido a la falta de confianza), y peinando los detalles para garantizar que pueda aprender según sea necesario y que pueda ser autosuficiente en términos de mantenerse a salvo. Es probable que esto no esté muy lejos.

Después de todo, si no puede realizar las tres leyes de la robótica , no debería funcionar de manera autosuficiente entre los humanos.

Obviamente no sabes lo que es consciente. ¿Sugieres que eres este robot?
¿Cómo definiría uno 'desempeñarse de manera autosuficiente entre humanos'? ¿Sería una autosuficiencia puramente autoorientada como muchos seres humanos 'usan' o podrían los robots ser 'configurados' para hacer lo mejor para ellos y cualquier grupo 'local' de otros robots y personas con los que están? Escuché que John Nash podría haber sugerido algo como esto.
@user128932, considero que actuar de manera autosuficiente es tener la capacidad de moverse sin ayuda y la capacidad de quedarse solo mientras hace algo sin temor a que se rompa de alguna manera. La pregunta no se refería a la robótica con respecto a un determinado robot de tareas, aunque por el bien de esto diría autosuficiencia autoorientada, porque ese es el estado que haría que aprendiera más y fuera más humanista.
@Ashpir No entiendo por qué dices esto. Claramente, no hay nada en mi respuesta que sugiera que un ser humano sea consciente de un robot y sea su sistema sensorial. Le sugiero que consulte este dictionary.reference.com/browse/consciousness y vuelva a leer mi respuesta.