Si un robot tuviera un sistema cognitivo en su 'cabeza' que pudiera pasar la Prueba de Turing y sus habilidades de IA fueran autosuficientes (y pudiera reprogramar cualquier parte de 'sí mismo' sin causar autosabotaje), ¿cuánto tiempo tardaría en desarrollarse? tarda en volverse consciente?
Ha habido mucha publicidad en Hollywood sobre tales situaciones y me preguntaba qué se necesitaría para llegar a este punto. No desde un punto de vista tecnológico sino desde un punto de vista filosófico. ¿Puede una computadora aprender a ser humana? ¿O es necesario poner a un ser humano en una computadora (es decir, trascendencia)?
Como científicos informáticos, nos gusta creer que el poder computacional de las computadoras es ilimitado y, de ser así, es más una cuestión de si necesitamos o no filósofos para describir lo humano a una computadora. ¿Puede un ser "tonto" esencial entenderlo como lo hemos hecho nosotros, pero sin tenerlo para empezar? Siendo conciencia o sensibilidad.
Este tipo de pregunta asume que la conciencia humana es una propiedad emergente del cerebro. No tenemos idea si esto es cierto. Si la conciencia es inmaterial, entonces es incapaz de ser copiada por una computadora.
Entonces, la pregunta previa que debe responderse es si la conciencia es de origen material. El sentido común diría que no.
Cada vez es más claro que con todas las teorías sobre el cerebro y la conciencia que existen, la prueba estará en el pudín. Con esto quiero decir, ¿se puede usar alguna teoría en particular para crear una máquina consciente de nivel adulto humano? Mi apuesta es por la Teoría Extendida de la Selección de Grupos Neuronales del difunto Gerald Edelman. El grupo líder en robótica basado en esta teoría es el Laboratorio de Neurorobótica de la UC en Irvine. El Dr. Edelman distinguió entre la conciencia primaria, que llegó primero en la evolución, y que los humanos comparten con otros animales conscientes, y la conciencia de orden superior, que llegó solo a los humanos con la adquisición del lenguaje. Una máquina con conciencia primaria probablemente tendrá que venir primero.
Lo que encuentro especial sobre el TNGS es la serie de autómatas de Darwin creada en el Instituto de Neurociencias por el Dr. Edelman y sus colegas en las décadas de 1990 y 2000. Estas máquinas funcionan en el mundo real, no en un mundo simulado restringido, y muestran un comportamiento físico convincente que indica funciones psicológicas superiores necesarias para la conciencia, como la categorización perceptual, la memoria y el aprendizaje. Se basan en modelos realistas de las partes del cerebro biológico que, según la teoría, cumplen estas funciones. El TNGS extendido permite el surgimiento de la conciencia basado solo en un mayor desarrollo evolutivo de las áreas del cerebro responsables de estas funciones, de manera parsimoniosa. Ninguna otra investigación que he encontrado es tan convincente.
Lo publico porque en casi todos los videos y artículos sobre el cerebro y la conciencia que encuentro, la actitud parece ser que todavía no sabemos casi nada sobre cómo funcionan el cerebro y la conciencia; que hay muchos datos pero ninguna teoría unificadora. Creo que el TNGS extendido es esa teoría. Mi motivación es mantener esa teoría frente al público. Y obviamente, lo considero el camino hacia una máquina verdaderamente consciente, primaria y de orden superior.
Mi consejo para las personas que desean crear una máquina consciente es que primero se basen seriamente en el TNGS extendido y los autómatas de Darwin, y continúen desde allí, posiblemente solicitando ingreso al laboratorio de Jeff Krichmar en UC Irvine. La hoja de ruta del Dr. Edelman hacia una máquina consciente se encuentra en https://arxiv.org/abs/2105.10461
Al final del día, ¿qué es un cerebro humano? Es una red de neuronas que han sido entrenadas para activarse de ciertas maneras, esencialmente simulando puertas lógicas como NAND y NOR. Se puede construir un mapeo teórico desde las puertas lógicas hasta las neuronas que muestre que las puertas lógicas son capaces de simular un cerebro/sistema nervioso humano. Por lo tanto, desde el punto de vista de la jerarquía de poder computacional/lenguaje , el cerebro humano "no es diferente" de una computadora porque son reducibles entre sí. Entonces, parece que la respuesta es Sí, es posible.
El costo de que una computadora desarrolle conciencia, sin embargo, es una historia diferente. El mapeo mencionado anteriormente ignora los pasos prácticos y los costos de cómo se crearía un cerebro/sensibilidad artificial en la práctica. Por lo que sabemos, los costos de crear prácticamente una máquina autoconsciente pueden ser prohibitivos. Entonces, si bien puede ser posible, puede no ser práctico.
Suponiendo que el robot pase la prueba de Turing, nunca podrá tomar su propia decisión sin información adicional. Entonces, un robot que puede aprender en base a sus propias experiencias pasadas (aunque el uso de sensores y la capacidad de notar que partes de su propio sistema fallaron al hacer algo) sería la mejor descripción de un robot consciente. Sin embargo, para que esto sea tan inteligente como un humano, necesitaría pasar por tantas experiencias como todos los humanos en el mundo, y le tomaría demasiado tiempo enseñarle todo lo que sabemos. Una posibilidad es que los robots hablen entre sí, de modo que cuando uno aprenda algo, todos lo hagan. Tales como "no camines por un precipicio para seguir intacto". En este punto, cualquier robot que haya recibido este mensaje subirá a un acantilado, acceda a él'
Teniendo esto en cuenta, una vez que tenga el robot hasta el punto de que pueda moverse libremente y aprender, así como tener el conocimiento suficiente sobre su entorno para que pueda establecer reglas basadas en él, es consciente. Todavía puede cometer algunos errores terribles, como darle a alguien un cuchillo demasiado rápido y matarlo, como en este artículo , pero aún estará consciente. Sería prudente enseñarle ciertas cosas, pero no importa mucho cuando solo estamos tratando con el punto en el que se vuelve consciente.
Porque dijiste que puede cambiar las cosas dentro de sí mismo, eso satisface la necesidad de ser consciente de sí mismo. Ser capaz de cambiar algo dentro de sí mismo implica que tiene capacidades para ver su propio código y mecánica, lo que significa que también puede identificar fallas.
Probablemente, y considerando en qué punto nos encontramos con la robótica, estamos esperando el momento en que sepamos que el robot no nos dañará accidentalmente (lo que retrasaría la industria de la robótica por muchos años debido a la falta de confianza), y peinando los detalles para garantizar que pueda aprender según sea necesario y que pueda ser autosuficiente en términos de mantenerse a salvo. Es probable que esto no esté muy lejos.
Después de todo, si no puede realizar las tres leyes de la robótica , no debería funcionar de manera autosuficiente entre los humanos.
Juan Dvorak
usuario128932
marcos catherine blanco
Mauro ALLEGRANZA
davidlowryduda
Dom Asphir
usuario128932
usuario128932
201044
usuario20253
CriglCragl