¿Cómo refutan estas premisas y esta conclusión el experimento CR de Searle?

Así que he estado investigando este tema durante días. Revisé su artículo y también algunos hilos aquí, que me parecieron muy útiles. Se me ocurrieron estas premisas y las siguientes conclusiones para refutar el argumento de Searle y respaldar que las computadoras pueden pensar y tener procesamiento semántico.

P1) Tal como dice Searle, el sistema de IA es estrictamente sintáctico, siguiendo reglas y símbolos.

P2) El sistema de IA es una caja negra. Hay controversias sobre cómo, si bien la IA es inteligente , los creadores humanos no saben exactamente qué sucede dentro del sistema (es decir, qué están aprendiendo realmente, o cuándo hay un error, etc.).

P3) El sistema de IA es más complejo que las calculadoras. Las calculadoras son un sistema simple que puede reducirse a circuitos electrónicos que manipulan números, pero los sistemas de IA son definitivamente más complejos.

P4) El sistema de IA es un mimetismo del cerebro humano (es decir, la red neuronal es un ejemplo de múltiples neuronas, y apoyo la refutación del conexionismo de que múltiples neuronas eventualmente en su conjunto podrían brindar experiencia semántica.

C1) La IA es como un robot cachorro. Aunque el sistema de IA está estrictamente definido sintácticamente (robot), no sabemos exactamente qué sucede dentro (cachorro). Por lo tanto, debe tener su propia semántica posiblemente desarrollada.

C2) Así como la IA es superior a las calculadoras, el cerebro es un sistema más complejo y superior a la IA que nuestra tecnología actual aún no ha logrado. Comparar el cerebro humano con las técnicas de IA no es adecuado.

Quería probar la solidez de mis declaraciones, y cualquier comentario es bienvenido. Gracias.

El título está mal, es imposible "refutar" un experimento, incluso un experimento mental. Entonces, ¿no estoy seguro de cuál es la pregunta exactamente? Para verificar si el argumento es válido, ¿se supone que Ps son premisas y Cs conclusiones? En ese caso, no veo cómo "debe tener su propia semántica" se deriva de "no sabemos exactamente", o de dónde viene "comparar el cerebro humano con la IA no es adecuado", las computadoras funcionan con los mismos principios de von Neumann arquitectura como calculadoras.

Respuestas (1)

En mi opinión, P4 y P2 se contradicen entre sí. Es posible que no podamos comprender todos los detalles a la vez, pero si entendemos el diseño, esto no es una caja negra.

Los errores no son evidencia de pensamiento independiente. Tampoco lo es la escala pura. No sabemos al pie de la letra lo que está pasando en una caja de sujetapapeles, eso no significa que piense.

Entonces C1 no es realmente compatible. Conocemos la semántica que se pretende que tenga el robot. El no tenerlos, o el hecho de que lo que ponemos en marcha nos abrume en detalle a través del caos intrínseco, no es evidencia de su inteligencia. Un vórtice de viento nos abruma en detalle a través del caos intrínseco y permanece sin pensar.