¿Pueden las redes neuronales artificiales ser teorías efectivas?

Wikipedia describe las " teorías efectivas " de la siguiente manera.

En ciencia, una teoría efectiva es una teoría científica que propone describir un cierto conjunto de observaciones, pero explícitamente sin la afirmación o implicación de que el mecanismo empleado en la teoría tiene una contrapartida directa en las causas reales de los fenómenos observados a los que se refiere la teoría. está equipado. Es decir, la teoría propone modelar un determinado efecto, sin proponer modelar adecuadamente ninguna de las causas que contribuyen al efecto.

Si bien Wikipedia comienza con el contexto 'en ciencia', solo he visto que este lenguaje se usa en física, por lo que estoy preguntando aquí en Physics.SE.

Teoremas como el Teorema de aproximación de funciones universales muestran que ciertas clases de redes neuronales artificiales pueden aproximar funciones medibles de Lebesque con precisión arbitraria (hasta medir cero) con suficiente ancho y profundidad de las capas de la red. Esto me ha llevado a contarle a la gente en broma que "las redes neuronales nunca serán una Teoría del Todo, pero ya son una Teoría de 'Cualquier Cosa'".

Vinculando la noción de teorías efectivas junto con las redes neuronales, ¿las redes neuronales realmente cuentan como teorías efectivas? ¿O hay aquí un matiz en el que no califican?


Presumiblemente, uno podría hacer una pregunta similar sobre polinomios en el contexto del teorema de Stone-Weierstrass , pero sospecho que la respuesta será de carácter similar.

Respuestas (1)

No creo que esto cambie el espíritu de la pregunta que está haciendo, pero comenzaré con una aclaración porque creo que la definición de Wikipedia no está clara (no sé qué significa "causas reales"). La forma en que la mayoría de los físicos usan el término "teoría efectiva" no se refiere a una sola teoría en sí misma. Es una relación entre dos teorías diferentes, una de las cuales puede ser desconocida. Una teoría puede ser una "teoría efectiva" de otra teoría (posiblemente desconocida) al reproducir algunas de las predicciones de esa otra teoría usando postulados menos detallados.

Con esa aclaración, la respuesta es bastante clara: sí: se podría diseñar una red neutral para reproducir muchas de las predicciones de alguna otra teoría, digamos QED, por lo que una red neuronal podría ser una "teoría efectiva". La mayoría de los físicos no estarían contentos con ese tipo de teoría, ni siquiera como una "teoría efectiva", porque no es muy eficiente: cada parámetro que caracteriza a cada neurona, sin mencionar la topología de la red, es esencialmente un postulado separado. Son muchos postulados . Pero dejando de lado los criterios estéticos, la respuesta es sí: una red neuronal puede ser una teoría efectiva (muy ineficiente).

En realidad, tal vez no sea justo al suponer que sería ineficiente. Supongamos que entrenamos una red neuronal para reproducir un millón de resultados experimentales diferentes. Para que el entrenamiento tenga éxito, la arquitectura de red neuronal con la que comenzamos debe ser lo suficientemente expresiva. Si tenemos la suerte de elegir una arquitectura que sea apenas lo suficientemente expresiva, entonces de hecho tendríamos una teoría eficiente, la llamemos o no "efectiva". Sin embargo, en la práctica, elegir una arquitectura que apenas sea lo suficientemente expresiva parece tan difícil como generar una teoría eficiente de la manera tradicional, eliminando el problema durante muchas décadas, una publicación a la vez.