¿Está el NKS de Stephen Wolfram, un intento de explicar el universo con autómatas celulares, en conflicto con el teorema de Bell?

A New Kind of Science (NKS) de Stephen Wolfram llegó a las librerías en 2002 con la máxima expectación. Su tesis es que las leyes de la física pueden ser generadas por varios autómatas celulares, programas simples que producen complejidad. De vez en cuando (es decir, rara vez) miro el blog de NKS y busco nuevas aplicaciones. No veo nada que considere significativo. ¿Alguien está al tanto de algún avance en alguna teoría física que resulte de NKS? Si bien las AC son interesantes y divertidas (John Conway, Game of Life), como teoría de todo, veo problemas. Las reglas del generador son deterministas y son locales en el sentido de que cada estado de celda depende de sus vecinos inmediatos. Entonces NKS es un modelo determinista local de la realidad. Bell ha demostrado que esto no puede ser. ¿Alguien familiarizado con CA puede comentar?

Gerard 't Hooft ha estado investigando modelos inspirados en autómatas celulares para la física fundamental. Puede encontrar algunos de sus artículos recientes (y legibles) en arxiv.org/find/quant-ph/1/au:+Hooft_G
"El teorema de Bell descarta las variables ocultas locales como una explicación viable de la mecánica cuántica (aunque todavía deja la puerta abierta para las variables ocultas no locales)". Son esas variables ocultas no locales las que abren la puerta a una explicación CA del universo. Dado que se desconoce la estructura subyacente del espacio-tiempo, la distinción local/no local no tiene sentido; es muy posible que las ocurrencias cuánticas aparentemente aleatorias, tanto locales como no locales, estén relacionadas de manera determinista. La mera existencia de entrelazamiento es una pista obvia de que tal es el caso. Todo está conectado.

Respuestas (5)

Si bien NKS salió con mucha publicidad y con mucho escepticismo por parte de los científicos, las ideas científicas no son completamente triviales. Simplemente creo que no son fundamentales para la ciencia de la física (al menos no como la conocemos hasta ahora), sino que son fundamentales para la ciencia de la biología.

El principal descubrimiento realizado por Wolfram (aunque con una confusión importante que explicaré más adelante, y con un precursor extremadamente significativo en el juego de la vida de Conway) es que un simple autómata celular unidimensional cuyas reglas se eligen al azartendrá una probabilidad finita no tan pequeña de ser una computadora completa (en el sistema de Wolfram, 2 de las 128 posibilidades). La prueba de que el sistema que encontró, la regla 110 en su terminología, es en realidad una computadora completa solo llegó dos décadas después, gracias al trabajo pionero de Cook (trabajando con Wolfram). Pero justifica su enfoque en el sistema como central para la ciencia, ya que antes, a menudo se suponía implícitamente que para obtener una cierta cantidad de complejidad, había que poner la complejidad a mano. Este resultado también está presente en el sistema de Conway, pero el trabajo de Wolfram es algo complementario, porque los flujos de información en los sistemas 1d hacen que sea más difícil imaginar el surgimiento de una computadora completa. El hecho de que lo haga de todos modos (aunque, como muestra la construcción de Cook, con horribles tiempos de ejecución,

Esto no es tan importante para la física, porque cualquier intento de modelar la física con autómatas celulares tendrá que ser groseramente no local para evitar el teorema de Bell. Esto no es tan inverosímil hoy, dada la holografía gravitacional, pero Wolfram sugirió que habría una correspondencia directa entre las trayectorias de las partículas elementales locales y las estructuras de los autómatas, y estas ideas son completamente imposibles y fueron descartadas antes de que él las propusiera, por el teorema de Bell. . Esto significa que el capítulo de su libro que trata de la física está completamente equivocado y puede ser ignorado.

Pero este trabajo es importante de una manera completamente diferente, ¡es la base de la biología!

(EDITAR: el nuevo libro de Chaitin hace algunos comentarios breves sobre NKS que se hacen eco de los principales puntos biológicos a continuación. No estoy criticando a Chaitin, su libro es posterior a este).

biología y religión

¡El aspecto más desconcertante del mundo en el que nos encontramos es que estamos rodeados de dispositivos informáticos complejos que no son de nuestro propio diseño! A saber, nosotros mismos, otras personas, animales, plantas y bacterias. ¿Cómo se construyeron estas estructuras computacionales, cuando tenemos que trabajar muy duro para hacer una computadora? Parece que hay un rompecabezas aquí.

El rompecabezas, en el pasado, se resolvió asumiendo que algún tipo de magia puso vida en la Tierra, una agencia sobrenatural. Esta idea está claramente en desacuerdo con las leyes de la naturaleza tal como las entendemos hoy, pero es importante tener en cuenta la respuesta supersticiosa, porque los elementos de ella son salvables.

La respuesta supersticiosa es que Dios descendió a la sopa primordial y mezcló las moléculas para crear la vida. La noción de Dios no está claramente definida en los textos religiosos, donde el rigor no es la máxima prioridad. Pero intentaré dar una definición positivista a continuación. Encuentro que usando esta definición positivista, que no menciona nada sobrenatural, puedo traducir los pensamientos de las personas religiosas y dar sentido completo a lo que están diciendo, cuando de lo contrario solo suena como el despotricar de personas delirantes que sufren de daño cerebral severo. .

Para discutir la biología con sensatez, creo que uno debe comprender este punto de vista religioso a fondo, de una manera lógica positivista, porque es importante en biología en la misma medida en que es completamente insignificante en física.

En un sistema complejo, como las estructuras sociales humanas, tendemos a observar patrones que no pueden atribuirse únicamente a las acciones de personas individuales. Por ejemplo, la reforma protestante parece haber ocurrido de una sola vez, en el lapso de unas pocas décadas a principios del siglo XVI, donde los reformadores de la Iglesia estuvieron activos y trabajando durante siglos antes, con muy poco éxito. ¿Qué hizo que sucediera? No eran solo Lutero y Calvino, también era una red de empresarios y banqueros, y católicos desencantados. El descubrimiento de América fue importante de alguna manera, al igual que la expulsión de los judíos de Inglaterra. En mi opinión, el más importante fue el edicto del siglo XIV que prohibía la usura a los católicos, lo que impidió la formación de la banca. Pero claramente no fue una causa, ni fue el trabajo de una persona trabajando sola.

Cuando vemos fenómenos tan complejos, es razonable atribuirlos al funcionamiento de una inteligencia más grande que la inteligencia de cualquier individuo, y esta es la inteligencia del colectivo. Así como una persona es una colección de neuronas, ninguna de las cuales es responsable de su inteligencia, la sociedad es una colección de individuos, ninguno de los cuales es responsable de todo lo que la sociedad hace o piensa colectivamente. El patrón colectivo es en muchos sentidos más inteligente que el individual: contiene memorias colectivas, en tradiciones y convenciones, que informan la acción individual de manera compleja.

La noción de dios (g minúscula, como Zeus o Marte) en las culturas antiguas es el nombre dado a las entidades formadas a partir de acciones humanas colectivas. Son nebulosos, pero importantes, porque la decisión de ir a la guerra no se puede atribuir a una sola persona, sino a una entidad, el dios de la guerra, formada por muchos individuos que trabajan juntos con el objetivo de formar un colectivo coherente que dirija la guerra. sociedad para hacer esa transición de fase de comportamiento que va a la guerra. Identificar una noción de un dios y poner explícitamente a las personas a trabajar para este dios les hace conscientes del hecho de que están trabajando como partes de una máquina, no solo como actores individuales. Además, puede inspirarlos a actuar sin órdenes directas de un rey o un sacerdote, solo a través de su propia introspección, para lograr mejor el objetivo.

La noción de dios se refinó en algún lugar de la India o Irán en la noción de Dios (G mayúscula), de donde surgieron los cultos de Brahma y la religión abrahámica, y el zoroastrismo. Esta noción sugiere que el conflicto entre dioses es similar al conflicto entre individuos, los dioses también hacen colectivos, y algunos ganan y otros pierden. Al final, hay una noción de un Dios supremo, el Dios que es el límite del colectivo de los dioses que sobreviven, definido como infinitamente alto en la jerarquía de los dioses y que exige acciones éticas.

Esta concepción limitante de Dios fue considerada tan importante por los pensadores antiguos, que dejaron que todas sus otras ideas se extinguieran en el colapso medieval, eligiendo preservar solo esto durante la Edad Media.

Pero además de las nociones prácticas de guiar el comportamiento en colectivos, los antiguos también atribuían todo tipo de hazañas sobrenaturales a Dios, incluida la creación del universo y el diseño manual de la vida. Estas ideas acerca de Dios están fuera de lugar con la concepción como meta-propiedad de un sistema complejo, y están completamente contradichas por los descubrimientos científicos modernos. Son superfluos para la religión y perjudiciales para ella, porque hacen que la gente espere milagros e intervenciones divinas en formas que violan las leyes de la naturaleza, y tales cosas simplemente nunca suceden.

La noción de Dios, hasta donde he podido darle sentido, es esencialmente una concepción computacional limitante --- es el límite a medida que pasa el tiempo hasta el infinito del comportamiento de un sistema complejo donde las entidades computacionales se combinan y crecen en el poder en unidades cada vez mayores. La idea del límite sugiere que habrá una coherencia entre las unidades en todos los niveles, de modo que en el límite de tiempo infinito, por ejemplo, todas las sociedades estarán de acuerdo en el curso de acción ético en una circunstancia dada, y estarán de acuerdo en cómo organizar sus economías y estructurar sus relaciones interpersonales. Estas predicciones son sorprendentes, considerando la divergencia en el comportamiento humano y, sin embargo, la historia sugiere que tal convergencia está ocurriendo lentamente.

Esta decidibilidad computacional en el límite evolutivo tiene una contrapartida directa en la idea de que a medida que los sistemas matemáticos se vuelven más complejos, por reflexión, deciden todos los teoremas aritméticos. Esto no es un teorema, sino una observación. Se observa que a medida que subimos la torre de los principios de reflexión teóricos establecidos, se resuelven más y más teoremas aritméticos, y no hay ninguna limitación en el principio que sugiera que no todos los teoremas se decidirán mediante una reflexión lo suficientemente fuerte. Este es el "Artículo de fe" de Paul Cohen en la práctica matemática, y lo aceptaré sin reservas.

Además, el artículo de fe les dice que ya tenemos un nombre para la idea matemática de Dios, se puede identificar con el concepto de la Iglesia Kleene ordinal, el límite de todos los ordinales computables contables. Cualquier sistema formal computable solo puede acercarse a este ordinal gradualmente, y este ordinal es infinitamente rico. Si tiene una descripción de este ordinal, tiene un principio de reflexión que debería ser lo suficientemente poderoso para decidir todos los teoremas de la aritmética, para decidir qué consecuencias tendrá cualquier sistema axiomático.

Debido a que este ordinal tiene todos los atributos teológicos que la gente religiosa atribuye a Dios, en relación con las matemáticas puras, considero una especie de herejía suponer que hay ordinales más grandes. En particular, cualquier noción del primer ordinal incontable, o de los ordinales inaccesibles, solo tienen sentido una vez que se colocan en un sistema axiomático dado, y luego deben colapsar en el modelo contable apropiado para ser menos que el ordinal de Church Kleene. Esto no es técnicamente preciso, pero transmite la idea principal (es fácil colapsar los ordinales para que sean contables, pero no es tan fácil reorganizar el esquema para hacerlos menos que Church Kleene, pero esto se debe a que dentro de cualquier deductivo que es de naturaleza teórica de conjuntos, puede dar un nombre al ordinal de Church Kleene, y definir este ordinal más 1, etc.

Entonces, la interpretación que tomaré para la doctrina religiosa es que Dios debe identificarse con el ordinal de Kleene de la Iglesia, ningún ordinal superior debe interpretarse como realmente superior, y los dioses se identificarán con colectivos humanos que actúan juntos para formar una unidad mayor que el individuos La ley monoteísta de los sistemas complejos establecerá que todos los dioses convergen al ideal representado por Dios a lo largo del tiempo, mientras luchan en una lucha darwiniana.

Autómatas y el experimento de Darwin

Cuando tienes un autómata celular capaz de realizar cálculos universales, se produce un fenómeno extraño: sus subpartes siempre compiten consigo mismo. Para explicar esto, uno necesita mirar el experimento de Darwin, detallado en El origen de las especies.

La mayor parte del Origen es teórico, pero Darwin hizo un experimento importante. Tomó una parcela cuadrada de tierra y con cuidado eliminó todos los seres vivos visibles del suelo. Arrancó todas las plantas, tamizó para quitar insectos y dejó la parcela en paz para ver cómo se recolonizaba.

Lo que observó es que las especies de plantas que recolonizaron la parcela fueron primero de la variedad inestable de rápido crecimiento, que un montón de malezas e insectos se esparcieron por la nueva área. Luego, con el tiempo, otras especies más resistentes reemplazaron lentamente a la maleza, hasta que, muchos meses después, la parcela era indistinguible del resto de la tierra del lote.

El propósito del experimento era ver si existe una lucha real por los recursos en la naturaleza. Darwin planteó la hipótesis de que si la naturaleza está en constante lucha, los diferentes elementos, que son más exitosos pero se replican lentamente, solo ganarán después de un tiempo sobre los elementos que son menos resistentes, pero cuya estrategia es la rápida colonización de nuevos territorios. Sus observaciones fueron consistentes con la idea de que los seres vivos en cualquier área luchan continuamente por la primacía, y que la limitación son los recursos finitos en cualquier parcela de tierra.

Esta idea se puede probar en la computación de autómatas celulares. Al poner a cero un parche cuadrado en un autómata celular 2d que parece estable, uno puede ver si los datos restantes colonizan el espacio de una manera uniforme o de una manera que se transforma gradualmente. Hice este experimento usando un autómata celular de 8 bits (256 valores) con reglas aleatorias, y encontré que en muchos casos, esos casos que son complejos, la colonización es por etapas, como en la parcela de tierra de Darwin. Las etapas son de corta duración, quizás reflejando el cálculo limitado posible en una región pequeña con valores de 8 bits. Sería interesante repetir el experimento utilizando números enteros arbitrariamente grandes en cada celda, que se puede considerar como la representación de un polímero complejo, que cataliza transformaciones en sus vecinos.

Pero la colonización no homogénea sugiere que una vez que se tiene un autómata celular informático, existe una competencia constante entre las partes del autómata, que realizan cálculos colectivos, por los recursos. En otras palabras, que se inicia la lucha de Darwin.

Para hacer esta idea más precisa, considere dividir una CA en dos, colocando una pared entre la mitad izquierda y la derecha, y no permitiendo que las mitades interactúen. Si la CA es verdaderamente computacional y compleja, las dos mitades no llegarán a un equilibrio estadístico, sino que tendrán estructuras complejas en cada lado que adquirirán nuevas características al azar con el tiempo, a medida que sus subpartes evolucionen.

Si ahora quita la pared, es poco probable que la mitad izquierda tenga características compatibles con la mitad derecha. No podrán mezclarse. Entonces, en este caso, las dos mitades deben luchar por la dominación, y la mitad que gane impondrá sus características a la otra mitad llenando todo el espacio con celdas que sean compatibles con sus características. Estas características incluyen "animales" o estructuras típicas de CA que son cualitativamente similares en sus relaciones, configuraciones particulares que solo son estables en el entorno de otras estructuras a su alrededor. Es difícil extraer estas características de una simulación en ejecución, porque no sabes a priori qué buscar, pero estoy seguro de que se puede hacer.

Este tipo de cosas implica que existe una competencia continua en una CA que aparece en el momento en que se siembra por primera vez y continúa mientras esté operando. En este entorno, la selección y la evolución darwinianas son posibles incluso sin ninguna estructura autorreplicante explícita. Cualquier autorreplicación es de rasgos cualitativos de muy alto nivel, no de estructuras de bits de bajo nivel.

Replicación y evolución

Este punto de vista es diferente al punto de vista más habitual respecto a la evolución (que no es el propuesto originalmente por Darwin). El punto de vista habitual es la evolución de la síntesis moderna, que sugiere que la evolución procede copiando cadenas de bits en moléculas, con errores, y que el resultado es que finalmente se seleccionan cadenas de bits optimizadas.

Este punto de vista es extremadamente pobre para modelar la evolución biológica real. En primer lugar, nada con lo que esté familiarizado se replicó a sí mismo. Las personas tienen relaciones sexuales, las bacterias comparten genes y el cruce es complicado en secuencias no genéticas, es solo una simple mezcla de genes.

Además, las mutaciones parecen ser producidas por oscuros mecanismos internos dirigidos por complejas redes de ARN en los óvulos y en los testículos. No son errores de copia aleatorios. Asumir que el mundo biológico es producido por un proceso de copia con error, junto con la selección es tan tonto como sugiere la siguiente parábola:

Hace muchos años, sólo había un libro. Era un libro de cocina, con instrucciones detalladas sobre cómo hacer macarrones con queso. El libro fue copiado por escribas, quienes cometieron un error aquí, un pasaje omitido allá, y estos libros luego compitieron por la atención. Algunas recetas fueron mejoradas por los errores, otras se volvieron ilegibles. Eventualmente, los libros crecieron en longitud, con nuevos pasajes producidos por copias duplicadas accidentales, hasta hoy, ¡he aquí! ¡La biblioteca del Congreso!

Esta historia es ridícula. Pero es esta ridícula historia la que actualmente se vende como dogma en las ciencias biológicas.

Es mi opinión que cualquier teoría realista de la evolución debe estar más cerca de Darwin que de la síntesis moderna. Hay que tener en cuenta que el proceso de mutación es de autor , procede por edición compleja de ARN de secuencias de ADN. Debe tener en cuenta la idea de que la selección sexual es primaria, de modo que la selección de pareja es la fuerza impulsora dominante de la evolución en las especies sexuales. También debe tener en cuenta la idea de que la competencia comienza mucho antes de la replicación y no requiere nada más que una CA informática.

Hay apoyo para esta posición a partir de experimentos informáticos sobre la evolución autorreplicante. Para probar la selección natural, se permitió que pequeños fragmentos de código se replicaran y automodificaran en las décadas de 1970 y 1980, para ver cuál sería el resultado final. El resultado final fue que los programas se modificaron a sí mismos hasta que encontraron el autorreplicador más corto y rápido, que luego llenó la memoria de la computadora.

En ese momento, esto se consideró una señal positiva, los programas habían evolucionado. Pero la evidente estasis en el estado final me lleva a ver esto como la muerte de un sistema complejo. No hay más progreso posible desde el estado final, sin un agente externo para dar vueltas a las cosas. El resultado no es un sistema complejo, sino un sistema atrapado en un equilibrio estable de replicación rápida parasitaria. Lejos de ser un modelo de vida, es un modelo de un cáncer autorreplicante que acaba con toda evolución.

Propiedades de CA: Error molesto de Wolfram

Wolfram clasificó los autómatas celulares en cuatro tipos:

  1. estado final homogéneo
  2. Estructuras periódicas simples, quizás separadas, con diferentes períodos
  3. Estructuras autosimilares ("caóticas")
  4. Estructuras complejas

Tipo 1 son autómatas que mueren. Estos solo tienen un único punto final estable al que siempre llega. El tipo 2 tiene infinitos puntos finales, pero son tan simples de describir como un movimiento integrable clásico: solo tiene ciclos de ciertos tipos y, para especificar el punto final, proporciona una lista de todos los ciclos y dónde se encuentra. el ciclo, y esto especifica el resultado de ejecutar la CA desde una condición inicial dada. Estos dos primeros tipos de autómatas obviamente no reproducirán una computadora de propósito general.

El tipo 3 son aquellos autómatas que conducen a estructuras fractales autosimilares, como la junta de Sierpinski. Estos son más complejos, por lo que el estado final requiere un cálculo real para especificar, y wolframio los identifica con movimientos caóticos clásicos. Creo que esta identificación es incorrecta, pero esto es lo que es.

Los Tipo 4 son los autómatas complejos, en los que tienes que ejecutarlos en su totalidad para descubrir qué hacen. No me gusta la categoría final, así que ahora daré mi clasificación personal.

  1. estado final homogéneo
  2. estados finales periódicos simples, quizás separados con diferentes períodos
  3. Estructuras fractales autosimilares o estadísticamente autosimilares
  4. autómatas aleatorios, punto final estable caótico, stat. mecánico
  5. Autómatas complejos, biología.

La clase 3 se amplía ligeramente y la clase 4 se divide en dos. Hay autómatas aleatorios, que actúan para producir una colección aleatoria de valores que vagan ergódicamente a través del espacio de valores permitido, y la clase 5, esos autómatas que producen un comportamiento verdaderamente complejo, con una forma de asignarles una computadora con un mapa de complejidad razonable. , que en realidad se puede describir mediante un procedimiento finito.

Debido a que Wolfram no distingue entre 4 y 5, agrupa autómatas que son puramente aleatorios, termalizándose en un equilibrio caótico tipo Boltzmann, como los autómatas 25, junto con autómatas verdaderamente complejos como 110. La distinción entre los dos es muy importante, pero quizás debido a una incapacidad terca para admitir que su primera clasificación estaba incompleta, Wolfram se niega a hacerlo.

Haré esta distinción. Los autómatas de tipo 4 son los análogos de los sistemas clásicos caóticos, que aleatorizan su información en un atractor extraño, definido por los valores permitidos de grupos de sitios y una distribución de probabilidad en estos. Una vez que sepa qué grupos permitidos ocurren con qué probabilidad, puede generar una salida típica sin absolutamente ningún trabajo, utilizando un generador de números aleatorios. No será el resultado real, ya que esto es determinista, pero será indistinguible del resultado real a todos los efectos.

Los autómatas tipo 4 son tan a-biológicos, tan muertos como los tipos 1-3. CA 25 no está vivo. Estoy 100% seguro de que no estoy malinterpretando a Wolfram, porque le pregunté específicamente, en persona, en un seminario, si cree que hay un mapa entre CA 25 y una computadora. Respondió que cree que existe, pero que es extraordinariamente complicado y de aspecto aleatorio. Estoy seguro de que no existe.

Los autómatas de tipo 5 están ejemplificados por 110. Esos son los que tienen estructuras predecibles con un comportamiento no aleatorio. Estos se pueden usar para codificar el cálculo completo de Turing. Que estos no sean la medida 0 es un descubrimiento importante --- da una explicación del origen de la vida.

La existencia de CA típicamente informáticas significa que la vida puede surgir naturalmente tan pronto como un sistema que puede almacenar grandes cantidades de información espontáneamente tiene interacciones que son capaces de formar una computadora. Esto sucede con 110, pero también debería suceder con proteínas aleatorias en una sopa prebiótica, porque ¡aquí estamos!

La evolución de la vida, como creo que sucede, es puramente molecular para la mayoría de las primeras etapas. Las proteínas compiten y evolucionan, produciendo una clase más precisa que puede sobrevivir, que finalmente cataliza la formación de ácidos nucleicos (entre otras cosas) y aprende a almacenar datos para su posterior recuperación en ácidos nucleicos. Los complejos de proteína de ácido nucleico luego calculan más y aprenden a almacenar datos en el ADN, para almacenamiento permanente (ya que el ADN es mucho más estable). Finalmente, empaquetan todo esto en celdas y tienes la vida moderna.

Esta es una historia sencilla, pero es importante porque en ningún momento postula una entidad molecular autorreplicante. Tales entidades son venenosas para el surgimiento de la vida (como muestran los experimentos informáticos), y es bueno que no existan, de lo contrario la vida no podría surgir.

Agenda sociológica de Wolfram

Hay una razón separada para la falta de éxito de Wolfram en penetrar el mundo científico que no tiene nada que ver con la calidad de sus ideas (que en realidad no son tan malas). Wolfram tomó la decisión consciente de dedicarse a su ciencia utilizando dinero privado que recaudó al producir el software de código cerrado, Mathematica, para venderlo a las universidades. De esta manera, estaba produciendo un modelo para la investigación científica financiada por capital privado, en lugar de dinero estatal. Dado que Mathematica tiene tanto éxito, muchos vieron su trabajo como un modelo para un nuevo tipo de ciencia capitalista.

Esta idea era muy corriente en el clima pro-capitalista de la década de 1980, donde las cosas patrocinadas y financiadas por el estado eran menospreciadas, debido a las restricciones a la libertad individual que imponía el estado moderno. La Unión Soviética fue el ejemplo extremo, allí toda la ciencia fue impulsada por decisiones estatales, que asfixiaron ciertos campos como la genética, basados ​​en la posición ideológica del gobierno. En los EE. UU., el gobierno se hizo cargo de la ciencia y la convirtió en una gran ciencia en la década de 1950, explícitamente para competir con los soviéticos, y mucha gente se sintió obstaculizada por el sistema de gran dinero y gran ciencia, que excluía la investigación prometedora. avenidas de consideración.

La falta de libertad en el sistema estatal llevó a muchos individuos a oponerse, y uno de los ingredientes de esta lucha fue el financiamiento privado. Obviamente, esto solo estaba disponible fuera de las regiones controladas por los comunistas. Wolfram políticamente tomó la decisión de buscar financiación privada para su investigación.

El resultado refleja todo lo bueno y lo malo de la ciencia financiada con fondos privados. Es bueno, porque permite que el individuo con una idea la persiga indefinidamente, y ninguna crítica externa puede detener o matar el trabajo. Pueden publicar por sí mismos, sin preocuparse de que la revisión por pares descarte sus ideas antes de que tengan tiempo de germinar.

Es malo en varios otros sentidos, que han sido el foco de la crítica académica.

  • El autofinanciamiento requiere que el individuo acumule grandes cantidades de riqueza, lo que lleva al servilismo en quienes lo rodean, lo que les impide escuchar críticas convincentes, por lo que los errores no se corrigen.
  • En la empresa privada no se citan las fuentes. Uno hace parecer que hizo todo por su cuenta. Esto no es compatible con las convenciones académicas para las citas y el respeto por la historia de un campo. Si bien se puede decir que Steve Jobs puede atribuirse el mérito del trabajo de sus empleados, es difícil para Wolfram justificar atribuirse el mérito del trabajo de Cook, incluso si pagó su salario.
  • El efecto Citizen Kane: el poder aislante y corrosivo del dinero conduce fácilmente a la megalomanía y al aislamiento, lo que lleva a uno a descartar las ideas de los demás. Desafortunadamente, esto se puede ver en la despreocupada frase de Wolfram sobre el importante trabajo de Post, Friedberg y Munchnik sobre los grados de Turing debajo del problema de la detención. Afirma que todas las CA naturales son equivalentes al problema de la detención, aleatorias o triviales. Este es el principio de "equivalencia computacional". Pero esta es una declaración no trivial y requiere más evidencia que la que se presenta en NKS.

Los problemas de la investigación privada son enteramente complementarios de los problemas de la investigación pública, y no hay razón para descartar uno por completo en favor del otro. Pero NKS muestra esas fallas con creces, y esto es particularmente irritante para los investigadores públicos relativamente mal pagados, que han trabajado igualmente duro en sus ideas, si no más, sin el megáfono de dinero para proclamarlas al mundo.

Creo que lo más nuevo en NKS es el modelo de financiación --- la idea de que uno puede investigar de forma privada e independiente. Tal vez este sea el modelo del futuro, pero considerando el éxito relativo de la ciencia financiada con fondos públicos en comparación con la ciencia privada, incluso en el caso represivo más extremo de la Unión Soviética, no soy optimista de que esta sea la mejor manera. Es probable que uno tenga que lidiar con las molestias y las características subóptimas de la financiación pública por un futuro indefinido.

Tal vez con una estructura de Internet adecuada, como stackexchange, se pueda mitigar parte de la censura y el pensamiento grupal de la ciencia pública.

No te preocupes por eso, es solo el secreto y el sentido de la vida. Puede ir un poco más allá del alcance de la pregunta, pero viajaré mañana, así que pensé que sería bueno compartir, ya sabes, en caso de que el avión se estrelle.
En realidad, leí una buena parte y probablemente leeré el resto en algún momento: cosas interesantes como de costumbre, pero parece que mucho solo está relacionado tangencialmente con la pregunta :)
@zephyr: Esperaba muchos votos negativos por eso, pero quería explicar esto, y esto fue lo más parecido a una pregunta sobre NKS.
@ronmaimon muy interesante, ¡leí una vez y tendré que leer una y otra vez algún otro día! ¡Gracias +1!
Dato curioso: esta es la segunda respuesta más larga en phy.SE
@pcr: ¿Cuál es el más largo?
"Esta historia es ridícula. Pero es esta historia ridícula la que actualmente se vende como dogma en las ciencias biológicas": ¿Qué hay de ridículo en esa historia? es un metodo de trabajo
@agemO: La parte ridícula es que el mecanismo de mutación no tiene cerebro ni computación. No hay evidencia de esto. Es cierto que las mutaciones de tipo SNP en las proteínas son aleatorias, pero también son generalmente inútiles, hacen una evolución neutra similar a un reloj. El aspecto interesante de la evolución es el efecto sobre el ADN no codificante, y estos cambios son extremadamente complicados y, sin duda, están regulados por redes de ARN que realizan un cálculo sofisticado. Estas mutaciones no tienen relación con los modelos en genética de poblaciones, se parecen más a un diseño inteligente, siendo el ARN el diseñador, no Dios.
No digo que esté seguro de que el mecanismo de mutación no sea mejor que solo aleatorio, pero si es solo aleatorio funciona y no es ridículo, puedes hacer un algoritmo evolutivo con mutación aleatoria y funciona siempre que el paso de selección no es aleatorio (que es el caso en biología: la selección proviene de la supervivencia o la muerte)
@agemO: Solo parece funcionar superficialmente para la intuición ingenua, en realidad no funciona, y esto es lo que muchos críticos de la evolución de la síntesis moderna han estado señalando durante décadas. Se vuelve imposible mutar-evolucionar más allá de cierta complejidad sin co-evolucionar el mecanismo de mutación junto con el sistema. La razón es que la distancia entre máximos de fitness aproximadamente iguales crece genéricamente con la complejidad, por lo que los pasos que se dan deben ser mayores. El modelo actual simplemente no es correcto. Pero el mecanismo correcto para arreglar esto también es obvio hoy en día --- la edición de ADN por ARN.
Cuando digo que funciona me refiero a que da resultados, por supuesto supongo que la propia evolución ha sufrido una metaevolución, por lo que hoy en día es más eficiente/complicado que el puro azar. Realmente no sé mucho sobre biología, pero tuve la impresión de que este era el punto de vista principal hoy, con evidencia de tasa de mutación sintonizada, por ejemplo.
@agemO: Tampoco da ningún resultado. Las mutaciones de las proteínas locales que modifican el estado físico se pueden contar con los dedos de una mano: el color de la polilla y la anemia de células falciformes, eso es todo. Esas son excepciones, no la regla, pero se ponen como regla en los libros. La imagen es simplemente incorrecta, porque es una imagen no computacional, y también es deliberadamente incorrecta, porque encaja con la idea atea de que las computaciones naturales no existen. Este tipo de ateísmo de no computación en la naturaleza es falsificable y falsificado. Tuviste la impresión porque es un dogma, es lo que todo el mundo dice, mal.
Da resultado para el problema de optimización, robot de construcción o forma aerodinámica. Tal vez la mutación aleatoria no sea el único/principal mecanismo hoy en día, pero funciona. Y cuando dije "tuve la impresión" quiero decir que tuve la impresión de que "más que aleatorio" era bastante aceptado, pero no estoy seguro de esto. Por cierto, ¿tiene referencias para esto: "el ateísmo sin computación en la naturaleza es falsificable y falsificado".
@agemO: Funciona (mal) como método de optimización de parámetros , no como método de evolución . Se obtiene una mejor optimización de los parámetros mediante el recocido simulado, el descenso más pronunciado o ambos, según los detalles de la función de costo. La evolución no es un simple proceso de optimización, sino que la evolución en un sistema informático implica escribir código nuevo, lo que hace que el código existente sea más complejo. Desafortunadamente, se ha considerado como una versión de la optimización de parámetros. La mutación aleatoria simplemente no es el proceso natural en un sistema informático, sino una reescritura coherente a gran escala.
... No doy referencias de nada excepto de la prioridad, ya que no sé ni me importa la autoridad. Me di cuenta de esto yo mismo. Podría haber sido el primero, lo dudo. Hay un Leslie Valient que dice cosas similares, pero está confundido sobre cómo funciona el ARN. La mayoría de las personas que notan que los modelos de mutación aleatoria fallan son religiosas y lo usan para decir "Dios lo hizo de manera sobrenatural", por lo que no puedo citarlos con seriedad, ya que generalmente rechazarían las reescrituras de ARN con la misma vehemencia que el ARN. tampoco es bíblico. Pero se requiere la reescritura del ARN. Realmente no estoy seguro acerca de la aceptación, ni me importa.
Por referencia me refiero a evidencia o explicaciones más claras sobre lo que dices sobre el ARN.
@agemO: Ya veo. Escribiré algo coherente. Nunca lo escribí, porque John Mattick recopiló bien la evidencia en 2001 (puedes googlear Mattick RNA), y piensa cosas similares, aunque no con el punto de vista computacional. La evidencia es realmente abrumadora ahora, es prácticamente el único punto del enorme proyecto ENCODE, para darle peso académico a esta tesis.

Los primeros trabajos de Wolfram sobre autómatas celulares (CA) han sido útiles en algunos aspectos didácticos. Las CA 1D definidas por Wolfram pueden verse como modelos minimalistas para sistemas con muchos grados de libertad y un límite termodinámico. En la medida en que estas CA se basan en una mezcla de dinámicas locales discretas, se produce un caos determinista.

Aparte de estos logros didácticos, el trabajo de Wolfram sobre CA no ha resultado en nada tangible. Esta declaración se puede extender a un grupo mucho más amplio de CA, e incluso se aplica a los autómatas de gas de celosía (LGA), CA dedicadas a simulaciones hidrodinámicas. Los LGA nunca han cumplido su promesa inicial de proporcionar un método para simular turbulencias. Un sistema derivado (Lattice Boltzmann, no un CA) tiene algunas aplicaciones en la simulación de flujo.

Es en este contexto que NKS se lanzó con mucha fanfarria. No en vano, la recepción por parte de la comunidad científica ha sido negativa. El libro no contiene nuevos resultados (el resultado de que la 'regla 110 CA' es completa de Turing fue demostrado años antes por el asistente de investigación de Wolfram, Matthew Cook), y no ha tenido ningún impacto en otros campos de la física. Recientemente vi una pila de copias de NKS a la venta por menos de $ 10 en mi tienda local Half Price Books.

De alguna manera terminé con dos de ellos enviados por Amazon. Son un buen lastre para mi barco.
-1: Las CA 1D no dan como resultado un caos determinista cuando están computando, como 110, dan como resultado estructuras complejas que evolucionan. El modelo de celosía de Boltzmann que proporciona es esencialmente un CA con reglas de actualización aleatorias, y se usa en simulaciones hidrodinámicas. El libro tiene algunos resultados "nuevos" (pero en su mayoría son incorrectos). Es más importante como resumen del pensamiento de Wolfram.
Ron, si estás haciendo una declaración general de que los autómatas 1D no pueden conducir al caos determinista, me pregunto cómo defines esto último.
@Johannes: (perdón por el voto negativo, supongo que esto no se explica lo suficiente). La definición que uso para el caos no es la de Wolfram, es que el autómata radomiza. Esto significa que si toma una instantánea de tamaño finito en una ventana de extensión finita, puede calcular la distribución estadística en esa ventana con precisión arbitraria sin ejecutar el autómata en absoluto, solo con un cálculo de longitud fija que solo depende de la precisión, no en cuánto tiempo se ejecuta el autómata.
Ok, eso confirma mi sospecha. Es posible que desee leer algo sobre el caos, los coeficientes de Luyapunov y similares.
@Johannes: No necesito leer nada --- Sé cuáles son los exponentes de Lyapunov. Hay autómatas caóticos , como el 25, donde el material es aleatorio, y autómatas informáticos , como el 110, donde el material está vivo. Los dos son diferentes. Los 25 autómatas tienen un flujo de información no local análogo a los exponentes de Lyapunov, mientras que el 110 no es análogo a ningún sistema dinámico simple. Es una computadora completa, no tiene otros análogos que otras computadoras completas.
@Gordon: No puedo votarte a favor, pero si pudiera, obtendrías +10 por tu sentido del humor, que va en contra de los principales puntos de vista de los ayatolás/inquisitoriales/comunistas/fascistas/pro/con. (espero, no haber herido ningún lado ni sentimientos).
re "Los LGA nunca se entregaron en... un método para simular la turbulencia" -- "la mayoría de las CA no triviales son Turing Complete", por lo tanto, pueden (teóricamente) simular cualquier cosa que sea computable. Entonces, parte de este debate se reduce a una pregunta casi filosófica: ¿son computables las leyes de la física? la mayoría de los físicos asumen implícitamente que este es el caso con la adhesión a los modelos matemáticos como el supuesto lenguaje universal de la física. (re "eficacia irrazonable de las matemáticas en las ciencias naturales") en.wikipedia.org/wiki/…
@vzn: "la mayoría de las CA no triviales son Turing Complete", por lo tanto, pueden (teóricamente) simular cualquier cosa que sea computable". Correcto, pero desde una perspectiva computacional que no las hace útiles de ninguna manera. Las LGA se introdujeron como una herramienta computacional prometedora para simulando turbulencia, pero nunca cumplió esta promesa.

Poco después de que salió NKS, escribí una reseña en la que traté de explicar por qué la respuesta a su excelente pregunta es sí. Un modelo determinista como el de Wolfram no puede reproducir las violaciones de la desigualdad de Bell, por razones fundamentales, sin violar la propia regla de Wolfram de "invariancia causal" (lo que básicamente significa que la evolución de una CA no debería depender del orden en que se realizan las actualizaciones). aplicado a regiones espacialmente distantes). Incluso con algunos "hilos de largo alcance" en el autómata celular (que Wolfram permite explícitamente, después de notar el problema de Bell), aún no puede obtener invariancia causal, a menos que los estados reales del autómata sean probabilísticos o cuánticos. Una observación estrechamente relacionada se denominó más tarde el "Teorema del libre albedrío".

La mayoría de estos modelos de autómatas son deterministas en el mismo sentido que los generadores de números pseudoaleatorios. Por ejemplo, en los modelos de red de gas, las reglas deterministas terminan generando ruido y fluctuaciones a gran escala de acuerdo con las ecuaciones de Navier-Stokes (incluida la turbulencia, aunque esto no es práctico desde el punto de vista computacional debido a las grandes dimensiones de la red necesarias para reducir la viscosidad de la red). El juego del gas reticular pasó a finales de los años ochenta de autómatas ruidosos de partículas discretas a autómatas de valores continuos de escala mesoscópica de Boltzmann basados ​​en distribución uniforme (ver Guy R. McNamara y Gianluigi Zanetti, Use of the Boltzmann Equation to Simulate Lattice-Gas Automata , Phys. Rev. Lett. 61, 2332–2335 (1988), de modo que ahí es donde se encuentran los avances más relevantes en estos días.

Murray Gell-Mann tiene una interpretación interesante del teorema de Bell que se relaciona directamente con la tesis de Stephen Wolfram sobre el modelado de leyes físicas con autómatas celulares en su tomo: 'Un nuevo tipo de ciencia', un análisis que le llevó más de 20 años completar.

Según Murray, los modelos elegantes de la física implican leyes fundamentales además de los resultados aleatorios de una serie de cosas que no son deterministas en un sentido mecánico cuántico (se refiere a las constantes físicas). De hecho, es difícil imaginar que los autómatas celulares de Wolfram en cualquier escala determinen los fundamentos de una teoría como la cromodinámica cuántica, que ha sido afinada y/o renormalizada en cada paso para asegurar que la teoría funcione lo más cerca posible de la forma en que lo hace la naturaleza. . Es dudoso, por decir lo menos, que los autómatas celulares puedan reproducir incluso una parte de este proceso iterativo de una manera que produzca algo más que simulaciones completamente inútiles sin relación con lo que sucede en el mundo natural.

Una cosa que Stephen predijo en NKS que parece estar sucediendo a lo grande es la idea de que la ciencia depende cada vez más de la gran informática para obtener resultados que mejoren nuestro conocimiento del universo. El LHC de Ginebra es un buen ejemplo.

El LHC no es exactamente una gran informática (aunque el procesamiento de los datos sí lo es), pero el punto de su último párrafo es bueno.