Estoy tratando de entender un artículo de neurociencia de Karl Friston. En él da tres ecuaciones que son, según tengo entendido, equivalentes o interconvertibles y se refieren tanto a la entropía física como a la de Shannon. Aparecen como ecuación (5) en este artículo (PDF ; DOI 10.1007/s00422-010-0364-z). Aquí están:
Las cosas con las que estoy luchando en este momento son:
Cualquier ayuda para comprender cómo estas ecuaciones son realmente lo que Fristen afirma que son sería muy apreciada. Por ejemplo, en la 1ra ecuación, ¿en qué sentido es energía el primer término, etc.?
Como se menciona en la sección de definiciones en la página 2 del documento, es la divergencia de Kullback-Leibler o entropía cruzada entre dos densidades.
La razón de los logaritmos negativos es que es la convención cuando se habla de entropía en el contexto de la teoría de la información. Esto permite combinar la información de forma aditiva. ( https://en.wikipedia.org/wiki/Entropy_(information_theory)#Rationale )
nick stauner
señor zergy
honi
honi