¿Existe una definición de entropía relativa de Renyi?

¿Existe una entropía de Renyi análoga a `` H ( X | Y ) " ?

En caso afirmativo, ¿hay algún significado conocido para eso?


Buscando en Google encontré algunas nociones diferentes,

  • ecuación 18 aquí, http://arxiv.org/abs/1505.06980

  • ecuación 2.5 aquí, http://rgmia.org/papers/v14/v14a17.pdf

  • La noción de "divergencia de Renyi" como se indica aquí, http://en.wikipedia.org/wiki/R%C3%A9nyi_entropy#R.C3.A9nyi_divergence

    Me pregunto si para distribuciones de probabilidad continuas F y gramo si uno puede escribir, D α ( pag | | gramo ) = 1 α 1 yo o gramo [ F α gramo α 1 d X ] y si esto tiene algún significado.

    Aunque no sé cómo se puede asegurar que gramo > 0 ...

    (¿La pregunta también podría haber surgido con la divergencia Kullback-Leibler?)

Respuestas (1)

Normalmente H ( X | Y ) significa entropía condicional. En este caso, no creo que haya una definición generalmente aceptada de la contraparte de Renyi. Sin embargo, hay una tesis de maestría reciente que enumera algunas posibilidades, incluida una nueva propuesta del autor, que parece bastante razonable: http://web.math.leidenuniv.nl/scripties/MasterBerens.pdf

Si realmente quiere decir "entropía relativa de Renyi", entonces la divergencia que encontró es la respuesta correcta.

Relación entre entropía relativa y entropía condicional:

Tenga en cuenta que la divergencia Kullback-Leibler D k L ( PAG | | q ) = D 1 ( PAG | | q ) (también conocido como entropía relativa) es una medida de cómo dos distribuciones de probabilidad son similares. En términos generales, es igual a cero cuando dos distribuciones de probabilidad son iguales ( PAG = q ). No incluye ninguna información sobre cómo se relacionan dos variables aleatorias. Si hablamos de medida de probabilidad discreta podemos pensar en PAG y q como vectores. En ese caso, ambos deberían tener el mismo tamaño si se quiere calcular la divergencia KL.

Por el contrario, la entropía condicional H ( X | Y ) es una medida de cómo se relacionan dos variables aleatorias. Uno tiene que definir la probabilidad conjunta sobre estas dos variables aleatorias para poder calcular la entropía condicional. Es igual a cero cuando el conocimiento de Y determina el valor de X completamente. Además, estas dos variables aleatorias pueden tener diferente número de valores posibles.

¿Hay alguna relación entre H ( X | Y ) y D 1 ( X | | Y ) ?