Cálculo de la tasa de entropía de los ADC

Formalmente, la entropía de una distribución normal es: -

1 2 registro ( 2 π mi σ 2 )

Entonces, si está muestreando una señal aleatoria (normalmente distribuida), esa parecería ser la tasa de generación de entropía. Supongo que si el logaritmo es de base 2, entonces la entropía estaría en unidades de bits. Entonces, un proceso con una desviación estándar de 1V crea 2.05 bits de entropía/muestra.

Mi problema es con el cálculo de la tasa. Pensé que la tasa de entropía estaría gobernada por la precisión de las muestras. Un ADC de 16 bits debe, por definición, crear más datos de muestra que un ADC de 8 bits si ambos cubren el mismo rango de voltaje. Intuitivamente, más precisión sugiere más datos. Más datos sugieren más entropía.

Mi pregunta es ¿por qué la fórmula de entropía anterior no tiene en cuenta la precisión de la muestra?


Nota. Sospecho que esta no es la fórmula apropiada para los ADC.


Editar. Que no es. Creo que puedo lograr formular la entropía mínima para una distribución normal. mín. la entropía se usa en criptografía y extracción de aleatoriedad y sería lo suficientemente buena. Yo obtengo:-

H metro i norte = yo o gramo 2 [ 2 Φ ( V s m d ) 1 ]

dónde V s es la mitad del paso mínimo de voltaje ADC, como: -

V s = V r a norte gramo mi 2 norte + 1

por un norte bit ADC digitalizando un rango de V r a norte gramo mi voltios Y, en general, para cualquier distribución como un logaritmo normal (asimétrico) que podría obtener muestreando el ruido de avalancha de un diodo:

H metro i norte = yo o gramo 2 [ C D F ( v metro a X ) C D F ( v metro i norte ) ]

dónde v metro a X , v metro i norte son los dos máximos cuantificados. mín. límites del paso ADC más pequeño basado en V s = V r a norte gramo mi 2 norte y que limitan el modo .

Por lo tanto, creo que tenía una ecuación totalmente equivocada...

Esto podría ayudar: ( math.stackexchange.com/a/1804902 )
Es la entropía diferencial, no está definida para una sola medida de probabilidad, solo tiene sentido una entropía relativa. Tratarlo como "entropía ganada en una muestra" es incorrecto. ¿Y no es esto más una pregunta matemática que una relacionada con EE?
@ sx107 No lo sé, ¿verdad? Se trata del uso de ADC en la construcción de un generador de números aleatorios. Si tienes alguna idea, te agradecería mucho una respuesta por favor...
Problema interesante de @PaulUszak, lamentablemente no puedo verlo en este momento. ¡A la gente de DSP.stackexchange.com podría gustarle!
Uf, @PaulUszak. Terminé mi respuesta, creo.

Respuestas (1)

Esa es la entropía continua (diferencial); ¡no la entropía de la variable aleatoria discreta que es su salida ADC!

Podrías (y viendo tu página de perfil, probablemente te divertirás mucho haciéndolo) investigar lo que se llama distorsión de velocidad en el campo que se ocupa de la entropía de la información, la teoría de la información . Esencialmente, un ADC no "deja pasar" toda la entropía que ingresa, y hay formas de medir eso.

Pero en este caso concreto, las cosas son más sencillas.

Recuerda: La entropía de una fuente discreta X es la expectativa de información

H ( X ) = mi ( I ( X ) )

y desde su salida ADC X tiene un número muy finito de cantidades contables de estados de salida, la expectativa es solo una suma de probabilidad de una salida X veces la información de esa salida:

H ( X ) = mi ( I ( X ) ) = X PAG ( X = X ) I ( X = X ) = X PAG ( X = X ) ( registro 2 ( PAG ( X = X ) ) ) = X PAG ( X = X ) registro 2 ( PAG ( X = X ) )

Ahora, primera observación: H ( X ) de un norte -bit ADC tiene un límite superior: nunca puede obtener más de norte bits de información de ese ADC. Y: obtienes exactamente H ( X ) = norte si usa la distribución uniforme discreta para los valores sobre el 2 norte Pasos de ADC (¡pruébalo! PAG ( X = X ) = 1 2 norte en la fórmula anterior, y recuerda que sumas 2 norte diferentes estados de salida posibles).

Entonces, podemos concluir intuitivamente que la distribución normal digitalizada produce menos bits de entropía que la distribución uniforme digitalizada.

Prácticamente, eso significa algo inmensamente simple: en lugar de usar, digamos, un ADC de 16 bits para digitalizar su fenómeno normalmente distribuido, use dieciséis ADC de 1 bit para observar 16 entidades análogas normalmente distribuidas, y solo mida si el valor observado es más pequeño o más pequeño. mayor que el valor medio de la distribución normal. Ese "bit de signo" se distribuye uniformemente sobre { 1 , + 1 } , y por lo tanto, obtiene un bit completo de cada ADC de 1 bit, sumando un total de 16 bits. Si su fuente de ruido es blanca (eso significa que una muestra no está correlacionada con la siguiente), entonces puede muestrear 16 veces más rápido que su ADC de 16 bits con su ADC de 1 bit y obtener los 16 bits completos de entropía en el mismo tiempo que habría hecho una conversión de analógico a digital de 16 bits¹.

¿Cuántos bits de entropía tiene la distribución normal cuantificada?

Pero tenía una pregunta muy importante: ¿Cuántos bits obtiene cuando digitaliza una distribución normal?

Lo primero que hay que darse cuenta:

truncando

La distribución normal tiene colas y tendrás que truncarlas; lo que significa que todos los valores por encima del paso ADC más grande se asignarán al valor más grande, y todos los valores por debajo del más pequeño al valor más pequeño.

Entonces, ¿qué probabilidad obtienen los pasos ADC?

Haré el siguiente modelo:

  1. Como se muestra arriba, el signo de nuestro norte ( 0 , 1 ) variable distribuida es estocásticamente independiente del valor absoluto. Entonces, solo calcularé los valores para los contenedores ADC 0 ; los negativos serán simétricamente idénticos.
  2. Nuestro modelo ADC cubre [ 1 , 1 ] unidades analógicas; Tiene norte + 1 pedacitos Lo que significa que voy a cubrir [ 0 , 1 ] con norte bits a continuación.
  3. El contenedor ADC no negativo más pequeño cubre los valores analógicos v 0 = [ 0 , 2 norte [ ; el despues de ese v 1 = [ 2 norte , 2 2 norte [ .
    El i th bin (contando desde 1, i < 2 norte 1 ) cubre
    v i = [ i 2 norte , ( i + 1 ) 2 norte [
    .
  4. Sin embargo, lo más interesante es el último contenedor: cubre
    v 2 norte 1 = [ ( 2 norte 1 ) 2 norte , [ = [ 1 2 norte , [
    .

Entonces, para obtener la entropía, es decir, la información esperada, necesitaremos calcular la información de cada contenedor individual y promediarlos, es decir, sopesar la información de cada contenedor con su probabilidad. ¿ Cuál es la probabilidad de cada contenedor?

PAG ( X v i | X > 0 ) = i 2 norte ( i + 1 ) 2 norte F X ( X ) d X 0 i < 2 norte 1 = 2 ( F X ( ( i + 1 ) 2 norte ) F X ( i 2 norte ) ) |  normal estándar = 2 Φ ( ( i + 1 ) 2 norte ) 2 Φ ( i 2 norte ) PAG ( X v 2 norte 1 | X > 0 ) = Φ ( ) 2 Φ ( 1 2 norte ) = 1 2 Φ ( 1 2 norte )

Entonces, tracemos la información de un ADC de 5 bits (lo que significa que 4 bits representan los valores positivos):

ADC de 5 bits

Resumiendo los $\P\$ de arriba, vemos que solo obtenemos 3,47 bits.

Hagamos un experimento: ¿Paga mi ADC? Simplemente trazaremos la entropía que obtenemos sobre los bits ADC que pagamos.

beneficio de los bits ADC

Como puede ver, obtiene rendimientos decrecientes por un costo adicional; así que no use un ADC de alta resolución para digitalizar una distribución normal fuertemente truncada

Escalando el rango de ADC

Como fue bastante intuitivo en las secciones anteriores, el problema es que el contenedor límite acumula demasiada masa de probabilidad.

¿Qué pasa si escalamos el rango de ADC, para cubrir [ a σ , a σ ] en lugar de solo [ σ , σ ] ?

prob dist vs escalado

Lo que confirma nuestra sospecha de que hay una entropía máxima que obtendrá cuando haga que su distribución normal parezca relativamente uniforme:

entropía vs escala


código fuente

Los scripts utilizados para generar las cifras anteriores se pueden encontrar en Github .


¹ de hecho, debe observar de cerca la arquitectura de su ADC: los ADC generalmente no están destinados a digitalizar el ruido blanco y, por lo tanto, muchas arquitecturas de ADC se esfuerzan por "colorear" el ruido blanco, por ejemplo, cambiando la energía del ruido a frecuencias más altas al medir el valor de salida sucesivamente; ¡una introducción al ADC Delta-Sigma es una lectura obligada aquí! Y estoy seguro de que lo disfrutarás :)

Uno podría pensar intuitivamente que ADC ENOB podría desempeñar un papel en esto.
ese es un detalle de implementación que no pude tomar en consideración aquí, ya que el hecho de que ENOB < bits nominales depende de imperfecciones con características que dependen en gran medida de la arquitectura ADC. Un análisis de eso definitivamente se extendería más allá del alcance de esta respuesta, pero si tiene alguna idea, ¡se lo agradecería!
Intentaré esto cuando tenga algo de tiempo; sin embargo, tenga en cuenta que la diferencia entre ENOB y la resolución ideal aparece como (generalmente) una distribución gaussiana.
bueno, lamentablemente probablemente esté correlacionado con el valor observado, por lo que no puede simplemente decir "oye, esa es la suma de dos variables aleatorias independientes de media cero, agreguemos sus varianzas para obtener la varianza de la suma".
Acordado; pero es un fenómeno interesante. Más mañana.
@PeterSmith ¿ping?
Marcus Muller - estado en el camino. Quizás durante el fin de semana.
@PeterSmith mi recompensa de 100 puntos vence en 1 día; así que mejor escribe algo rápido y sucio y obtén esos 100 puntos :)
@MarcusMüller No te preocupes. Pero tengo algo que agregar, nuevamente de un tal Marcus Müller en Signal Processing.