Un transmisor envía 100 bits por segundo, pero el reloj del receptor funciona demasiado lento, lo que hace que mida una vez cada 0,0107 segundos. ¿Cuántos bits se miden seguidos antes de que el receptor pierda un bit?
He considerado r=100bps y t_miss= 0.0107 y calculo el tiempo como 1-t_miss para determinar la cantidad de bits antes de que un receptor pierda un bit. ¿Alguien puede aclararme sobre esto?
El tiempo mínimo de muestreo para obtener el mensaje completo es o 10mS. Dado que el tiempo de muestreo es de 10,7 ms, se perderá un bit tan pronto como las muestras se alineen al final del bit 1 y al comienzo del bit 3. El mejor escenario es cuando una muestra aparece al comienzo de un bit. Cada muestra siguiente se desfasa 0,7 ms hasta que la muestra se tambalea un poco. Esto sucedería cuando el desplazamiento acumulado supere el tiempo de muestra o 14.28. Esto implica que se perderá el bit 15.
Anónimo XYZ
Bence Kaulics
gbulmer