Determine el número de bits antes de que el receptor pierda un bit

Un transmisor envía 100 bits por segundo, pero el reloj del receptor funciona demasiado lento, lo que hace que mida una vez cada 0,0107 segundos. ¿Cuántos bits se miden seguidos antes de que el receptor pierda un bit?

He considerado r=100bps y t_miss= 0.0107 y calculo el tiempo como 1-t_miss para determinar la cantidad de bits antes de que un receptor pierda un bit. ¿Alguien puede aclararme sobre esto?

He considerado r=100bps y t_miss= 0.0107 y calculo el tiempo como 1-t_miss para determinar la cantidad de bits antes de que un receptor pierda un bit. ¿alguien puede aclararme sobre esto? gracias
Después de publicar, puede editar su pregunta para agregar más información.
Es una buena idea actualizar su pregunta con información adicional y no esconderla en los comentarios para ayudar a la comunidad a comprender lo que está preguntando. Esto asegura que todos estamos en la misma página. Lea el centro de ayuda para obtener orientación sobre cómo hacer buenas preguntas.

Respuestas (1)

El tiempo mínimo de muestreo para obtener el mensaje completo es 1 / 100 o 10mS. Dado que el tiempo de muestreo es de 10,7 ms, se perderá un bit tan pronto como las muestras se alineen al final del bit 1 y al comienzo del bit 3. El mejor escenario es cuando una muestra aparece al comienzo de un bit. Cada muestra siguiente se desfasa 0,7 ms hasta que la muestra se tambalea un poco. Esto sucedería cuando el desplazamiento acumulado supere el tiempo de muestra 10 / 0.7 o 14.28. Esto implica que se perderá el bit 15.

O, por supuesto, si la condición de inicio estaba justo al final de un bit, perdería el primer bit. Para la colocación al azar, el promedio es de aproximadamente 7 1/2.
Pero, ¿qué sucede si hacemos una suposición inicial de que el primer bit se mide exactamente en el centro del tiempo del bit?
@AnnonymousXYZ Entonces tomaría la mitad del tiempo perder el bit. Entonces tomaría la mitad de los bits, el octavo bit se perdería.