He estado haciendo algunas pruebas con una aplicación escrita por mí mismo que usa el GPS para informar ubicaciones y trazarlas en un mapa. Una de las cosas que he notado es que las coordenadas parecen ser más precisas cuando el intervalo en el que se recopilan es más pequeño. En general, cuando se informa cada 10 o 15 segundos, las coordenadas parecen correlacionarse más con la posición real en ese momento, mientras que cuando se informa cada 30 o 60 segundos, parecen ser menos precisas.
Esto es cierto incluso para un teléfono que no se mueve. Si lo dejo en mi patio trasero y lo dejo para reunir 10 coordenadas, una vez cada 10 segundos, parece que obtengo coordenadas que están menos dispersas y en realidad son una buena indicación de la ubicación real. Al reunir 10 coordenadas, una vez por minuto, obtengo mediciones mucho menos precisas.
¿Hay alguna evidencia sólida que sugiera que recopilar coordenadas en un intervalo pequeño es más preciso? ¿O lo que estoy viendo es solo una coincidencia?
No precisamente.
Es más preciso cuantos más satélites recibe. En un intervalo más corto, lo más probable es que se reciban más satélites, en comparación con reiniciar cada minuto.
Además, depende de tu ubicación. En un campo llano, recibirá muchos satélites rápidamente, mientras que cerca de edificios o casas, también tardará más.
Lo que medí es que se podía comprobar la precisión de la ubicación recibida. Si es igual o inferior a 10 m, se podría utilizar la ubicación. Si es más grande, espere hasta que reciba una ubicación más precisa.
mateo leer
JDT
izzy
ntpdate
, el mismo principio allí: incluso con un solo servidor dado, por defecto pregunta 4 veces y luego construye el "promedio" a partir de los resultados, mientras que para mayor precisión puede hacer que pregunte más veces antes de "correlar". ". Sin embargo, tenga en cuenta: cuanto más corto es el intervalo, más batería consume (palabra clave: WAKE_LOCK). Encuentra un equilibrio.