Soy un entusiasta de la física y tengo una pregunta: ¿Por qué no tiene sentido expresar el ' ' (desviación estándar) valor como porcentaje?
La desviación estándar agrega incertidumbres al valor medido: . Uno puede ver rápidamente el error (que tiene unidades de en mi caso) y pensar, El valor podría ser tan bajo como o tan alto como sin pensar mucho Modificar esto para que sea un porcentaje del valor sería confuso.
Además sería arbitrario. Como señala Martin Beckett, dado que las escalas Celsius y Kelvin tienen un espaciado de temperatura idéntico pero puntos 0 diferentes, hacer que la escala de error (desviación estándar) se ajuste al valor sería ridículo:
Depende de lo que estés midiendo.
Si está midiendo la temperatura de un vaso de agua a 20C +- 0.1C ¿cuál sería el porcentaje?
Ahora, ¿qué sería si lo midieras como 293 Kelvin +- 0.1K
criptografía cuántica
usuario28355