Error en la comprensión del análisis de errores

ingrese la descripción de la imagen aquí

Pregunta dada:

Un estudiante usa un péndulo simple de 1 m de longitud y comete un error de Δl=1 mm para determinar g (la aceleración de la gravedad). Usa un cronómetro con la cuenta mínima de 1s para esto y registra 40 segundos para 20 oscilaciones. Para esta observación, ¿cuál(es) de las siguientes declaraciones es(son) verdadera(s)?

(1) Error en ΔT al medir el período de tiempo T es 0.05s

(2) Error en ΔT al medir el período de tiempo T es 1s

(3) El porcentaje de error en la determinación de g es 5,1%

(4) El porcentaje de error en la determinación de g es 2,6%

Solución dada:

Respuesta (1,3)

ΔT/T = 1/40 y T = 2s ---¿por qué?

Por lo tanto ΔT=0.05s

Δg/g ×100 = Δl/l ×100 + 2× ΔT/T ×100

Δg/g ×100 = ((10)^(-3)/1)×100 + 2×(1/40)×100

Δg/g ×100 = 5,1 %


No obtuve la parte donde el error relativo se calculó como mínimo contando sobre la observación porque si uno está midiendo el tiempo, el único momento en que uno puede cometer un error es al principio o al final y eso sería un error humano y/o error. error de conteo (1 segundo en este caso) pero esto fue lo que mi maestro me dijo que aprendiera como una fórmula que el error es igual al mínimo conteo sobre la observación. ¿Pero por qué?

También

No entendí la parte donde en la solución se toma el valor de T como 2. ¿Por qué?

También en la solución, al calcular el porcentaje de error, la solución toma ΔT=1. ¿Por qué?

Respuestas (2)

Creo que la mayoría de estas confusiones se reducen a comprender la terminología.

  • Existe una fórmula estándar en mecánica para calcular el período de oscilación de un péndulo simple, dada su longitud. Dada esta fórmula y la información de la pregunta "Un estudiante usa un péndulo simple de 1 m de longitud", debería poder verificar que el período de oscilación es (aproximadamente) 2 s.

  • La pregunta dice "Él usa un cronómetro con la menor cantidad de 1"; esta información debería responder a su pregunta sobre cómo el valor de Δ T esta elegido.

  • "¿Por qué dividir Δ T por el tiempo de observación?" - aquí hay una pregunta conceptual real que vale la pena considerar. Es cierto que cometemos un error de Δ T = 1 s sobre el totalobservación. Sin embargo, como tenemos 10 observaciones, el error se puede dividir por el número de observaciones. He aquí un ejemplo para ilustrar el punto principal. Supongamos que observamos el péndulo durante 1 oscilación. Entonces, no sabemos si el verdadero período es 9,5 s o 10,5 s. Pero ahora supongamos que observamos el péndulo durante 100 períodos (¡estamos muy aburridos!). Si el período verdadero es 10 s, la lectura de nuestro cronómetro estará entre 999,5 s y 1000,5 s. Por otro lado, si el período fuera de 9,5 segundos, la lectura del cronómetro estaría entre 949,5 y 950,5 segundos. ¡Por lo tanto, mirar durante 100 períodos nos ha dado algo de jugo adicional! Mientras que con una observación de 1 periodo, era posible que el verdadero periodo fuera de 9,5 s, cuando observamos durante 100 periodos, si obtenemos una lectura de 999,7 s,

Hola, Andrew, gracias por una respuesta tan buena, me ayudó mucho, pero todavía no puedo entender por qué "dividir" "menos contar" por la "observación" que hicimos. Entendí que las duraciones más largas de observación nos permiten obtener resultados más precisos.
"Cuenta mínima" es solo otro nombre para Δ T . Si observas por norte periodos, y el verdadero periodo es T , entonces esperará obtener una lectura en el cronómetro T s t o pag w a t C h en el rango norte T Δ T / 2 < T s t o pag w a t C h < norte T + Δ T / 2 . Ahora nuestra medida del período es T metro mi a s = T s t o pag w a t C h / norte . Usando estas dos ecuaciones, puede mostrar la diferencia entre los períodos medidos y verdaderos, d T = T metro mi a s T , satisface | d T | < Δ T / 2 norte . Esto dice el "error de medición" | d T | es el "menor conteo" Δ T dividido por el número de periodos norte .
Creo que estoy empezando a entenderlo, pero ¿a qué te refieres exactamente cuando escribes |δT|? Cuando resolví las ecuaciones obtuve δT = (T(N-1) + ΔT/2) o δT = (T(N-1) - ΔT/2), lo que significa que δT oscila entre estos dos resultados, pero ¿dónde está la "T( N-1)" término ir?
bueno empecemos con
norte T Δ T / 2 < T s t o pag w a t C h < norte T + Δ T / 2
Luego restamos norte T de cada lado
Δ T / 2 < T s t o pag w a t C h norte T < Δ T / 2
Luego dividimos por norte
Δ T / 2 norte < T s t o pag w a t C h / norte T < Δ T / 2 norte
Entonces usamos T metro mi a s = T s t o pag w a t C h / norte -- esta es nuestra medida del período, basada en la lectura del cronómetro. Finalmente definimos d T = T metro mi a s T como la diferencia entre el período medido y el real.
Entonces nosotros tenemos
Δ T / 2 norte < d T < Δ T / 2 norte
Si miras esto por un momento, puedes ver que es equivalente a | d T | < Δ T / 2 norte .
Una buena respuesta que también me ayudó, pero estoy confundido con lo siguiente: el período de tiempo del péndulo simple está dado por la fórmula T = 2 π yo gramo , aquí T es el periodo de tiempo. Pero, cuando reordenamos para resolver gramo , obtenemos gramo = 4 π 2 L T 2 dónde T vuelve a ser el mismo. Pero, si ahora diferenciamos esto después de tomar log en ambos lados, obtenemos | d gramo gramo | = | d L L | + 2 | d T T | , aquí T de repente se convierte en el tiempo de observación, ¿por qué? Esto es lo que me está confundiendo.
@LightYagami diría que en la fórmula que escribiste, T es el periodo del péndulo. Pero d T es Δ T / norte , en otras palabras, la incertidumbre en el período es la incertidumbre en el cronómetro Δ T dividido por el número de períodos que observó (por las razones explicadas en la respuesta y los comentarios).
@Andrew Ah, ahora lo entiendo. yo estaba asumiendo d T = Δ T , básicamente de la noción de pequeño cambio en T , y estaba tomando d T = 1 s. (+1).

El error absoluto de norte = 20 oscilaciones es Δ T 20 = 1 s , porque esta es la precisión del reloj. Para obtener el error por oscilación simplemente dividimos por norte . Por lo tanto, el error absoluto por oscilaciones es Δ T 1 = Δ T norte / norte = Δ T 20 / 20 = 0.05 s .

¿Por qué? Aquí no estamos interesados ​​en los errores aleatorios que se suman para cada oscilación, sino en la incertidumbre del dispositivo de medición . Al tomar el tiempo para muchas oscilaciones, esta incertidumbre permanece constante (siempre es 1 s ). Por lo tanto, atribuimos sólo 1 / norte a cada oscilación.

Sidemark: Al profundizar en las estadísticas, encontrará que en realidad deberíamos usar una distribución uniforme de ancho 1 s y toma su desviación estándar σ = 1 / 12 s como incertidumbre del dispositivo. Sin embargo, mantengamos las cosas simples y sigamos con Δ T 20 = 1 s .

El argumento presentado anteriormente considera solo la incertidumbre del propio dispositivo. No tenemos en cuenta el cambio de tiempo para un comienzo y una parada imperfectos. también podríamos tener en cuenta estos errores (tiempo de reacción finito). Sin embargo, es de esperar que estos sean "pequeños" en comparación con 1 s .

El error relativo de norte = 20 oscilaciones se define como Δ T 20 / T 20 , dónde T 20 = 40 s . Por lo tanto, el error relativo para una sola oscilación es Δ T 1 / T 1 , dónde T 1 = T 20 / norte = 40 s / 20 = 2 s . Así, obtenemos

Δ T 1 T 1 = 0.05 s 2 s = 1 / 40

¿Esto ayuda?

Esta es una buena respuesta. Pero, como una pequeña objeción, ¿el error de cuantización del cronómetro es realmente un error "sistemático"? Tiendo a pensar en ello como un error estadístico, ya que si hago muchas mediciones, en promedio debería terminar con un período final "justo debajo" del corte de 1s del cronómetro tan a menudo como termine con un período final "justo arriba", y estos deben promediarse. Normalmente habría pensado que un error sistemático podría ser más algo que no tiende a promediar, como si el cronómetro fuera lento y los latidos de 1 se desviaran sistemáticamente de un segundo real.
Vale, gracias por aclarar. A mí me sigue pareciendo que el error de cuantificación es fundamentalmente estadístico, más que sistemático: por ejemplo, si promediamos muchos experimentos independientes, el error de cuantificación debería volverse cada vez menos importante. Sin embargo, todavía estoy absolutamente de acuerdo en que uno no puede asumir que los errores de tiempo son gaussianos. Una forma de manejar esto rigurosamente sería escribir una probabilidad en la que los valores observados tomen valores discretos, en lugar de continuos. Otras fuentes de error podrían incorporarse a la probabilidad de otras maneras.