Actualmente estoy en una clase de probabilidad aprendiendo sobre la estimación de parámetros usando el estimador de máxima verosimilitud. El problema es el siguiente: tenemos una lista de observaciones independientes Y y[1]...y[n], que provienen de alguna distribución de probabilidad con un parámetro desconocido . (Por ejemplo, exponencial, Gaussiana, Poisson, etc.)
Queremos estimar el parámetro maximizando la probabilidad de que veamos las observaciones que hacemos. Como todas las observaciones son independientes, tenemos probabilidad . Para maximizar esto, tomamos la derivada con respecto a y poner a 0.
Algo que noté: para cada ejemplo de esto que he visto hasta ahora (solo alrededor de 2 o 3 ahora), el resultado final es siempre el mismo: el valor del parámetro es lo que hace que la media de su vector de observación sea igual . Por ejemplo, para una distribución exponencial, obtenemos
¡Gracias de antemano!
Estás notando que en algunos casos el MLE es igual al resultado de establecer el valor esperado de las observaciones (p. ej. ) igual a la media muestral observada ( ) y resolviendo el parámetro (p. ej. ). Este último método se denomina método de los momentos (MOM) y generalmente no da el mismo resultado que MLE. (Sin embargo, existe una especie de conexión entre MLE y un MOM generalizado ).
Como un ejemplo de cómo los dos pueden diferir, considere uniforme . Entonces , mientras .
NB : El estimador MOM a veces puede no tener sentido; por ejemplo, en el ejemplo anterior, si las observaciones son , entonces , aunque un valor de ¡fue observado!
ok, entonces consideremos el caso donde son independientes y se distribuyen uniformemente en el intervalo y quieres el MLE de La media de la distribución es La densidad para una sola observación es
Ahora fíjate en dos cosas:
callculus42