Supongamos que creemos en la posición "tercera" del Problema de la Bella Durmiente . Es decir, creemos que P(Heads | Waking up) = 1/3
.
Aplicando el teorema de Bayes, obtenemos
P(Heads | Waking up) = P(Waking up | Heads) * P(Heads) / P(Waking up)
Por la definición del problema, P(Waking up | Heads) = 1
, y de manera similar, P(Waking up) = 1
ya que es solo la parte superior marginal de cabezas y cruces.
Esto nos deja con P(Heads | Waking up) = P(Heads) = 1/3
. Entonces, ¿eso significa que la tercera posición implica que la probabilidad previa de obtener cara es 1/3? Es decir, que incluso antes de lanzar la moneda, deberíamos asignar una probabilidad de 1/3 a que salga cara.
La dificultad aquí parece ser que para hacer probabilidad, necesitas saber de qué espacio estás muestreando, y por construcción, La Bella Durmiente requiere que prestes atención a ese espacio. Hay dos espacios "intuitivos", y si mezclas ambos, terminas confundido. Niel de Beaudrap ya lo ha dicho, pero dada la cantidad de confusión expresada sobre este "problema", me gustaría intentar ser más explícito:
Lo que "realmente" sucede es esto:
p=1/2 heads awaken
p=1/2 tails awaken awaken
Lo divertido de esto es que obtienes dos resultados de una de las ramas. Esto sucede con cierta frecuencia en probabilidad y estadística, y no es ningún problema, pero debe decidir qué hacer al respecto.
El problema de la Bella Durmiente se formula típicamente como la señorita Bella esencialmente realizando un experimento cada vez que se despierta. (Tal vez le des una galleta si tiene razón). Así que la mitad de las veces obtienes un experimento, la mitad de las veces obtienes dos, y por construcción en el problema se supone que tienes que agrupar todos estos. (Si tuvieras un ejército de Bellas Durmientes y estuvieras contando todas las respuestas, esto es lo que querrías hacer).
Así que ahora tenemos tres awaken
s en nuestro espacio muestral:
heads-awaken tails-awaken-1 tails-awaken-2
que son todos idénticos. Así que si hacemos su cálculo:
P(H|awaken) = P(awaken|H)*P(H)/P(awaken) = 1*(1/3)/1 = 1/3
Espera, ¿qué fue eso?
P(H) = 1/3
Eso es bastante extraño, pero mira, no tuvimos que pasar por el cálculo para encontrar eso. Tenemos un espacio de muestra que, por construcción, tiene caras solo una vez de cada tres (¡inteligentemente construido a partir de un proceso que tiene un 50% de caras!). Así que esto es exactamente correcto: la probabilidad previa de cara es 1/3.
Y Miss Beauty y todos los demás estarían de acuerdo en esto antes de que se llevara a cabo el experimento (al menos si estuvieran al tanto de sus estadísticas).
Alternativamente, si la formulación es tal que en realidad hay una diferencia implícita entre los diferentes despertares (por ejemplo, porque el último es parte de la experiencia permanente de Miss Beauty, o porque si ella tiene razón una vez y una vez está equivocada en la rama de las colas, querrás solo dale media galleta, y no querrás romper las galletas, así que solo le preguntas una de las dos veces en la rama de las colas), entonces ella (y todos los demás) quizás deberían hacer un cálculo diferente:
p=1/2 heads awaken
p=1/2 tails
p=1/4 awaken
p=1/4 awaken
La lógica aquí es que si estás en la rama de las colas y te despiertas, el 50 % del tiempo estarás en la primera instancia y el 50 % del tiempo estarás en la segunda. En este caso, puedes calcular cosas como
p(H|awaken#1) = p(awaken#1|H)*p(H)/p(awaken#1) = 1*(1/2)/(3/4) = 2/3
lo que significa que si sabes que estás en medio del experimento y es la primera vez que te despiertas, hay 2/3 de posibilidades de que estés en la rama de cabezas. ( p(H|awaken#2) = 0
, y p(H) = 1/2
por la construcción de este espacio muestral.)
En realidad, este es un marco más flexible de usar: es tan cierto como el otro; es solo una formulación diferente adecuada para calcular cosas diferentes. La clave es reconocer cómo el espacio muestral se mapea sobre lo que realmente pudo haber sucedido; si su espacio de muestra no coincide con la pregunta que está haciendo, obtendrá la respuesta incorrecta.
Por ejemplo, si Miss Beauty quiere maximizar la cantidad de galletas que recibe y obtiene una por respuesta correcta, razonará:
// I can pick only one option: H or T
// I will gain no information later so I may as well pick now
E(cookies) = sum(p(cookies)*#cookies)
If I pick H:
p=1/2 right! 1 cookie
p=1/2 wrong, wrong! no cookie
E(cookies) = (1/2 * 1 + 1/2 * 0) = (1/2 + 0) = 1/2
If I pick T:
p=1/2 wrong! no cookie
p=1/2 right, right! 2 cookies
E(cookies) = (1/2 * 0 + 1/2 * 2) = (0 + 1) = 1
El doble de la recompensa si escojo T
, aunque lo piense P(T) = 0.5
.
El verdadero problema surge cuando se mezclan los dos espacios muestrales. Primero, uno piensa que, por supuesto, los tres eventos son indistinguibles por construcción, por lo que p(H|awaken)
= 1/3. Y, por supuesto , una moneda es justa, entonces p(H)
= 1/2. Y luego p(awaken|H)
= 1 y p(awaken)=
y 1/3 != 1/2
y... ¿qué diablos?
Conoce el espacio muestral, apégate a él y la probabilidad tendrá sentido, incluso si eres la Bella Durmiente.
[Nota: vea también mi transcripción de chat con Xoxarap.]
Ya sea que la moneda haya sido lanzada o no, la probabilidad es solo un modelo de cómo espera que resulten o hayan resultado los eventos, según la información que tiene. Sin tener información sobre el resultado de la moneda, no importa si ya se ha lanzado o no. El modelo probabilístico que asigna probabilidades en función de diferentes cantidades de información sigue siendo el mismo, por lo que es agnóstico del tiempo, del mismo modo que las ecuaciones de Newton predicen el mismo comportamiento para una manzana que se deja caer desde una altura de 1 m en condiciones similares tanto para ayer y mañana
Las probabilidades se asignan mejor en relación con la experiencia del mundo. En el problema de la Bella Durmiente, la experiencia del mundo de la princesa está sesgada por la droga para dormir. Aunque un observador no drogado puede sentir que la moneda es justa, la experiencia de la Bella Durmiente sobre las frecuencias de la moneda es diferente.
El problema es el hecho de que la Bella Durmiente experimenta los eventos de heads
y tails
con diferentes frecuencias en relación con un observador de control. Sin información adicional, la Bella Durmiente podría asignar racionalmente diferentes probabilidades a los resultados de la moneda, porque estamos sesgando deliberadamente sus experiencias. Además, si bien la Bella Durmiente sabe que estamos sesgando sus experiencias, esto no afecta las experiencias que tendrá como resultado del sesgo. Ella podría inferir racionalmente que percibimos que la moneda es justa, y también que ella percibiría que la moneda es injusta. Por lo tanto, incluso antes de participar en el experimento, podría asignar una probabilidad previa de 1/3 a heads
, al menos para sus propios fines.
La Bella Durmiente simplemente experimenta un conjunto probabilístico diferente al nuestro y, por lo tanto, obtiene una frecuencia diferente, de una manera no totalmente diferente a cómo los diferentes observadores que se mueven a diferentes velocidades percibirán los sonidos en diferentes tonos debido al efecto Doppler. Y de manera similar a los tonos cambiantes de los sonidos, podemos obtener un modelo probabilístico unificador, que no asigna una probabilidad definida al evento heads
, pero que describe qué probabilidad cada agente podría atribuir racionalmente al evento dependiendo de a qué conjunto estarán sujetas sus experiencias conscientes. a.
Supongo que el tercero no cree eso P(Heads|Sleeping Beauty waking up at all)=1/3
(aunque esto está sugerido/implicado por su argumento adicional), sino más bien eso the/an awake Sleeping Beauty's P(Heads|being awake at the/a moment of evaluation) should be 1/3
. Eso implicaría que la premisa de su argumento (más) es falsa ("Es decir, [...]"). Por lo tanto, todo lo que sigue puede ser válido , pero no es sólido .
P(Heads | Waking up) = 1/3
.Waking up
aquí no es el mismo Waking up
que usas más adelante en, por ejemplo, P(Waking up) = 1
. Entonces, parece que reinterpretas la posición del tercero (erróneamente). 2) Además, el tercero no cree eso P(Heads | Waking up) = 1/3
; en cambio, cree que la Bella Durmiente debería tener esa creencia probabilística (aunque expresada más exactamente como en mi respuesta original).P(Heads | Evidence) = 1/3
mientras mantiene que el marginal P(Heads)
es 1/2. ¿Cuál es esa evidencia?P(Heads | Asleep) = 1
. Ahí es donde la probabilidad "faltante" "desapareció", ya que (1/4)*1+(3/4)*(1/3)=1/2. ¿Estamos claros ahora? :)P(Heads | Asleep *on tuesday*)=1
, pero creo que una premisa del argumento es que ella no sabe qué día es. Todavía me parece que P(Being part of the experiment & being awake | Heads) = 1
etc., por lo que el problema original permanece.Tuesday
y Heads
. Para (ojalá, aunque lo dudo) aclarar: Imagina que la Bella Durmiente tiene un asesor que siempre está despierto pero no tiene memoria más allá de hoy, aunque sabe del experimento, y no sabe qué día es. Él siempre le aconseja sobre la probabilidad, incluso si observa que ella está dormida. ¿Cuál sería su consejo? ¿Cuál sería su consejo cuando la observe dormida? ¿Cuál sería su consejo cuando la observe despierta?
Xodarap
niel de beadrap
Xodarap
p = 1/2
. Ahora pasa por el experimento, y al final creep = 1/3
. ¿En qué momento cambiaron sus creencias? ¿Fue cuando le dijeron que iba a someterse al experimento?Rex Kerr
Xodarap
P(Heads | Something) = 1 / (1+n)
. ¿Qué es ese algo? No puede ser "estar informado sobre el experimento" porque cae en el mismo argumento en mi pregunta original.Rex Kerr
Xodarap
P(X=k)=y
significa "a medida que el número de experimentos tiende a infinito, la fracción en la que X = k tiende a y". Me parece que todavía tenemosP(Waking up)=1
etc.?Rex Kerr
Xodarap
Rex Kerr