Aplicando el teorema de Bayes a la Bella Durmiente

Supongamos que creemos en la posición "tercera" del Problema de la Bella Durmiente . Es decir, creemos que P(Heads | Waking up) = 1/3.

Aplicando el teorema de Bayes, obtenemos

P(Heads | Waking up) = P(Waking up | Heads) * P(Heads) / P(Waking up)

Por la definición del problema, P(Waking up | Heads) = 1, y de manera similar, P(Waking up) = 1ya que es solo la parte superior marginal de cabezas y cruces.

Esto nos deja con P(Heads | Waking up) = P(Heads) = 1/3. Entonces, ¿eso significa que la tercera posición implica que la probabilidad previa de obtener cara es 1/3? Es decir, que incluso antes de lanzar la moneda, deberíamos asignar una probabilidad de 1/3 a que salga cara.

Respuestas (3)

La dificultad aquí parece ser que para hacer probabilidad, necesitas saber de qué espacio estás muestreando, y por construcción, La Bella Durmiente requiere que prestes atención a ese espacio. Hay dos espacios "intuitivos", y si mezclas ambos, terminas confundido. Niel de Beaudrap ya lo ha dicho, pero dada la cantidad de confusión expresada sobre este "problema", me gustaría intentar ser más explícito:

Lo que "realmente" sucede es esto:

p=1/2    heads    awaken
p=1/2    tails    awaken    awaken

Lo divertido de esto es que obtienes dos resultados de una de las ramas. Esto sucede con cierta frecuencia en probabilidad y estadística, y no es ningún problema, pero debe decidir qué hacer al respecto.

El problema de la Bella Durmiente se formula típicamente como la señorita Bella esencialmente realizando un experimento cada vez que se despierta. (Tal vez le des una galleta si tiene razón). Así que la mitad de las veces obtienes un experimento, la mitad de las veces obtienes dos, y por construcción en el problema se supone que tienes que agrupar todos estos. (Si tuvieras un ejército de Bellas Durmientes y estuvieras contando todas las respuestas, esto es lo que querrías hacer).

Así que ahora tenemos tres awakens en nuestro espacio muestral:

heads-awaken   tails-awaken-1   tails-awaken-2

que son todos idénticos. Así que si hacemos su cálculo:

P(H|awaken) = P(awaken|H)*P(H)/P(awaken) = 1*(1/3)/1 = 1/3

Espera, ¿qué fue eso?

P(H) = 1/3

Eso es bastante extraño, pero mira, no tuvimos que pasar por el cálculo para encontrar eso. Tenemos un espacio de muestra que, por construcción, tiene caras solo una vez de cada tres (¡inteligentemente construido a partir de un proceso que tiene un 50% de caras!). Así que esto es exactamente correcto: la probabilidad previa de cara es 1/3.

Y Miss Beauty y todos los demás estarían de acuerdo en esto antes de que se llevara a cabo el experimento (al menos si estuvieran al tanto de sus estadísticas).

Alternativamente, si la formulación es tal que en realidad hay una diferencia implícita entre los diferentes despertares (por ejemplo, porque el último es parte de la experiencia permanente de Miss Beauty, o porque si ella tiene razón una vez y una vez está equivocada en la rama de las colas, querrás solo dale media galleta, y no querrás romper las galletas, así que solo le preguntas una de las dos veces en la rama de las colas), entonces ella (y todos los demás) quizás deberían hacer un cálculo diferente:

p=1/2    heads    awaken
p=1/2    tails
     p=1/4        awaken
     p=1/4                   awaken

La lógica aquí es que si estás en la rama de las colas y te despiertas, el 50 % del tiempo estarás en la primera instancia y el 50 % del tiempo estarás en la segunda. En este caso, puedes calcular cosas como

p(H|awaken#1) = p(awaken#1|H)*p(H)/p(awaken#1) = 1*(1/2)/(3/4) = 2/3

lo que significa que si sabes que estás en medio del experimento y es la primera vez que te despiertas, hay 2/3 de posibilidades de que estés en la rama de cabezas. ( p(H|awaken#2) = 0, y p(H) = 1/2por la construcción de este espacio muestral.)

En realidad, este es un marco más flexible de usar: es tan cierto como el otro; es solo una formulación diferente adecuada para calcular cosas diferentes. La clave es reconocer cómo el espacio muestral se mapea sobre lo que realmente pudo haber sucedido; si su espacio de muestra no coincide con la pregunta que está haciendo, obtendrá la respuesta incorrecta.

Por ejemplo, si Miss Beauty quiere maximizar la cantidad de galletas que recibe y obtiene una por respuesta correcta, razonará:

// I can pick only one option: H or T
// I will gain no information later so I may as well pick now

E(cookies) = sum(p(cookies)*#cookies)
If I pick H:
  p=1/2  right!         1 cookie
  p=1/2  wrong, wrong!  no cookie
  E(cookies) = (1/2 * 1  +  1/2 * 0) = (1/2 + 0) = 1/2
If I pick T:
  p=1/2  wrong!         no cookie
  p=1/2  right, right!  2 cookies
  E(cookies) = (1/2 * 0 + 1/2 * 2) = (0 + 1) = 1

El doble de la recompensa si escojo T, aunque lo piense P(T) = 0.5.

El verdadero problema surge cuando se mezclan los dos espacios muestrales. Primero, uno piensa que, por supuesto, los tres eventos son indistinguibles por construcción, por lo que p(H|awaken)= 1/3. Y, por supuesto , una moneda es justa, entonces p(H)= 1/2. Y luego p(awaken|H)= 1 y p(awaken)=y 1/3 != 1/2y... ¿qué diablos?

Conoce el espacio muestral, apégate a él y la probabilidad tendrá sentido, incluso si eres la Bella Durmiente.

[Nota: vea también mi transcripción de chat con Xoxarap.]

  1. Ya sea que la moneda haya sido lanzada o no, la probabilidad es solo un modelo de cómo espera que resulten o hayan resultado los eventos, según la información que tiene. Sin tener información sobre el resultado de la moneda, no importa si ya se ha lanzado o no. El modelo probabilístico que asigna probabilidades en función de diferentes cantidades de información sigue siendo el mismo, por lo que es agnóstico del tiempo, del mismo modo que las ecuaciones de Newton predicen el mismo comportamiento para una manzana que se deja caer desde una altura de 1 m en condiciones similares tanto para ayer y mañana

  2. Las probabilidades se asignan mejor en relación con la experiencia del mundo. En el problema de la Bella Durmiente, la experiencia del mundo de la princesa está sesgada por la droga para dormir. Aunque un observador no drogado puede sentir que la moneda es justa, la experiencia de la Bella Durmiente sobre las frecuencias de la moneda es diferente.

    El problema es el hecho de que la Bella Durmiente experimenta los eventos de headsy tailscon diferentes frecuencias en relación con un observador de control. Sin información adicional, la Bella Durmiente podría asignar racionalmente diferentes probabilidades a los resultados de la moneda, porque estamos sesgando deliberadamente sus experiencias. Además, si bien la Bella Durmiente sabe que estamos sesgando sus experiencias, esto no afecta las experiencias que tendrá como resultado del sesgo. Ella podría inferir racionalmente que percibimos que la moneda es justa, y también que ella percibiría que la moneda es injusta. Por lo tanto, incluso antes de participar en el experimento, podría asignar una probabilidad previa de 1/3 a heads, al menos para sus propios fines.

    La Bella Durmiente simplemente experimenta un conjunto probabilístico diferente al nuestro y, por lo tanto, obtiene una frecuencia diferente, de una manera no totalmente diferente a cómo los diferentes observadores que se mueven a diferentes velocidades percibirán los sonidos en diferentes tonos debido al efecto Doppler. Y de manera similar a los tonos cambiantes de los sonidos, podemos obtener un modelo probabilístico unificador, que no asigna una probabilidad definida al evento heads, pero que describe qué probabilidad cada agente podría atribuir racionalmente al evento dependiendo de a qué conjunto estarán sujetas sus experiencias conscientes. a.

"La Bella Durmiente podría asignar racionalmente diferentes probabilidades a los resultados de la moneda, porque estamos sesgando deliberadamente sus experiencias", pero el uso del teorema de Bayes muestra que sus experiencias en realidad no sesgan su probabilidad (es decir, su posterior es igual a su anterior) .
No es su experiencia lo que distorsiona los resultados, como he señalado en el punto n.º 1. Es cómo se estructurarán sus experiencias. Si la Bella Durmiente conoce la naturaleza del experimento, sabe que experimentará el conjunto sesgado y, por lo tanto, debe atribuir un anterior diferente al que le daríamos a lo que experimentará.
Convengamos que, antes de conocer el experimento, asigne p = 1/2. Ahora pasa por el experimento, y al final cree p = 1/3. ¿En qué momento cambiaron sus creencias? ¿Fue cuando le dijeron que iba a someterse al experimento?
@Xodarap: si es buena en estadísticas, sí, más o menos. Sus creencias cambiarían de "p = 1/2 para un lanzamiento de moneda justo" a "yo recién despertado en promedio experimentará p = 1/(1+n) posibilidades de cara si me ponen a dormir n veces si es cruz".
@Rex: Bien, P(Heads | Something) = 1 / (1+n). ¿Qué es ese algo? No puede ser "estar informado sobre el experimento" porque cae en el mismo argumento en mi pregunta original.
@Xodarap: cambiemos esto. ¿ Puedes definir qué es una probabilidad? Todo el "problema" de la bella durmiente parece un caso de hablar y pensar sobre algo que en realidad uno no define o entiende correctamente. Una vez que dices, "Por p = ___, quiero decir _____", todo el problema (al menos para mí) se vuelve mucho menos misterioso. Toda la confusión termina siendo: "¡Oh! Estaba pensando en X pero hablando de Y, ¡no es de extrañar que no encaje!"
@Rex: supongamos que, para simplificar, decimos que P(X=k)=ysignifica "a medida que el número de experimentos tiende a infinito, la fracción en la que X = k tiende a y". Me parece que todavía tenemos P(Waking up)=1etc.?
@Xodarap - Bien, ¿qué define "el experimento"? ¿La Bella Durmiente está realizando un experimento cada vez que se despierta?
@Rex: Claro, está bien

Supongo que el tercero no cree eso P(Heads|Sleeping Beauty waking up at all)=1/3(aunque esto está sugerido/implicado por su argumento adicional), sino más bien eso the/an awake Sleeping Beauty's P(Heads|being awake at the/a moment of evaluation) should be 1/3. Eso implicaría que la premisa de su argumento (más) es falsa ("Es decir, [...]"). Por lo tanto, todo lo que sigue puede ser válido , pero no es sólido .

Hmmm, ¿pero no es una premisa del problema que ella no pueda diferenciar entre "despertarse en absoluto" y "despertarse en el instante X"?
Tenga en cuenta que mi respuesta no aborda el problema de la Bella Durmiente, sino solo su pregunta/argumento, que, en mi opinión, no representa adecuadamente la posición del tercero desde el principio. Y, con respecto a su comentario, ella puede diferenciar (ciertamente de una manera un tanto abstracta) entre "despertarse en absoluto" y "despertarse en el instante X": sabe que está segura sobre el primero, y sabe que no está segura sobre el último. Por lo tanto, esos son dos condicionales distintos (según el tercero).
Ejemplo. Sabes que alguien ganará la lotería de mañana, pero no estás seguro de si serás . En su lógica, eso implica que no puede "diferenciar" entre esos eventos y, por lo tanto, también podría suponer que (A) ganará la lotería (y, por lo tanto, comenzará a comprar champán hoy). Esta lógica falla porque su lógica tampoco puede "diferenciar" entre "alguien ganará la lotería" y "alguien más ganará la lotería", lo que implica que también podría asumir que (no-A) no ganará la lotería .
Eso es lógica epistémica para ti: saber que algo X es verdadero es distinto de que algo X es verdadero.
Gugg: Sí, creo que una premisa del problema es que ella no puede diferenciar entre "Me desperté una vez" y "Me desperté dos veces". En tu analogía, no puede diferenciar entre "alguien ganó la lotería" y "Gané la lotería".
@Xodarap, sugiero que puede hacer que el problema sea mucho más comprensible si lo reescribe de tal manera que si 'Heads' se despertó solo una vez y si 'Tails' se despertó 10,000 días consecutivos. Sin embargo, no me importa el problema. Solo me importa que tergiverse implícita o explícitamente al tercero en tu pregunta.
Gugg: Entiendo la intuición detrás de la tercera posición, incluso sin hacerlo extremo. Simplemente no entiendo cómo rectificarlo con el teorema de Bayes. Se agradecería si pudiera especificar dónde exactamente estoy tergiversando a las personas: la única afirmación que he hecho de terceros (que yo sepa) es que creen P(Heads | Waking up) = 1/3.
@Xodarap ¡Exactamente, ahí mismo! 1) Porque, en mi opinión, el Waking upaquí no es el mismo Waking upque usas más adelante en, por ejemplo, P(Waking up) = 1. Entonces, parece que reinterpretas la posición del tercero (erróneamente). 2) Además, el tercero no cree eso P(Heads | Waking up) = 1/3; en cambio, cree que la Bella Durmiente debería tener esa creencia probabilística (aunque expresada más exactamente como en mi respuesta original).
@Xodarap Veo que este problema podría haberse originado en la página de Wikipedia, que dice sin rodeos "La tercera posición argumenta que la probabilidad de cara es 1/3". En mi opinión, esto es un poco descuidado y posiblemente confuso, pero el contexto aclara las cosas. "Cada vez que se despierta y se entrevista a la Bella Durmiente, se le pregunta: '¿Cuál es su creencia ahora sobre la proposición de que la moneda cayó cara?'". El tercero da su respuesta a esa pregunta.
@Xodarap Y donde dije "su" en mi último comentario, lea "La bella durmiente". :)
La bella durmiente tiene alguna evidencia que la hace creer que P(Heads | Evidence) = 1/3mientras mantiene que el marginal P(Heads)es 1/2. ¿Cuál es esa evidencia?
@Xodarap Presumiblemente, según el tercero , la "evidencia" es que 1) ella es parte del experimento y 2) que se encuentra despierta para hacer la evaluación. Por un lado: ¿Cuál sería su evaluación hipotética si se encontrara dormida (el martes)? P(Heads | Asleep) = 1. Ahí es donde la probabilidad "faltante" "desapareció", ya que (1/4)*1+(3/4)*(1/3)=1/2. ¿Estamos claros ahora? :)
Estoy completamente de acuerdo con eso P(Heads | Asleep *on tuesday*)=1, pero creo que una premisa del argumento es que ella no sabe qué día es. Todavía me parece que P(Being part of the experiment & being awake | Heads) = 1etc., por lo que el problema original permanece.
@Xodarap Estás equivocado. Si ella está dormida y sabe eso y de alguna manera aún puede evaluar, concluiría tanto Tuesdayy Heads. Para (ojalá, aunque lo dudo) aclarar: Imagina que la Bella Durmiente tiene un asesor que siempre está despierto pero no tiene memoria más allá de hoy, aunque sabe del experimento, y no sabe qué día es. Él siempre le aconseja sobre la probabilidad, incluso si observa que ella está dormida. ¿Cuál sería su consejo? ¿Cuál sería su consejo cuando la observe dormida? ¿Cuál sería su consejo cuando la observe despierta?
@Xodarap Y, aunque esto no es relevante para mi punto, "ella no sabe qué día es" no se encuentra entre las premisas del problema.