Implementación de la inferencia bayesiana en la pregunta de investigación de las ciencias cognitivas

Para aclarar, no estoy hablando del modelo bayesiano de cognición. Ese modelo se refiere a la teoría de que el aprendizaje humano y la inferencia coinciden aproximadamente con el razonamiento de inferencia bayesiano. (Sin embargo, los dos temas no están relacionados).

De lo que estoy hablando es de la elección de una hipótesis sobre otra para explicar los conjuntos de datos obtenidos. Recientemente leí este artículo (Jefferys & Berger 1992) que aplica la inferencia bayesiana para explicar cuantitativamente la navaja de Ockham (la regla general de que las hipótesis más simples son mejores).

Aquí está el enlace al artículo: http://www.jstor.org/stable/29774559

Descripción de la inferencia bayesiana

En el artículo, el autor implementó el teorema de Baye para calcular la probabilidad de que una hipótesis sea correcta cuando se presentan nuevos datos. La ecuación es la siguiente:ingrese la descripción de la imagen aquí

Donde PAG ( H i | D & yo ) es la probabilidad de que una determinada hipótesis sea cierta dada la información previa (I) y los nuevos datos (D). PAG ( D | H i & yo ) es la probabilidad de que se produzcan nuevos datos (D) dada la información previa (I) y la hipótesis sea cierta (Hi). PAG ( H i | yo ) es la probabilidad previa atribuida a la hipótesis (Hi). PAG ( D | yo ) es la probabilidad de que ocurran nuevos datos (D) dada la información previa (I) sin importar si la hipótesis es verdadera.

En el artículo, el autor aplicó la inferencia bayesiana para mostrar cómo los datos proporcionados para cada ensayo pueden llevar a sopesar una hipótesis frente a otra.

El ejemplo que dio comparó dos hipótesis: la primera hipótesis (H1) establece que la moneda tiene una cara y una cruz. La segunda hipótesis (H2) establece que la moneda tiene dos caras. Inicialmente, la probabilidad de que cada hipótesis sea verdadera es probable (no ha habido un lanzamiento de moneda y el experimentador no conoce la moneda en absoluto). Por lo tanto, PAG ( H 1 | ) = PAG ( H 2 | ) = 0.5 .

Se produce la primera prueba y la moneda cae cara. Se modifica la probabilidad de cada hipótesis.

Para la primera hipótesis (1 cara 1 cruz), PAG ( H mi a d | H 1 & ) = 0.5 , PAG ( H 1 | ) = 0.5 , y PAG ( H mi a d | ) = tu norte k norte o w norte . Por lo tanto, PAG ( H 1 | H mi a d ) = 0.25 PAG ( H mi a d | ) .

Para la segunda hipótesis (2 cabezas), PAG ( H mi a d | H 2 & ) = 1 , PAG ( H 2 | ) = 0.5 , y PAG ( H mi a d | ) = tu norte k norte o w norte . Por lo tanto, PAG ( H 2 | H mi a d ) = 0.5 PAG ( H mi a d | ) .

PAG ( H mi a d | ) es factor de normalización, y solo estamos comparando dos hipótesis. Por lo tanto, PAG ( H 1 | H mi a d ) + PAG ( H 2 | H mi a d ) = 1 . Por lo tanto, PAG ( H 1 | H mi a d ) = 1 / 3 y PAG ( H 2 | H mi a d ) = 2 / 3 .

Lanzar la moneda varias veces y obtener cara cada vez disminuye PAG ( H 1 | H mi a d ) mientras aumenta PAG ( H 2 | H mi a d ) a cerca de 1.

Aplicaciones a las ciencias cognitivas y en concreto a la neuroimagen o EEG

Encontré que este método de ponderación de hipótesis es muy perspicaz y me preguntaba si había aplicaciones de la inferencia bayesiana a la ciencia cognitiva para determinar una hipótesis sobre otra. Se preferirían ejemplos de neuroimagen o procesamiento de datos EEG ya que estoy interesado en ese campo, pero cualquier otro ejemplo sería un buen punto de partida.

@BCLC Su pregunta vinculada es interesante pero no relevante para esta pregunta.
mira mi perfil de stats SE?
@BCLC Gracias. Encontré que el documento sobre el modelo Logit jerárquico bayesiano adjunto a una de sus preguntas es muy interesante. Leeré más sobre esto esta noche. eflglobal.com/wp-content/uploads/2014/09/… Además, no sabía que el intercambio de pila con validación cruzada era un sitio de estadísticas. Tal vez haga este tipo de preguntas en el futuro.
Kenny Kim, también está esto . También hice un artículo (no tan bueno) al respecto. Si quieres verlo, publica tu correo electrónico o algo, supongo.
Tengo información de contacto con correo electrónico en mi perfil ahora.

Respuestas (2)

Un buen punto de partida es probablemente la serie de publicaciones del blog Understanding Bayes de Alex Etz. También es coautor de un artículo relacionado que debería ser un excelente punto de partida: Cómo convertirse en bayesiano en ocho sencillos pasos: una lista de lectura anotada (el enlace es para la preimpresión).

El blog BayesFactor de Richard Morey es un excelente recurso para comprender el enfoque de comparación del modelo bayesiano. Ha escrito muchos artículos que son relevantes, pero el blog es el mejor punto de partida para aprender sobre el enfoque.

Para un libro de texto realmente accesible, Doing Bayesian Data Analysis de John Kruschke es un tratamiento excelente y completo del uso de la estimación de parámetros bayesianos en el análisis de datos. Este enfoque es un poco diferente del enfoque de comparación de modelos, pero las ideas conceptuales son las mismas. Un documento relacionado que motiva el enfoque del libro está disponible aquí .

La comparación del modelo bayesiano se realiza ampliamente. Aquí hay un ejemplo reciente de electrofisiología invasiva sobre la toma de decisiones:

Miré el papel, pero no pude entender bien el uso de la inferencia bayesiana. ¿Te refieres al uso del método Monte Carlo por casualidad? Me gustaría alguna elaboración.