¿Qué clasificadores de Machine Learning usan los humanos?

Antecedentes: en muchas situaciones, las personas suelen clasificar objetos sin conocer la teoría del aprendizaje automático. Por ejemplo, si un niño pequeño ve un animal desconocido en la naturaleza, intenta clasificarlo como peligroso o no peligroso (basándose en "datos" anteriores).

Pregunta: Obviamente, los humanos usan cualquier clasificador. Mi pregunta es: ¿Cuál?

Todavía no tenemos ni idea. :PAG
probablemente ninguno, nuestros métodos de "red neuronal" son demasiado simplificados y realmente tontos (desde la perspectiva de la naturaleza), los algoritmos estándar de "aprendizaje" automático también simplifican demasiado las cosas la mayor parte del tiempo (mentiras baysianas, etc.) Creo que necesitamos más estudios sobre cómo el cerebro humano/otros cerebros más simples (gato/perro/pájaros,...) * clasifica las partes de un objeto * agrupa/ordena estas partes en conceptos * usa el concepto correcto * aprende nuevos conceptos... En mi humilde opinión, hay muchos principios básicos simples involucrados y debemos aprender más sobre el aprendizaje / la memoria / la configuración.

Respuestas (2)

Esta es, por supuesto, una gran pregunta y no creo que haya una respuesta definitiva. Una investigación muy completa de este asunto proviene de Rogers y McClelland (2004), quienes desarrollaron una teoría paralela distribuida de adquisición, representación y uso del conocimiento semántico humano . Como su nombre lo indica, este esfuerzo proviene del ámbito del procesamiento distribuido paralelo, que también se denomina conexionismo.. Los libros que citó @DikranMarsupial pueden verse como los cimientos del campo. Según tengo entendido, los dos volúmenes y sus autores (McClelland es solo uno de ellos, al menos otros dos nombres importantes son David Rumelhart y Geoffrey Hinton) tuvieron un enorme impacto en el renacimiento de las redes neuronales dentro de la ciencia cognitiva y en el desarrollo del enfoque distribuido paralelo.

Rogers y McClelland (2004) ofrecen una descripción interesante de cómo se agrupan las cosas en categorías, que es lo que está preguntando. Para dar una explicación muy breve: según su teoría, todos los objetos tienen ciertos atributos. Por ejemplo, un canario tiene patas, alas y plumas. Un petirrojo también tiene todas estas cosas. Un pino, en cambio, tiene hojas, raíces y raíces. Lo mismo es cierto para un roble. En realidad, hay muchos más atributos, pero esto debería ser suficiente para aclarar el punto.

Los objetos que tienden a covariar entre sí de manera coherente (porque tienen atributos similares) se perciben como similares y se clasifican como pertenecientes a una categoría, como el canario y el petirrojo. Otros objetos, que no covarían con los de este primer grupo, pero sí covarían coherentemente con otros objetos, se clasifican como pertenecientes a otro grupo, como el pino y el roble. Son estas categorías coherentes las que son importantes para clasificar objetos.

Rogers y McClelland (2004) utilizaron una red neuronal para demostrar y probar su teoría. Sus hallazgos son consistentes con una variedad de hallazgos de estudios de desarrollo. También tienen un artículo, que es básicamente un breve resumen del libro (Rogers & McClelland, 2008). Si está interesado, es posible que desee ver esto primero. El artículo tiene comentarios de revisores pares que señalan las debilidades de la teoría, lo cual también es muy interesante.

Dado que se refirió al aprendizaje automático en su pregunta: el algoritmo de aprendizaje utilizado en los estudios de simulación fue el algoritmo de propagación hacia atrás del error . Como también mencionó @DikranMarsupial, este no es un algoritmo especialmente plausible biológicamente. Curiosamente, sin embargo, como también se explica con mucho detalle en el libro, es posible predecir el orden en el que los objetos dentro del corpus de entrenamiento podrían clasificarse mediante una descomposición de vectores propios de una variante especial de la matriz de covarianza de los objetos. No soy un experto aquí, pero para mí parece haber una conexión con la llamada regla de covarianza (desafortunadamente no tengo una cita aquí), que, según mi conocimiento, es biológicamente plausible.

Referencias:

Rogers, T. T y McClelland, JL (2004). Cognición semántica: un enfoque de procesamiento distribuido paralelo. Cambridge, MA: MIT Press. PDF
Rogers, Timothy T. y McClelland, JL (2008). Resumen de la cognición semántica: un enfoque de procesamiento distribuido en paralelo. Ciencias del comportamiento y del cerebro, 31(06), 689. doi:10.1017/S0140525X0800589X PDF

Sí, muy fascinante. Gracias por una buena respuesta y por incluir estas referencias.

La respuesta obvia sería las redes neuronales, que es la familia de métodos de aprendizaje automático inicialmente inspirados en la estructura de nivel más bajo del cerebro humano.

Ver los libros de Mclelland et al.

Procesamiento distribuido en paralelo, vol. 1: Fundamentos: Exploraciones en la microestructura de la cognición: Fundamentos v. 1 (Bradford Books)

Procesamiento distribuido en paralelo, vol. 2: Exploraciones en la Microestructura de la Cognición: Modelos Psicológicos y Biológicos v. 2

que dan cuenta de la investigación sobre redes neuronales en los días en que la plausibilidad biológica era más una consideración de lo que es ahora (desde una perspectiva de aprendizaje automático).

No es tan obvio; sabemos que las neuronas construyen el hardware del cerebro y funcionan mezclando señales similares a picos de una manera compleja dependiendo de su estado interno que probablemente cambie debido a las señales que reciben. Aunque el software sigue siendo un misterio y ciertamente ninguna de las soluciones ANN ML lo imita (ya que, por ejemplo, tienen fases separadas de capacitación y prueba). En otras palabras, las ANN son como recrear MS Paint al hacer una simulación muy sospechosa de una CPU x86 basada en sus fotos de microscopio y el ruido EM que emite.
Por supuesto, las redes neuronales no son una recreación exacta de la forma en que funciona el cerebro humano (¿quién usa el aprendizaje hebbiano en estos días en las redes neuronales?). Sin embargo, eso no significa que no haya similitudes útiles, como representaciones distribuidas y la idea de que no usamos la razón para determinar si un animal es peligroso, sino que simplemente lo "sabemos". Si algún algoritmo de ML fuera similar a la cognición humana, serían las NN. Por supuesto, los humanos también son capaces de razonar, así que hay más que eso.
Me parece que la pregunta está en el límite de las estadísticas (ya que involucra ML), así como la ciencia cognitiva (que es distinta de ML y ML a menudo no tiene relación con la ciencia cognitiva, pero es esencialmente estadística computacional). Señalar las redes neuronales es una dirección razonable para que Miroslav investigue (comencé con los libros de PDP, agregaré un enlace)
@Dikran, "Ciencias cognitivas" en Stack Exchange sí cubre el aprendizaje automático, la "s" en "Ciencias" significa que somos un sitio multidisciplinario :-)