Búsqueda visual: complejidad de tareas de búsqueda positivas frente a negativas

Pensando en experimentos donde los participantes realizan tareas de búsqueda visual, recuerdo haber escuchado en una conferencia de Cog Psych que si las instrucciones de la tarea fueran de la forma "encuentra el elemento que tiene la propiedad X", los participantes realizarían la tarea más rápido y con mayor facilidad. que cuando las instrucciones eran de la forma "encontrar el elemento que no tiene la propiedad Y".

Luego se discutió que esto ejemplifica uno de los temas de la psicología cognitiva: los procesos cognitivos manejan mejor la información positiva que la información negativa. ¿Es este efecto de positividad?

Me pregunto si hay algo en la segunda tarea que sea algorítmicamente más complejo que la primera. ¿Una computadora mostraría la misma desaceleración para estas tareas? ¿Alguien sabe de alguna investigación que explore esto?

Respuestas (5)

Sobre la base de la respuesta de @JohnPick y mi comentario , pero siendo un poco más formal. La diferencia puede explicarse por la diferencia entre el procesamiento paralelo y el secuencial, y la dificultad del predicado que se evalúa. Su pregunta específica es respondida por Treisman ( 1985 ) (que resumo en la segunda sección), pero trato de brindar una explicación más general.

Idea básica

Siempre que decimos "¿tiene el elemento la propiedad X ", generalmente elegimos una propiedad muy simple para X , que se puede comprobar rápidamente. Por otro lado, un predicado como "no tiene propiedad Y " se convierte en algo así como "tiene propiedad ¬ Y " y suele ser una propiedad mucho más difícil de evaluar. Por lo tanto, espero que el problema principal no esté en la negación, sino en el hecho de que X suele ser mucho más rápido de evaluar que ¬ Y . En general, esperaríamos efectos similares con otros experimentos que usan una propiedad muy fácil X frente a una propiedad muy difícil pero aún positiva Z .

Sin embargo, si este fuera el único factor, solo veríamos una desaceleración de factor constante, lo que esperaríamos que se interprete como una desaceleración cuantitativa pero no cualitativa. Aquí es donde lanzamos el procesamiento paralelo. Si asumimos que el sistema de visión es capaz de un procesamiento altamente paralelo, pero la dificultad de la evaluación de la propiedad involucrada debe ser muy baja o necesitamos cambiar al procesamiento secuencial. En una computadora, piense en GPU: la GPU puede hacer muchos cálculos simples en paralelo, pero tenemos que usar la CPU más lenta para hacer cálculos difíciles uno a la vez.

Soporte de literatura relevante

El trabajo clásico como Treisman ( 1985 ) sugiere que mi suposición de que los cálculos muy limitados se realizan en paralelo, mientras que las propiedades más complicadas requieren atención y procesamiento secuencial es razonable. En particular, Treisman responde completamente a su pregunta:

Sugiere que la búsqueda de la presencia de una primitiva visual es automática y paralela, mientras que la búsqueda de la ausencia de la misma característica es en serie y requiere atención enfocada.

Comprobación de la teoría con propiedades no negativas

Para probar toda mi teoría podemos considerar los siguientes experimentos. Presentamos al participante norte enteros r 1 , . . . r norte dispuestos aleatoriamente en el campo visual, cada número entero está coloreado C 1 , . . . , C norte . Hacemos una de dos preguntas posibles:

  1. Propiedad X : Nombre un número verde, o
  2. Propiedad Z : Nombra un número divisible por 3 .

A medida que aumentamos norte desde 1 hasta un límite razonable, obtenemos una función de los tiempos de reacción F X ( norte ) y F Z ( norte ) para los dos casos:

  1. Si ambos predicados ( X y Z ) se procesan de la misma manera (es decir, ambos paralelos o ambos secuenciales), entonces esperamos que norte F X ( norte ) F Z ( norte ) F X ( 1 ) F Z ( 1 ) . En otras palabras, esperamos una desaceleración constante por el hecho de que verificar un solo número es verde es más fácil que verificar si es divisible por 3 .

  2. Si X se procesa en paralelo, mientras que Z no lo es, entonces esperamos norte F X ( norte ) F Z ( norte ) > F X ( norte + 1 ) F Z ( norte + 1 ) . En otras palabras, a medida que agregamos un elemento más al campo visual, el procesamiento paralelo se ralentiza significativamente menos que el procesamiento secuencial.

Treisman no explicó este fenómeno en términos de diferentes dificultades de tareas. Más bien sugiere diferencias en la activación de los mapas de características. Para la tarea "Buscar X", asume que el mapa de características para X muestra un punto de activación enfocado bien definido, mientras que, para "Buscar ~X", asume que la actividad se extiende por todo este mapa de características con solo una pequeña disminución en el posición del objetivo.
@H.Muster No estoy diciendo que lo haya explicado en términos de dificultades de la tarea, estoy sugiriendo que su trabajo hace que mi suposición sea "razonable". En eso se observan dos tipos de procesamiento: pre-atento altamente paralelo y post-atento en serie. Creo que mi respuesta está bastante mal estructurada en este momento, e intentaré reestructurarla moviendo la respuesta de Treisman a la parte superior y mis conjeturas y analogías a continuación.
Pero su teoría explica el fenómeno en términos de diferencias en las dificultades de las tareas (usted argumenta que no-Y suele ser más difícil de evaluar). Sin embargo, el fenómeno se trata de la diferencia entre evaluar X y no-X, es decir, no hay diferencia en la dificultad de la tarea.
@H.Muster not-X es casi siempre una tarea más difícil que X.
Eso no es lo que dijo Treisman. Ella solo observó que las personas son más rápidas para "encontrar un cuadrado rojo" en comparación con "encontrar algo que no es un cuadrado rojo". En realidad, el hecho de que la dificultad de las tareas sea similar hace interesante esta observación. Si las tareas fueran diferentes en dificultad, esta observación sería bastante trivial, ¿no es así?
Me gustaría agregar que no creo que cogsci aquí deba usarse como una oportunidad para entretener teorías 'mascotas' sobre el procesamiento cognitivo, tan interesantes como son las ideas de Artem, tal vez la discusión debería centrarse más en la teoría, como H .Muster está sugiriendo. Habiendo leído las sugerencias de Artem, parecen interesantes, pero está claro que es incompleto en algunas partes de la literatura. Artem, ¿quizás deberías escribir un artículo sobre esto y enviarlo a alguna parte?
@vizzero gracias por la sugerencia, pero el objetivo de mi respuesta fue señalar que existe una distinción entre el procesamiento paralelo y secuencial de la información en las tareas de búsqueda (como señaló Treisman en 1985). Si sigue las referencias hacia adelante, puede encontrar más ejemplos. La sección de prueba es solo una forma extensa de explicar cómo funciona la equivalencia de factor constante (y el análisis asintótico básico), y cómo puede comenzar a verificar paralelo vs serial en un experimento. Tenga en cuenta que esta es una forma bastante estándar de hacer estas pruebas.
La única 'autoteoría' es que "no" no es una propiedad esencial. Pero si cree que la respuesta es incorrecta o no responde a la pregunta, agradezco el voto negativo. Personalmente, creo que @H.Muster dio una mejor respuesta a esta pregunta, y no estoy 100% seguro de por qué OP aceptó mi respuesta, además de quizás la referencia a Treisman que responde completamente a su pregunta específica.
En realidad, creo que la referencia a Treisman hace que tu respuesta sea la mejor. Sin embargo, todo lo demás en su respuesta que no proviene de Treisman no está respaldado por investigaciones académicas y, por lo tanto, no es lo que debería ser una buena respuesta en CogSci.
Ay, no sigamos el camino de la búsqueda paralela/serie; ese debate ciertamente no comenzó ni terminó con ese artículo de 1985, y continúa hasta el día de hoy. El único problema que plantearía es que la literatura ha avanzado considerablemente desde entonces, por lo que puede ser un poco engañoso señalarlo como punto de partida.
@H.Muster estoy de acuerdo contigo. Artem está inventando cosas sobre la marcha aquí. uso inapropiado de citas para apoyar sus propias matemáticas

Dudo que el efecto que describió sea un ejemplo del efecto de positividad , que es una forma de sesgo atribucional , en lugar de estar conectado a fenómenos de percepción básicos.

En cambio, creo que los resultados experimentales que describiste pueden explicarse por un efecto de cebado . El cebado describe el fenómeno de que la exposición a un estímulo influye en el procesamiento de los siguientes estímulos. Si el primer estímulo comparte similitudes perceptivas, semánticas o conceptuales con el siguiente estímulo, se mejora el procesamiento (cebado positivo). Si proporciona información contradictoria, el procesamiento puede deprimirse (cebado negativo).

¿Una computadora mostraría el mismo comportamiento para estas tareas?

Los intentos de explicar los efectos de cebado (positivos) generalmente hablan de una activación de los contenidos de memoria asociados, que, a su vez, conducen a mejoras en los siguientes pasos de procesamiento.

Dado que el acceso a la memoria es a menudo un factor limitante del rendimiento de la computadora, es posible que también se observen efectos de cebado con las computadoras. Las computadoras tienen diferentes tipos de sistemas de almacenamiento que difieren en la velocidad de acceso (por ejemplo, disco duro, RAM, caché). Por ejemplo, se puede acceder más rápido a la información que está (pre)cargada en la memoria caché (que es limitada) que a la información que está almacenada en el disco duro. Dado que depende del contexto qué información está en la memoria caché en un momento dado (es decir, depende de las cosas que esté haciendo en ese momento), es probable que se acceda más rápido a los contenidos de la memoria relacionados con las cosas que hace ahora (porque son en el caché) que otros contenidos de la memoria, por lo tanto, un efecto de cebado.

Como otros ya han notado, esto no parece un efecto positivo. Sin embargo, lo que estás describiendo es una asimetría en la búsqueda. Esto significa que es más fácil hacer las cosas de una manera (buscando una característica específica) que de la otra (buscando la ausencia de una característica específica).

Hay una excelente introducción y revisión de la literatura relacionada con esto disponible en un artículo publicado que también está en línea aquí:

http://search.bwh.harvard.edu/pdf/IntrotoSearchAsym.pdf

Tenga en cuenta también que el artículo al que me he vinculado proviene de una edición especial de una revista en la que hay varios otros artículos que tratan sobre las asimetrías de búsqueda.

ACTUALIZACIÓN: Nuevo artículo recién publicado, sobre exactamente este tema: http://psycnet.apa.org/journals/xhp/38/3/580/

Esto está fuera de mi cabeza. Sin referencias a la literatura.

Suponiendo que todos los elementos están en el campo visual actual de los sujetos, el cerebro interpreta las dos tareas como:

  • Tarea positiva: Propiedad X está en algún lugar de su campo visual actual y, por lo tanto, se puede ver de inmediato. Dime qué elemento tiene esa propiedad. [2 pasos]
  • Tarea negativa: Buscar en norte elementos en tu campo visual hasta encontrar el que no tiene propiedad Y . [ norte 2 pasos, en promedio]

Por el contrario, un programa de computadora no inteligente usaría un algoritmo de búsqueda exhaustivo para ambas tareas y, por lo tanto, requeriría norte 2 pasos, en promedio, para cualquier tarea.

esta no es una comparación justa entre humanos y computadoras. Está permitiendo que un ser humano realice un procesamiento paralelo en el primer caso al decir "por lo tanto, se puede ver de inmediato" mientras obliga a la computadora a realizar solo un procesamiento secuencial. Este sería un modelo pobre.

Yo no lo llamaría un efecto de positividad. Es más bien un efecto de "congruencia semántica". Las tareas de selección en las que se supone que el sujeto debe seleccionar una opción con una propiedad particular son más rápidas que aquellas en las que se supone que debe seleccionar una opción sin la propiedad. Sin embargo, las tareas de rechazo en las que se supone que debe seleccionar una opción con la propiedad son más lentas que aquellas en las que se supone que debe seleccionar aquellas sin la propiedad. Es la compatibilidad entre la tarea (selección vs rechazo) y las características de los objetos (contiene la propiedad vs no contiene la propiedad) lo que realmente determina el tiempo de decisión.

Birnbaum y Jou ("Una teoría de tiempos de respuesta comparativos y juicios de diferencia", 1990) discuten esto, con las citas apropiadas.