Sunteți pe pagina 1din 99

T.

1 INTRO: HISTORIA Y ENFOQUE PERCEPCIÓN VISUAL


Lo que nos interesa es prestar atención a las ideas generales, a los conceptos básicos de nuestro campo de estudio.
2. INFLUENCIAS INICIALES
Las primeras teorías científicas de la percepción estuvieron influidas por teorías previas basadas en el sentido común y la
reflexión filosófica. Para la filosofía, el estudio de la percepción formaba parte de la teoría del conocimiento que se
interesaba por justificar su validez. ¿En qué medida podemos confiar en nuestros sentidos de que nos dan un conoc válido
del mundo? y, al intentar contestarlas, la reflexión filosófica moderna se polarizó en 2 posturas contrapuestas:
1) Para el racionalismo, los sentidos no eran una fuente fiable de conocimiento. No es q nos engañen, xo pueden hacerlo
y, por tanto no pueden ser el fundamento del conocimiento cierto. El conocimiento es indudable pero con el fundamento en
la razón, no en los sentidos. Descartes (racionalista), encontró en el hecho de pensar el fundamento de toda certeza. El
razonamiento nos da un conoc más fiable q el de los sentidos. La mente está dotada de ideas innatas q no dependen de la
exp sensorial, y q son el fundamento de nuestras certezas más fundamentales.
Lo q tiene importancia es q el racionalismo da una importancia fund, al explicar la naturaleza de nuestro conocimiento, a:
- los procesos de pensamiento.
- los factores innatos.
2 problemas fundamentales en el estudio de la percepción tienen que ver, por un lado, con el grado de implicación que los
procesos cognoscitivos relacionados con el pensamiento tienen en la percepción, y, por otro lado, con el grado de
dependencia que la percepción tiene respecto de factores innatos.
2) Para el empirismo el conocimiento cierto no era posible. Se interesaron más por saber cómo era nuestro conocimiento y
valorar dp el grado de certeza q podía ofrecer. Su punto de partida: todo conocimiento empieza por los sentidos. No existen
ideas innatas, todo conocimiento procede de la experiencia y la exp es inicialmente sensorial.
Para ellos las sensaciones eran los elementos irreductibles del conocimiento, y que el conocimiento complejo era resultado
de la asociación de diferentes sensaciones simples.
El concepto de sensación de la filosofía empirista encontró apoyo en los descubrimientos q en el sXIX realizó la fisiología
de los sentidos:
Charles Bell en 1811 y François Magendie 11 años dp demostraron que las funciones sensoriales estaban mediadas por un
conjunto de nervios que eran diferentes de los que mediaban las funciones motoras.
Müller en 1820 formuló la doctrina de la energía específica de los nervios según la cual cada sensación estaba determinada
por la actividad específica de los nervios sensoriales que le servían de medio de transmisión, independientemente de cual
fuera el estímulo q causara esa actividad. Aunque esta doctrina de Müller no es aceptada, contribuyó a fomentar la invest
xa determinar los diferentes sentidos o modalidades sensoriales y estudiar la forma en que los efectos producidos por un
objeto percibido eran transmitidos hasta el cerebro mediante los nervios sensoriales.
En el proceso de determinar cuáles eran las sensaciones elementales, los fisiólogos y los físicos del siglo XIX prestaron at
a la sensación misma como hecho mental o dato de consciencia e idearon proceds experimentales xa estudiarlas.
Resultado de ese esfuerzo, aparecieron un conjunto de métodos y de resultados q dieron origen a la psicofísica.
E. Weber estaba interesado en estudiar si los nervios que responden al estado de nuestros músculos, también contribuyen a
nuestro sentido del tacto cuando tratamos de juzgar el peso de los objetos. Weber introdujo el concepto de diferencia
apenas perceptible y comprobó q no era una cantidad absoluta sino q se aproximaba a una razón constante del peso que se
estaba juzgando. Dp Fechner publicó sus Elementos de Psicofísica, libro fund en la historia de la P de la percepción y de la
P experimental en general. A partir de Fechner, la psicofísica quedó establecida como disciplina interesada en establecer
las rels matemáticas precisas entre los estímulos, medidos en escalas físicas, y las sensaciones evocadas por esos estímulos,
medidas en escalas de sensación. Los métodos para construir escalas de las sensaciones y los resultados principales,
representados por la Ley de Fechner, forman parte del patrimonio de la psicofísica actual.
El concepto de percepción tardó más en acuñarse que el de sensación. Reid distinguió entre sensación y percepción. Para
Reid, la percepción es mucho más que una sensación, aunque depende de las sensaciones.
La percepción incluye dos elementos que no están presentes en la sensación:
1º: una concepción del objeto.
2º: una irresistible convicción de la existencia de ese objeto.
Por tanto, diferenció claramente entre sensación y percepción incluyendo en la percepción tanto la categorización del
objeto como su existencia objetiva. Una idea que Reid consideraba filosóficamente crucial, cuando pensaba q la existencia
real de los objetos es percibida directamente, ha tenido una influencia muy importante en la formulación de la teoría de la
percepción directa que, como veremos, llevó a cabo a mediados del siglo xx James Gibson.
3. LA TEORÍA CLÁSICA
Formulada en la 2ª mitad del sXIX por Helmholtz y reelaborada por W. Wundt. Patrimonio común de casi todos los
teóricos de la percepción y sus ideas centrales han sido reformuladas hasta hoy.
En 1856 Helmholtz publicó su Tratado de Óptica Fisiológica y en 1863 su libro Sobre la Sensación de Tono. Ambas el
fundamento de la moderna invest científica de la percepción visual y auditiva respectivamente.
En su Tratado de Óptica Fisiológica trató los problemas más elementales de la sensación y los problemas más complejos
de la percepción como parte de una única disciplina fisiológica. El 3r volumen de su Tratado estudia problemas q han
pasado a formar parte de los textos de P de la percepción y han desaparecido de de fisiología. Resultado de la progresiva
especialización que caracteriza al desarrollo de la ciencia, no debe ocultar el valor de la concepción unitaria de Helmholtz,
para quien el uso de métodos conductuales o introspectivos no suponía un cambio de disciplina sino el desarrollo de la
fisiología por otros medios.
El interés por fundar una ciencia específica de lo mental, basada en el uso de la introspección como método adecuado fue
cosa de Wundt, discípulo de Helmholtz. En 1874 publicó sus Fundamentos de Psicología Fisiológica y en 1879 fundó el
primer lab dedicado al estudio de la psicología experimental. A partir de Wundt, la investigación psicológica de la
percepción inició un rumbo particular que, casi siempre en contacto con los principales descubrimientos fisiológicos, pero
tiene su propia historia. En este nuevo contexto, la formulación de la teoría clásica de la percepción por el discípulo de
Wundt, Edward Titchener, suele conocerse con el nombre de estructuralismo.
En general el punto de vista clásico afirma q nuestra percepción de los objetos y de los eventos está det por estructuras
mentales resultado de un proceso de aprendizaje perceptivo a partir de exps sensoriales elementales, no innatas.
El punto de vista clásico fue, en su origen empirista y trató de integrar en una teoría unitaria las principales aportaciones
que el desarrollo científico del momento podía hacer al estudio de la percepción. 3 aspectos de la teoría merecen atención:
1) La sensación como unidad de análisis xa la teoría clásica la invest perceptiva debe empezar x analizar las sens básicas.
1º diferenciar las modalidades sensoriales y dp subdividir cada modalidad en sus difs sens elementales. Esto exigía buscar
en primer lugar los Es físicos más simples que fueran capaces de evocar una sensación, después había que investigar los
receptores elementales que responden a ese estímulo. Dado q Müller afirmaba q cada sensación era el resultado de una
energía nerviosa específica, parecía lógico pensar que a partir del análisis de las sensaciones se podría llegar a determinar
esas energías. Para ello, los conceptos de umbral absoluto y de umbral diferencial acuñados por la psicofísica, así como
los métodos para medirlos, eran imprescindibles. Los primeros resultados parecían prometedores.
Pero el concepto de sensación no estaba libre de problemas. Por un lado, el análisis de las sensaciones llevó a describirlas
en términos de atributos. Külpe utilizó de forma sistemática el término atributo para caracterizar las sensaciones. Los
atributos no son entidades separables, son aspectos diferentes de la sensación q pueden variar de forma más o menos
independiente, pero q son necesarios para que dé una sensación. Una sensación sin cualidad o sin intensidad no es una
sensación aunq ambos aspectos pueden variar de forma muy diversa. Para Külpe, las sensaciones correspondientes a los 5
sentidos necesitan tener 3 atributos: cualidad, intensidad y duración. Además, la visión y el tacto, poseían un 4º atributo: la
extensión. Al incluir la duración y la extensión, hizo concesiones a las posiciones innatistas q consideraban q el espacio y
el tiempo no dependían de la experiencia, sino q estaban dadas en la propia estructura mental. Vemos pues, q en el análisis
de la sensación, la teoría clásica se encontró con las limitaciones de un empirismo radical.
Otro aspecto que contribuyó al declive del concepto de sensación era q para considerar a las sensaciones como unidades
fundamentales, es que no podemos distinguirlas una vez que entran a formar parte de un compuesto. Como veremos al
tratar del color, que era considerada una de las sensaciones más simples, la mezcla de colores fundamentales produce un
nuevo color pero en el nuevo color no hay rastro de las sensaciones correspondientes a los colores que producen la mezcla.
Para Titchener, para quien la introspección debía servir siempre para aislar las sensaciones cs, cada matiz distinto de color
era una sensación elemental diferente. Para Helmholtz, los resultados de los experimentos de mezcla de colores eran más
fiables q la introspección para detectar los cs elementales y, en el caso del color, sólo había 3 cs elementales. ¿Había, por
tanto, sólo 3 sensaciones de color? El problema es que la idea de q las sensaciones constituían los elementos irreductibles
de la experiencia consciente, se encontraba con problemas de difícil resolución.
2.2 La percepción como síntesis de sensaciones: es importante distinguir entre E distante y E próximo, hacen referencia:
E distante propiedades físicas de los objetos mismos: tamaño, forma, distancia a la que está del observador, etc.
E próximo propiedades de la estimulación que actúa sobre nuestros receptores. En el caso de la visión, ej, el E próximo
hace referencia a la imagen del objeto que se proyecta sobre la retina de los ojos.
En la percepción, las características más importantes que captamos de los objetos son sus características distantes. Lo que
se nos impone en la percepción visual son características que pertenecen a los objetos, no a nuestras imágenes retinianas.
¿Cómo es posible llegar a captar esas características a partir del estímulo próximo? Esta pregunta encontró en la teoría
clásica una respuesta basada en el A. La percepción de las características distantes no son una respuesta sensorial directa,
sino una percepción compleja aprendida. La percepción visual de los objetos se compone, por tanto, de sensaciones
visuales no espaciales, como el matiz o el brillo, y de imágenes de sensaciones no visuales q han estado característicamente
asociadas con esas sensaciones en la experiencia previa con esos objetos.
Un fenómeno de importancia es el de las constancias. Percibimos constante el color de un objeto a pesar de los cambios en
la iluminación, o el tamaño de ese mismo objeto a pesar de q se nos muestre a distancias difs. En éstos casos, los cambios
en el E próximo no determinan nuestra percepción. ¿cómo es posible la constancia de estas percepciones? Helmholtz lo
explicó tb en términos de A y formuló una regla: el principio de verosimilitud: percibimos aquellos objetos y eventos q,
bajo condiciones normales, serían los q produjeran el conjunto de estimulación sensorial efectiva q estamos recibiendo. Es
decir, acabamos percibiendo las características de los objetos q, sobre la base de la experiencia previa, son más probables.
2.3 La inferencia inconsciente Helmholtz tb dió una teoría sobre la forma en que nuestro sistema perceptivo aplicaba la
regla. Ej, cuando percibimos un objeto del mismo tamaño a pesar de sus cambios en la distancia a q está de nosotros, es pq
hemos aprendido a hacer algo q produce el mismo resultado que “tomar en cuenta la distancia”. De forma parecida, cuando
un papel continúa viéndose blanco a pesar de q lo vemos bajo una luz tenue, es pq hemos aprendido a tomar en cuenta los
cambios en iluminación. Pero Helmholtz no pensaba q “tomar en cuenta” la distancia o la iluminación fuera un acto
consciente de reflexión sobre la sit, sino de una inferencia inconsciente a partir de sensaciones q nos pasan desapercibidas.
La explicación de Helmholtz fue en su momento, y continuó siéndolo durante mucho tiempo, una fuente de controversia.
Cuando se formuló, hablar de sensaciones imperceptibles resultaba contradictorio en sí mismo para los que creían que la
sensación era el elemento constitutivo de la percepción. Otros consideraron q la explicación era demasiado complicada y
especulativa. Pero la explicación de Helmholtz tb tuvo defensores, aunq se ha reformulado de maneras diferentes.
Helmholtz describió el proceso perceptivo usando los términos que le daba la P de su tiempo, y lo describió como si fuera
un proceso de resolución de problemas, que es el resultado de la exp previa pero q se desencadena al margen de la voluntad
consciente del observador. Todo el aparato conceptual de hoy cuando hablamos de A implícito y de hs automáticas, le
habría sido de gran utilidad.
La teoría de la percepción de Helmholtz es una teoría muy cargada de elementos cognitivos. Para Helmoltz, la percepción
no estaba determinada por los procesos sensoriales sino por toda la estructura mental que él resumió en el concepto de
inferencia inconsciente. El E próximo es pobre en cuanto a la inf q da y necesita ser completado por toda la constelación de
conocimientos sobre el mundo q nuestra experiencia nos ha ido dando. Esta forma de pensar, basada sobre la pobreza de la
estimulación y la importancia del conocimiento para determinar lo que percibimos, es todavía hoy muy importante.
3. 1ª MITAD SXX
La teoría clásica de la percepción no pasó sin críticas por el siglo XIX. Hemos visto, al hablar de la sensación, que las
discusiones en torno a la mezcla de colores arrojaron serias dudas sobre la validez del concepto mismo de sensación
elemental y sobre la forma de determinar la existencia de elementos. Una importante contrapropuesta a la teoría
tricromática de Helmholtz, fue la teoría de los procesos oponentes formulada por Ewald Hering. Pero hubo que esperar al
sXX para que se desarrollara una alternativa teórica que representara un reto global a las posturas defendidas por la teoría
clásica. Esta alternativa estuvo representada por la teoría de la Gestalt.
3.1 La Teoría de la Gestalt: los postulados principales del racionalismo hicieron su aparición en el campo de la invest
científica de la percepción de la mano de la P de la Gestalt. Para la Gestalt las sensaciones, consideradas cm elementos de
la vida anímica, eran inexistentes. Gestalt significa configuración o forma total. Refeja su interés x centrar la invest
perceptiva en el estudio de las rels q estructuran las difs partes de una escena, más q en los els sensoriales q la componen.
Fenomenología: para la teoría clásica, la introspección era el método de la P para la investigar la percepción. Pero la de los
estructuralistas, requería un largo entrenamiento, durante el cual el observador aprendía a observar sus propios estados
mentales. Este entrenamiento con frecuencia le inducía una tendencia a percibir sus estados mentales de acuerdo con sus
inclinaciones teóricas, influyendo en los resultados.
Para la Gestalt, la experiencia consciente del observador tb era la fuente principal de datos de la investigación psicológica.
Pero estaba interesada en los datos de conciencia tal como aparecían de forma inmediata, sin contaminar con prejuicios
teóricos. Más q de introspección, debe hablarse de descripción fenomenológica para marcar la diferencia entre la
introspección clásica y la actitud de auto-observación de los gestaltistas. Para ellos, no se trataba de forzar a discriminar las
sensaciones elementales, sino de respetar los datos inmediatos de la misma y describirlos lo más objetivamente posible.
Configuración: los principales líderes de la Gestalt, Wertheimer, Kohler (1929) y Kofka (1935), rechazaron los supuestos
fundamentales de atomismo y empirismo de la teoría clásica. Lo importante en la percepción es la configuración del campo
perceptivo, la forma en que se relacionan los componentes de la escena, la totalidad estructurada por esas relaciones. Para
los gestaltistas, el todo es diferente de la suma de sus partes porque las relaciones entre los cs provocan la aparición de
propiedades emergentes, pertenecientes a un conjunto como tal pero q ninguno de los cs del conjunto posee por sí mismo.
Una persona puede percibir que la intensidad de un estímulo es mayor que, igual o menor que la intensidad de otro sin
necesidad de conocer los valores absolutos de intensidad de ninguno de ellos.
Los gestaltistas también rechazaron la analogía química que había utilizado la teoría clásica al considerar la percepción
como un compuesto formado por sensaciones elementales. Ellos preferían analogías tomadas de la física y hablaban del
campo perceptivo como si fuera semejante a los campos magnéticos o eléctricos. Ej: la presencia de una partícula con
carga eléctrica positiva, define un campo eléctrico a su alrededor. Si se añade una segunda partícula, la estructura del
campo se modifica y lo hace de distinta forma dependiendo de que la carga de la segunda partícula sea igual o diferente de
la de la primera. De forma parecida, en la Figura 1.1 A podemos ver un campo visual formado por un elemento que es la
letra K. En B, la percepción predominante es la de un rombo flanqueado por dos líneas verticales.
Pero el rombo surge por la adición de otra letra K rotada 180 grados y yuxtapuesta a la anterior. En
B, la identidad de cada letra individual se pierde porque la relación espacial entre las dos letras da lugar a la percepción del
rombo. Si, en vez de estar juntas, aumentáramos la distancia entre las letras, como en C, cada una recuperaría su identidad
como una letra K. La teoría de la Gestalt hizo aportaciones muy importantes a la invest de la percepción. Sus principios de
organización, a veces llamados leyes, constituyen aún hoy una importante materia de estudio y de investigación.
Innatismo: la Gestalt tb rechazó el empirismo. Para ellos, los principios organizadores de la percepción no tenían su origen
en la experiencia, ni del A previo. Sino resultado de la interacción de las estructuras cerebrales con el medio ambiente y
esas estructuras eran innatas o, a lo sumo, fruto de la maduración. Kohler, recurrió a la estructura de los mecs cerebrales a
la hora de explicar los fenómenos perceptivos. Consideraban que el cerebro era un ej de Gestalt física, es decir un sistema
físico q funcionaba como una totalidad dinámica q tendía hacia un estado de equilibrio de energía mínima. Además,
pensaban q los mecs causales subyacentes a los procesos perceptivos eran campos electromagnéticos generados por la
actividad de las neuronas. Esos campos también tenían las propiedades de una Gestalt física. La semejanza entre la
dinámica de los campos electromagnéticos cerebrales y la de los campos perceptivos, les llevó a formular su doctrina del
isomorfismo psicofísico. Esta doctrina afirma q tanto en el caso de la percepción del espacio como en la del tiempo o en la
de la forma, la org del campo perceptivo era una verdadera representación de la org dinámica de los procesos fisiológicos
subyacentes. Se da por tanto una igualdad de forma o isomorfismo entre el func del psiquismo y el func del cerebro, lo q
permite inferir la naturaleza de los procesos cerebrales a partir del análisis de las leyes q configuran el campo perceptivo.
Eran perfectamente conscientes de que en la percepción se producían fenómenos como las constancias o las ilusiones. La
explicación que dieron no se basaba en la experiencia, como Helmholtz y los empiristas, sino en las propiedades dinámicas
del cerebro como una Gestalt física. En oposición al principio de verosimilitud, formularon el principio de Pragnanz, q tb
se suele denominar el principio mínimo: establece que, en sits en las q son posibles más de una interpretación de la escena
visual, el sistema perceptivo impondrá la interpretación más simple. Es un principio coherente con una forma de pensar
que considera el func de la mente isomórfico con el func del cerebro y a éste como un sistema dinámico q tiende a un
estado de energía mínima.
3.2 El conductismo
Para la teoría clásica de la percepción, al igual que para la Gestalt, los datos fundamentales de la investigación eran los
datos de consciencia, por eso sus principales aportaciones están hoy en el campo de la percepción. Pero para el
conductismo los datos fundamentales están en la conducta y se centró en los factores que la modifican. Por eso, realizaron
sus principales aportaciones en el campo del A y de la motivación. Sus aportaciones al estudio de la percepción fueron
escasas y en ningún caso comparables a la aportación de las teorías anteriores. Nunca formularon una teoría conductista de
la percepción. Su interés se focalizó casi sólo en la relación entre Es y Rs pero en la práctica siempre usó Es muy simples,
en los q se manipulaba una sola dimensión, y Rs cuyo aspecto más interesante era el carácter mensurable de su resultado y
la forma en q podía ser moldeada para lograr ese resultado.
Pero no debe pasarse por alto su aportación metodológica. Con el estudio de la conducta, abrió a la P un campo de invest
sin explorar, introdujo rigor en la experimentación y precisión en las medidas y en el lenguaje. Exageró al exigir q la P se
limitara al estudio de la conducta, pero el estudio de la conducta ha sido desde entonces crucial para el desarrollo de la P.
El conductismo la redujo la investigación perceptiva al estudio de la conducta discriminativa y de esta conducta lo que más
le interesó fue su adquisición y el análisis de las variables q determinaban el control de la conducta por parte de los Es.
Pero cometieron el error de pensar que los Es manipulados por el investigador, que podemos llamar estímulos nominales,
eran lo mismo que los estímulos funcionales, que son los que realmente influyen en el organismo, con lo cual pasaron por
alto el problema central del estudio de la percepción, que es la relación entre ambos tipos de Es.
Desde el punto de vista metodológico, el conductismo ayudó a valorar la importancia de las tareas experimentales y el
análisis de las variables que las afectan. Pero lo importante de las tareas es su capacidad para informar de los procesos que
intervienen en ellas y la explotación de esa capacidad no la pudo llevar a cabo el conductismo.
3.3 Teoría de la percepción directa
Tb conocida como teoría ecológica de la percepción, desarrollada durante muchos años por James J. Gibson, muy
influenciado por la teoría de la Gestalt y el conductismo. De la teoría de la Gestalt, adoptó su oposición a toda postura
atomista. Pero al contrario que los gestaltistas, no creía q el fundamento de la teoría perceptiva estuviera en la estructura
del organismo, sino en el estudio del medio ambiente en el que el O está inmerso. Se trata, por tanto, de analizar a fondo la
estimulación para localizar la inf relevante en cada sit.
Percepción ecológica Gibson piensa que el análisis perceptivo debe centrarse en la conformación óptica ambiental. Con
este término quiere indicar el patrón global de la estimulación, por oposición a aspectos parciales como son las
sensaciones. Éstas se definen en términos de luminancia, mientras que la conformación óptica se mide en términos de los
márgenes existentes entre áreas de diferente luminancia. Las luminancias cambian con cambios en la iluminación, mientras
que la conformación óptica permanece invariante ante esos cambios. La conformación óptica es un concepto relacional,
mientras que las luminancias son las cantidades de luz medidas por un fotómetro.
Gibson estaba convencido de que el patrón de estimulación q llega a los sentidos, lejos de ser pobre en inf, como pensaba
Helmholtz y los clásicos, contiene toda la inf necesaria para determinar qué ha de percibirse en una situación det.
La supuesta pobreza del estímulo es, según Gibson, el resultado de estudiar la percepción en condiciones restrictivas en las
q se priva al O de inf q está disponible en condiciones normales de la vida cotidiana. La teoría clásica ha fomentado invests
en las q un observador estático, mirando x un orificio, tiene acceso a una inf peculiar de un punto de vista det.
La percepción cotidiana, sin embargo, es una percepción dinámica q cambia a medida q el observador se mueve con
respecto a la escena total, y ese tipo de percepción es el q debemos estudiar.
Gibson trató de ofrecer una óptica ecológica como alternativa a la óptica geométrica utilizada por la teoría clásica. La
óptica geométrica, en lugar de tratar la luz en términos de onda o corpúsculo, construye sus representaciones sobre el
concepto de rayo de luz. Dado que la trayectoria de un rayo corresponde aprox a la de un fotón, la óptica geométrica
puede utilizar líneas rectas para representar esas trayectorias y emplear técnicas geométricas para poder predecir con
aceptable aprox la posición de las imágenes formadas por los sistemas ópticos. La óptica geométrica trata el ojo humano
como un caso particular de cámara oscura y ha contribuido a popularizar la semejanza entre el ojo y la cámara fotográfica y
entre la imagen retiniana y la imagen impresa en una fotografía. Para Gibson, la utilización de la óptica geométrica como
base para la descripción de los estímulos es un error porque está fundamentada en abstracciones que no pueden captar la
riqueza de la conformación óptica ambiental. La óptica geométrica es una ciencia de la luz, no una ciencia de la visión. La
ciencia de la visión necesita hacer referencia al organismo y a la relación del organismo con el medio. Una óptica adecuada
a una teoría de la percepción visual necesita hacer referencia a la forma particular en que se configura para el organismo el
ambiente con el que interactúa. Para ello se necesita una óptica ecológica.
La óptica ecológica de Gibson está organizada en torno a 2 conceptos funds: información y propiedad funcional.
Introdujo el concepto de información en contraposición al concepto de energía. La energía es la estimulación apropiada
para las células receptoras; los receptores responden a una energía particular. Sin embargo los órganos sensoriales son
sistemas perceptivos que responden a estímulos de un orden superior al de los estímulos de los receptores. Los sistemas
perceptivos responden a la inf que hace referencia a los objetos mismos. El concepto de información en Gibson no es el
concepto formal introducido por la teoría matemática de la información. Gibson utilizó el término para acentuar el carácter
objetivo de la percepción en cuanto que ésta nos informa acerca de los objetos. La inf en Gibson es “información sobre
algo” y únicamente significa “especificidad respecto de algo”. Al afirmar q los sentidos perciben inf sobre los objetos,
quiere poner de manifiesto que, por ser sistemas perceptivos y no simplemente órganos receptores, los sentidos son
capaces de captar características reales de los objetos que no nos son dadas propiamente en la energía que llega a nuestros
receptores sino en las relaciones que determinan la estructura de la conformación óptica. Cómo es posible que los sentidos
lleguen a captar esta inf es un problema que veremos más adelante.
En su último libro La aproximación ecológica a la percepción visual, Gibson introdujo el concepto de affordance como una
extensión del concepto de inf. Al igual que la inf, las propiedades funcionales q constituyen una affordance están
especificadas en la estructura de la conformación óptica, pero añaden un aspecto que las cualifica: son invariantes q están
en consonancia con el cuerpo del observador mismo. Gibson da ejemplos de varias propiedades funcionales de superficies,
tales como “sentarse sobre ella” en el caso de una silla, “subir por ella” en el caso de una escalera de mano o incluso
“introducir en su interior” en el caso de un buzón de correos. Gibson mantiene que nuestro sistema perceptivo es ca- paz
de captar estas propiedades directamente. Vemos, por tanto, que la idea central de Gibson consiste en remachar que la
investigación de la percepción debe centrarse en estudiar las propiedades de nuestros sentidos considerados como sistemas
perceptivos, es decir como totalidades dinámicas estructuradas cuya capacidad de captar inf y propiedades funcionales
sobrepasa con mucho la de sus componentes. Pero considera que este objetivo investigador no se logrará a base de
descomponer el sistema y ver lo que tenemos “dentro de la cabeza” sino estudiando el medio ambiente, dentro del cual se
encuentran inmersos nuestros sistemas perceptivos.
Percepción directa es el segundo punto fund en la teoría de Gibson, el carácter directo que atribuye a la percepción.
Hemos visto que para la teoría clásica la estimulación es pobre a la hora de informarnos sobre el medio y que necesita
suplir esta deficiencia con inf proveniente de nuestros recuerdos y, en general, con la experiencia acumulada. Nada de esto
es necesario para Gibson. Lo q percibimos está perfectamente det por la particular conformación estimular que en un
momento det nuestros sistemas perceptivos captan. No necesitamos recurrir a recuerdos, o pens xa explicar la percepción.
Al decir que la percepción es directa, quiere decir que toda la inf necesaria para determinar la percepción se encuentra en el
medioambiente y que no necesitamos recurrir a procesos del organismo para su explicación:
Cuando afirmo q la percepción del medio es directa, quiero decir que no está mediada por imágenes retinianas, imágenes
neuronales o imágenes mentales. Percepción directa es la actividad de obtener la inf de la conformación óptica de la luz.
Llamo a esto un proceso de captación de inf q implica la actividad exploratoria de buscar, explorar y mirar a las cosas.
Dos aspectos a ser resaltados:
1) su oposición a cualquier tipo de mediación basada sobre representaciones: esto lo enfrentó a las teorías del
procesamiento de la inf q han predominado desde mediados del siglo XX. Tb con la investigación neurofisiológica que,
con una mentalidad analítica, trata de estudiar los cs de los sistemas perceptivos y sus funciones en la percepción. En su
afán por evitar toda referencia a procesos intermedios entre la estimulación y la experiencia perceptiva, prácticamente
ignoró todo un conjunto de datos fisiológicos que, en nuestra opinión, no se pueden ignorar. Con respecto a las
investigaciones neurofisiológicas mantuvo en percepción una postura similar a la mantenida por los primeros conductistas
respecto al aprendizaje: no proporcionan datos relevantes para una teoría de la percepción.
2) su concepción de la percepción como un proceso activo el término activo lo usa para poner de manifiesto la importancia
que la locomoción del observador tiene para cambiar el patrón estimular y para especificar la inf presente, por ej, en el
flujo óptico. Tb lo usa para reconocer la importancia q la motivación puede tener para captar una det propiedad funcional
en el estímulo. Pero en sí mismo el acto de percibir no es activo en el sentido constructivista que dio a este término la
teoría clásica. Para ésta, la percepción es activa en cuanto q es una síntesis de la inf proporcionada por los sentidos y la
proporcionada por la exp previa del observador. Para Gibson toda la inf está en la estimulación, el observador no aporta inf
alguna sino q se limita a captar aquella inf con la que se encuentra en sintonía. Gibson, al igual q T. Reid, es un realista.
La teoría de Gibson es más fuerte en lo referente a su posición ecológica que en su defensa de la percepción directa. Su
influencia ha sido importante y amplia en el estudio de la percepción aunque sus posturas extremas respecto al papel de las
representaciones no son mayoritarias. Su despreocupación por incorporar los datos de la fisiología en la teoría de la
percepción, además de privarle del respeto de los fisiólogos, es compartida por muy pocos psicólogos.
3.4 otras influencias
Aunq nos hemos centrado en las aportaciones nuevas de mitad del sXX, muchos continuaron trabajando dentro del
programa de invest planteado por la teoría clásica. En este contexto distintas formas de funcionalismo que concebían el
proceso perceptivo como una transacción en la que los estímulos y el observador se implican mutuamente de forma que
para definir el E funcional o efectivo para un det observador es necesario conocer su conducta previa. Así, E y conducta se
encuentran inmersos en un círculo de interacción que determina su definición mutua. Este transaccionalismo, tuvo su
origen en el filósofo J. Dewey.
También muy influyente fue el funcionalismo probabilista formulado por Brunswick quien, al igual q Gibson, acentuó la
importancia de estudiar sits ecológicamente válidas, en las que la estimulación no estuviera empobrecida sino que fuera
representativa de las sits en las q el O vive y de las q el investigador quiere generalizar sus conclusiones. Brunswick tb
estuvo muy interesado en reformular la teoría perceptiva de Helmholtz dejando de lado sus sensaciones elementales y sus
mecanismos sensoriales. Pensaba que el aprendizaje perceptivo es el proceso que lleva al organismo a confiar en aquellos
indicios o claves estimulares q están altamente correlacionadas con alguna propiedad física de los objetos o de los eventos.
A pesar de que el concepto de sensación, entendido como elemento c de la percepción, fue progresivamente abandonado, el
estudio, dentro de cada modalidad sensorial, de las respuestas a cambios en aspectos simples de la estimulación, continuó
siendo tarea de la psicofísica. Una aportación importante a su desarrollo, que estudiaremos en la sección de métodos en
este libro, fue la aparición de los métodos directos ideados por S.S. Stevens con el fin de conseguir escalas de razón en la
medición de esas respuestas sensoriales. Sobre la base de estos métodos, Stevens formuló su ley potencial psicofísica y dio
origen a lo que hoy se conoce como nueva psicofísica para distinguirla de la psicofísica clásica fechneriana.
4. 2ª MITAD S.XX
A mediados del siglo xx se produjo un cambio en la investigación psicológica q afectó a todas sus áreas de especialización.
Las actitudes conductistas cedieron el paso al interés por los procesos subyacentes a la conducta y surgió la moderna
psicología cognitiva, q dió al estudio de la percepción un marco de referencia en el q muchas de las ideas de la teoría
clásica pudieron ser reformuladas. Este marco de referencia tb ayudó a integrar otras 2 corrientes de invest científica
cruciales para el desarrollo de la invest en percepción: los avances de la investigación fisiológica y el computacionalismo.
4.1 La psicología cognitiva
La teoría clásica, el estructuralismo e incluso la Gestalt pueden ser consideradas versiones distintas de una P cognitiva.
Pero el término psicología cognitiva se utiliza hoy para designar una versión particular que surgió a mediados del siglo xx,
el procesamiento de información, q dió una aprox al estudio de los procesos cognitivos considerando la mente humana
como un sistema q maneja símbolos de una forma semejante a un ordenador. La metáfora del ordenador es la analogía q
servirá de guía para estudiar los procesos mentales.
Al igual que un prog de un ordenador, los procesos mentales pueden ser analizados como una serie de fases o estadios.
Cada estadio recibe una inf de entrada, opera sobre esa inf transformándola de alguna forma y produce una inf de salida.
El funcionamiento final del sistema es el resultado del conjunto de operaciones que, a través de las distintas fases,
transforman la inf inicialmente recibida. Para el procesamiento de inf, al igual que para el estructuralismo y la Gestalt, y en
oposición a Gibson y los conductistas, el estudio de los procesos que transforman la inf de entrada (input) y producen una
det salida (output) es el objeto de estudio de la P. En este contexto, la percepción es una fase del procesamiento de la inf
mediante la cual el O construye una representación del medio q pueda guiar su actividad. Esta representación se consigue
sobre la base de la inf dada por la estimulación y mediante las operaciones que el sistema aplica a su transformación.
Principales características del procesamiento de información:
1. Sistemas el proces de inf considera la cognición como actividad resultante de la interacción d los cs de un sistema. No
niega la importancia los cs del sistema pero concede mayor importancia a la estructura y a la org funcional resultante de la
interacción de sus cs. El procesamiento de inf se sitúa en una posición intermedia entre el estructuralismo y la Gestalt.
Una forma de representar el funcionamiento de un sistema y sus cs principales ha consistido en usar diagramas de flujo.
La Figura 1.2 presenta un diagrama de flujo en el que un sistema A recibe 2 tipos de input, (a) y (b). Cada rectángulo en el
diagrama representa un conjunto de operaciones q acaban produciendo un output; a su vez, estos outputs forman el input de
la fase siguiente (e) que acaba produciendo una salida final (O) para el sistema A.
Un diagrama de flujo es una forma abstracta de representar la org de los cs de un sistema y su funcionamiento. Una posible
interpretación del diagrama en la Fig 1.2 podría ser un sistema de integración de inf procedente de distintas modalidades
sensoriales q recibe inf visual (a) y táctil (b) y produce, mediante una operación sobre los dos tipos de inf (e), una
representación integrada de ambas (0). Un diagrama de flujo permite representar los sistemas perceptivos como conjuntos
de subsistemas q están compuestos de una inf de entrada (input), un conjunto de operaciones representadas por los
rectángulos, y una inf de salida (output).
Una propiedad importante de los Ss de proces de inf es la que Palmer y Kimchi llamaron
descomposición recursiva: la posibilidad de subdividir un sistema en otros subsistemas
componentes, cada uno de ellos dotado de un input, de una función y de un output. En la Fig
1.2 vemos q el sistema total A está compuesto por 3 subsistemas, uno especializado en
procesar la inf visual, otro en la inf táctil, y un 3º q integra ambas infs. A medida que avanza
la investigación de cada uno de esos cs, es posible proceder a un análisis más detallado del
func de cada subsistema mediante la especificación de sistemas menores que componen los
subsistemas. Este esquema de análisis es recursivo porque se puede aplicar una y otra vez
siempre que lo requiera el análisis del sistema q se está estudiando hasta que se llega a un último nivel que no se puede
descomponer más. A los componentes de este último nivel se les suele denominar características primitivas, cuando se
trata de componentes de una representación, o, si de trata de procesos, son llamados operaciones elementales.
2. Información, codificación y representación de usar el concepto de información en el sentido técnico de la teoría de la
inf de Shannon; que trataba de medirla en términos de la probabilidad de emisión de un mensaje, pero los resultados no
fueron buenos; pasó a ser usado como sinónimo de conocimiento: inf es la cantidad de conocimiento q una persona
adquiere o posee sobre el medio que le rodea. En el caso de la percepción, no se trata tanto de la cantidad de inf e hay en la
estimulación, cuanto de la cantidad de conoc que el observador puede llegar a adquirir sobre la base de esa estimulación.
Íntimamente reldos con esta forma de concebir la inf están los conceptos de codificación y de representación. Para el
proces de inf el conocimiento está org en la mente humana en forma de imágenes u otros formatos de representación.
La inf del medio q nos llega a través de los sentidos necesita ser trasladada a esas formas o códigos de representación por
medio de un conjunto de procesos a los que se les da el nombre de procesos de codificación.
La percepción es fund un conjunto de procesos de codificación mediante los cuales se genera en el observador una
representación mental del medio ambiente.
3. Características de los procesos los procesos de un sistema cognitivo, como el sistema perceptivo, pueden estar
organizados de forma serial o en paralelo. Serial: cuando los procesos se llevan a cabo en secuencia, uno dp de otro, y
cada uno de ellos recibe como input el output final del proceso que le precede, por lo q no empieza a funcionar hasta que el
proceso anterior ha finalizado. Paralelo: actúan simultáneamente y su input es independiente del output de otros procesos.
Los primeros modelos que el procesamiento de inf usó para representar procesos mentales, mostraban una org serial.
Dp, a medida q se fue cayendo en la cuenta de la complejidad de los procesos perceptivos, los modelos de org en paralelo
fueron ganando terreno. La rapidez con q tienen lugar los procesos perceptivos visuales parecía requerir una estructura del
sistema visual en la que numerosas operaciones pudieran realizarse simultáneamente. Esta estructura, a su vez, exigía una
división del trabajo de forma que distintos cs del sistema perceptivo se especializaran en llevar a cabo un det conjunto de
funciones. Ej: un c podía especializarse en procesar el color de una escena, mientras otro c procesaba la forma y un tercero
el movimiento. Cuando un sistema presenta una organización especializada de este tipo se dice que tiene una estructura o
arquitectura modular, y a los cs del sistema se les llama módulos.
Otra dimensión que el procesamiento de inf ha utilizado para caracterizar a los procesos está relda con la dirección que
sigue el flujo de procesamiento. Cuando el procesamiento está constituido por un conjunto de operaciones que operan
sobre los datos que proporciona el input para construir representaciones progresivamente más complejas, se dice que el
procesamiento tiene lugar de abajo a arriba. Cuando el procesamiento tiene lugar en la dirección opuesta, de forma que
las representaciones más complejas, tales como objetivos o creencias, actúan mediante feedback sobre las operaciones más
simples, se dice q el procesamiento tiene lugar de arriba a abajo. Una caracterización afín a ésta, pero que pone el acento
en el papel q juegan las influencias complejas de feedback, es la q distingue entre procesos dirigidos por los datos, cuando
operan con independencia de esas influencias, y procesos dirigidos conceptualmente, cuando operan bajo su influencia.
Las distintas teorías que han surgido dentro del procesamiento de inf varían unas de otras en la importancia que conceden a
cada uno de estos tipos de procesamiento.
La teoría de la visión de Marr es una teoría concebida en su totalidad de abajo a arriba y dirigida por los datos.
Por el contrario, otras teorías han acentuado el papel que el conocimiento previo, las intenciones y las creencias ejercen
sobre lo percibido; son teorías preferentemente de arriba a abajo. Sin embargo, la mayor parte de las teorías defienden la
coexistencia de los dos tipos de procesamiento; estas teorías suelen ser llamadas interactivas.
Una última caracterización de los procesos que se ha utilizado frecuentemente en la P cognitiva, es la que distingue entre
procesos automáticos y procesos bajo control atencional o procesos controlados. Esta clasificación está relda con el
grado de dependencia de la atención que un proceso tiene para poder llevar a cabo su función:
- automático: a un conjunto o a una secuencia de operaciones q se pone en funcionamiento ante la sola presencia de un E.
La secuencia puede incluir tanto procesamiento de abajo a arriba como de arriba a abajo. Un proceso automático puede
formar parte de un sistema perceptivo de forma innata o como resultado de la práctica. En la medida en que un proceso
automático depende de la práctica, su automaticidad debe entenderse como una cuestión de grado, no tipo todo o nada.
- controlado: cuando se requiere la influencia de la atención para ensamblar un conjunto o una secuencia de operaciones.
Ej: cuando se trate de una secuencia nueva, o q la sit en la q se van a llevar a cabo las operaciones sea peligrosa para el O.
La automaticidad y la dependencia del control atencional son características complementarias de los procesos perceptivos.
Cuanto más automático es un proceso, menor implicación atencional requiere y cuanto menor grado de automatismo posee
más necesaria es la implicación de la atención para poder operar. En la investigación de los procesos de percepción la esta
distinción entre procesos automáticos y controlados tiene una amplia aplicación. Hay procesos los implicados en la
percepción visual del movimiento, que se ponen en func ante la sola presencia de un estímulo adecuado. Sin embargo
otros, como es el caso de la lectura, requieren gran concentración atencional al principio pero, a medida que la práctica
mejora su aprendizaje, la implicación de la atención es cada vez menor.
4. Métodos El procesamiento de inf reintrodujo el estudio del TR como una de las principales VDs para hacer inferencias
acerca de los procesos perceptivos y de los procesos mentales en general. El método sustractivo introducido por el
psicólogo Donders fue ampliamente utilizado. De acuerdo con este método, el tiempo empleado por una persona en la
realización de una tarea podía dividirse en una serie de fases o estadios cada uno de los cuales correspondía a una
operación elemental componente de la tarea. Donders utilizó tareas muy simples que denominó con las letras A, B y C:
- tarea A: tb tarea de tiempo de reacción simple o tarea de detección, consiste en la presentación de un único E al que el
observador debe responder lo antes que pueda con una única respuesta. Consiste, por tanto, en la presentación de un
estímulo por parte del experimentador y la realización de una R por parte del observador.
- La tarea B: o tarea de tiempo de reacción de elección o tarea de discriminación, consiste en la presentación de dos o
más Es y un nº equivalente de Rs, cada una de ellas asociada a un estímulo det. Ante la presentación de un E por parte del
experimentador, el observador debe contestar con la R asociada a ese E.
- La tarea C: o de tiempo de reacción selectivo o tarea responde/no respondas se presentan dos o más Es pero el
observador sólo debe responder a uno de ellos y no responder al resto.
Donders supuso que cada una de estas tareas estaba compuesta de un nº det de procesos elementales y que restando al TR
empleado en responder en una de ellas, el tiempo empleado en responder a la inmediatamente más simple, podía aislar el
tiempo empleado en cada proceso elemental. La lógica utilizada por Donders para hacer inferencias acerca de los procesos
mentales es tributaria de supuestos que acabaron por resultar excesivamente restrictivos, aún así la aplicación de su lógica
ha producido resultados interesantes cuando se ha aplicado a sits q cumplían los supuestos. Sus tareas, sin embargo, han
quedado como tareas fundamentales en la investigación de la percepción. Los intentos de superar las limitaciones del
método sustractivo llevaron a la formulación de nuevos métodos, como el método de los factores aditivos de Sternberg,
que contribuyeron a profundizar en la investigación cognitiva.
Muy próxima al procesamiento de inf puede considerarse la Teoría de Detección de Señales (TDS). Esta teoría puso de
manifiesto que una R tan simple como la que un observador puede emitir en una tarea de detección encaminada a
determinar un umbral absoluto, no refleja de forma incontaminada el func de un sistema sensorial, sino que hay q tomar en
consideración a los procesos de decisión implicados en la emisión de la R. Desde q fue formulada, la TDS ha sido utilizada
dentro del procesamiento de inf como un proced para mejorar las inferencias basadas sobre medidas de precisión.
Finalmente destacar la importancia que dentro del procesamiento de inf alcanzaron los proceds de formalización de las
teorías y de los modelos. El desarrollo de los modelos matemáticos fue extraordinario pero sobre todo hizo su aparición,
como método específicamente ligado a esta aproximación psicológica, la implementación de las teorías mediante
simulación en ordenador. Una simulación es un programa que al incorporar en su func una teoría, permite contrastar sus
predicciones y explorar sus consecuencias con una precisión difícil de alcanzar por otros procedimientos.
4.2 El computacionalismo
El computacionalismo representa, a la vez, la madurez teórica del procesa- miento de información y la apertura de la
psicología cognitiva a la interacción con otras disciplinas interesadas en la investigación de los procesos cognos- citivos.
La referencia del ordenador no tenía las mismas connotaciones para todos los investigadores. Para unos, el ordenador era
preferentemente una metáfora, una analogía que nos permitía pensar acerca de los procesos cognitivos. Para otros era
mucho más, el ordenador y la mente humana eran casos particulares de una clase de sistemas de procesamiento de inf que
Newell y Simon llamaron sistemas de símbolos físicos. El estudio de estos sistemas y la búsqueda de una teoría general de
los mismos constituyeron los objetivos de una nueva empresa científica a la que se denominó ciencia cognitiva. La ciencia
cognitiva surgió como una empresa multidisplinar en la que convergió el interés por investigar los procesos cognitivos de
disciplinas aparentemente tan dispares como la psicología cognitiva, la neurociencia, la inteligencia artificial, la lingüística,
la filosofía de la mente y la antropología.
En la investigación de los procesos perceptivos, destacaremos dos aportaciones de la ciencia cognitiva: las características
generales de la teoría de David Marr y dp los conceptos fundamentales de una alternativa q, dentro de la ciencia cognitiva,
apareció en oposición a la consideración de la mente como un sistema de símbolos físicos, conocida como conexionismo.
4.2.1 La teoría de David Marr Marr procedía del campo de la neurociencia teórica y sintetizó su teoría en su libro Vision,
una de las contribuciones más importantes del sXX al estudio de la percepción visual. Mostró pronto su insatisfacción con
el carácter fragmentario tanto de la investigación psicofísica como de la fisiológica de la visión. La psicofísica era casi
exclusivamente descriptiva y la fisiológica, aunq estaba interesada en los mecs cerebrales de la percepción, producía unas
explicaciones excesivamente simples. Las investigaciones de los 60, estaban centradas en la búsqueda de detectores, pero
el descubrimiento de detectores por sí mismos -pensaba Marr- no nos dice nada sobre cómo llevan a cabo la detección de
una característica, ni cómo se integra la inf de los difs detectores para producir una representación integrada del medio.
Para David Marr, una teoría de la visión adecuada debe interesarse por los procesos de construcción de las representaciones
que permiten al cerebro ver. Para ello se requiere una aprox computacional que, como resultado final, permita construir
máquinas que vean. La aprox de David Marr dió tanto una filosofía de la investigación computacional como una teoría
concreta de las principales fases de procesamiento visual.
Los niveles de análisis para Marr, los sistemas complejos de proces de inf, como la mente humana o el sistema visual, no
pueden ser explicados y comprendidos desde un único punto de vista. Es necesario 1º determinar los puntos de vista desde
los que el sistema puede ser estudiado y después integrar la inf de cada uno de ellos. A los puntos de vista desde los que
podemos estudiar un sistema Marr les da el nombre de niveles de análisis. Cada nivel de análisis está det por un tipo de
pregunta q nos hacemos acerca del sistema y la explicación adecuada a cada nivel de análisis es la respuesta a esa pregunta.
Propuso que los niveles de análisis funds son 3:
1) nivel computacional especifica de forma abstracta el problema que un sistema de procesamiento de inf tiene q resolver.
La pregunta es: ¿qué hace el sistema? La explicación tiene que apuntar a los objetivos y a la finalidad del sistema. Marr
usó como ej de sistema de inf una caja registradora: lo q hace son operaciones aritméticas elementales, como sumar o
multiplicar. Por tanto, una explicación de nivel computacional de una caja registradora deberá especificar las operaciones
que hace y encontrará el por qué de esas operaciones en la teoría de la aritmética. En el caso de la visión, una teoría
computacional deberá especificar los objetivos funds del sistema, ej, siguiendo a Aristóteles, puede definirse como objetivo
fund del sistema visual descubrir a partir de imágenes qué existe en el mundo y dónde está.
2) nivel Algorítmico especifica cómo se llevan a cabo las operaciones o procesos del sistema. En este nivel es necesario
especificar una representación q codifique el input y el output del sistema y un algoritmo q lleve a cabo la correspondencia
entre input y output. En el ej de la caja registradora, el nivel algorítmico deberá determinar si la representación q se usa es
decimal o binaria y cuál es el algoritmo concreto utilizado para efectuar las operaciones. En general, por tanto, este nivel se
pregunta por, y busca explicaciones reldas con el modo en que un sistema resuelve los problemas.
3) nivel de Implementación se interesa por la naturaleza de la realización física del sistema, por la tecnología que utiliza.
En el caso de la caja, las preguntas típicas de este nivel tendrían q ver con ruedas dentadas o con circuitos electrónicos; en
el caso de un sistema visual, tendrían que ver con circuitos integrados o con neuronas si se trata de un sistema biológico.
Los tres niveles de análisis pueden estar muy reldos entre sí; ej, la elección de circuitos electrónicos para construir una caja
registradora, puede condicionar la elección de una representación binaria. Pero es conveniente distinguir entre los
diferentes niveles de análisis para tener claro cual es el tipo de explicación adecuada a una det pregunta. Sobre todo es
conveniente tener claro q, al tratar de explicar el comportamiento de sistemas complejos de procesamiento de inf, carece de
sentido buscar la explicación de ese comportamiento como si solamente hubiera una única explicación posible. Una
explicación sólo tiene sentido en relación con una pregunta en un det nivel de análisis; por eso necesitamos explicaciones
en niveles distintos para entender adecuadamente esos sistemas.
Los niveles de organización del procesamiento visual para Marr, el problema fund de la percepción visual es construir
una descripción invariante de la forma y de la posición de las cosas a partir de imágenes. No es que la visión no lleve a
cabo otras funciones, como procesar el color o el movimiento. Pero estas funciones son subordinadas al objetivo
primordial que es dar inf sobre la forma de los objetos en el espacio. El sistema visual logra este objetivo a través de 3
grandes fases de procesamiento a partir de un input inicial. Este input es una imagen bidimensional de la escena visual
generada por los valores de intensidad de cada uno de los puntos de la imagen correspondientes a la excitación de los
receptores. Las 3 fases de procesamiento son y tienen como objetivo:
a) El Esbozo Primario su objetivo es hacer explícita la inf acerca de la imagen bidimensional; en primer lugar los cambios
de intensidad q hay en ella, después la distribución geométrica y la org de esos cambios. El input de esta fase es la imagen
inicial. El output está formado por un conjunto de primitivas simples -bordes, barras, manchas y terminaciones- agrupadas
de acuerdo con principios de org semejantes a los propuestos por la Gestalt. Estas primitivas constituyen los elementos
simbólicos básicos a partir de los cuales se van a construir las representaciones de las fases siguientes.
b) El esbozo 21/2-D se hace explícita la inf acerca de la orientación y de la profundidad de las superficies visibles. Tb se
especifican los contornos y las discontinuidades en orientación y profundidad en un sistema de coordenadas centradas en el
observador. Se trata por tanto de recuperar inf acerca de las superficies que conforman la escena visual en un espacio
tridimensional, pero la consecución de la 3ª dimensión no es perfecta, por eso esta fase se llama esbozo 21/2-D, ya que los
valores de orientación y de profundidad obtenidos están referidos al observador.
El procesamiento en esta fase tiene dos características: modularidad y paralelismo:
- modularidad: implica que los procesos que tienen lugar en esta fase son llevados a cabo de una forma especializada por
distintos cs del sistema visual; así mientras un módulo procesa el color, otro procesa el mov, otro la textura, etc.
- paralelismo: implica que el func de cada módulo es independiente del funcionamiento de los demás y se llevan a cabo al
mismo tiempo. El input para cada módulo de esta fase es el resultado de la fase de esbozo primario. El output de esta fase
está formado por la inf peculiar dada por cada modulo, tal como color, movimiento, etc. Pero además la integración de la
inf q cada módulo da sobre la orientación y profundidad de cada punto de la escena visual respecto al observador, permite
tb recuperar una representación de las superficies.
c) El modelo 3-D: en esta fase consigue una representación de las formas y de su org espacial en un marco de referencia
centrado en el objeto mismo, usando una representación jerárquica y modular de primitivas volumétricas y de superficie.
El input a esta última fase es el resultado de la fase anterior y el resultado final son modelos tridimensionales organizados
jerárquicamente cada uno de ellos constituido por una configuración espacial de ejes en torno a los cuales se engarzan las
primitivas volumétricas. La Figura 1.3 muestra un ej de Marr y Nishihara, de aplicación recursiva de este principio de
organización jerárquica. A distintos niveles de magnitud, una primitiva volumétrica - en este caso un cilindro- se engarza
en torno a un eje produciendo una representación de un cuerpo humano entero, un brazo, un antebrazo y una mano.
La influencia de la teoría de David Marr en la
investigación actual de la percepción visual ha sido
determinante. Muchos aspectos concretos de su teoría han
quedado sobrepasados por la investigación posterior, pero
su concepción teórica global, y sobre todo su forma de
abordar la invest han marcado un antes y un dp en la
invest de la percepción visual.
David Marr fue un auténtico pionero de la neurociencia
computacional y su aportación a la teoría de la percepción
visual es, en opinión de muchos investigadores,
comparable a la que Helmholtz realizó en su tiempo.
4.2.2 El conexionismo
La teoría de Marr es un buen ej de una teoría computacional simbólica. Al final de la primera de las fases de la teoría, el
procesamiento visual alcanza las características primitivas de una representación simbólica. Los bordes, las manchas, las
barras y las terminaciones son entidades elementales de la representación q tienen un significado porque hacen referencia a
aspectos particulares de la escena visual y son simbólicas pq tienen un significado. Cuando, en una representación, existe
una correspondencia uno a uno entre los elementos q forman la representación y los aspectos de la escena representada, se
dice de ella q es una representación local. Las representaciones simbólicas usan preferentemente representaciones locales.
A comienzos de los 80, apareció en la ciencia cognitiva una alternativa a los sistemas simbólicos: el conexionismo. Su
objetivo era aproximar la teoría de los procesos cognitivos a la teoría del cerebro. Para ello propusieron construir
representaciones con “inspiración neuronal” y procesos que funcionaran “al estilo del cerebro”, de ahí que esta aprox sea
conocida también con el nombre genérico de redes neuronales. Una red neuronal está compuesta de un conjunto de
unidades elementales de procesamiento parecidas a las neuronas del cerebro q están conectadas entre sí de una forma det.
Las conexiones entre unidades pueden ser excitatorias, si la activación de una unidad provoca un aumento en el nivel de
activación de la otra, o inhibitorias, si el nivel de activación de la segunda disminuye como consecuencia de la activación
de la primera. Las diferentes fuerzas de las conexiones excitatorias e inhibitorias entre las unidades de una red definen lo q
se llama un patrón de conectividad que puede cambiar como consecuencia de sucesivas experiencias de acuerdo con una
regla de aprendizaje. Otros conceptos importantes para entender el func de una red neuronal son: la regla de activación q
especifica la forma en q se combinan las diferentes entradas q una unidad recibe para determinar el estado de activación
de la unidad. Finalmente una red neuronal debe de concretar una función de output q determine la correspondencia entre
el estado de activación y el output del sistema, y un ambiente q especifique el medio en el q debe funcionar la red.
Fig 1.4 ej de red neuronal: las unidades están representadas por círculos y las conexiones por líneas que terminan en una
punta de flecha. La red representada en la Figura 1.4 está formada por 3 capas, cada una formada por un conjunto de
unidades elementales de procesamiento. La primera está formada por unidades de input que son activadas por el medio
ambiente en el que actúa la red. El estado de activación de las unidades de la tercera capa determina el output de la red.
Finalmente la capa intermedia esta formada por unidades ocultas, q no establecen contacto directo ni con el input ni con el
output de la red; su función es modificar las conexiones entre las unidades de input y las de output en función de la inf que
reciben tanto de otras unidades de input como de las unidades ocultas a las que se encuentran conectadas.
Las redes neuronales dan lugar a representaciones distribuidas en las que no se puede establecer una correspondencia
uno a uno entre las entidades del mundo representado y las unidades de la red. En una representación distribuida cada
entidad del mundo está representada por el patrón de activación del conjunto de unidades que forman parte de la red y, a
su vez, cada unidad de la red puede estar implicada en la representación de muchas entidades diferentes del mundo
representado. Ej: si suponemos que la red en la Fig 1.4 es una red implicada en el reconocimiento de objetos, cada unidad
puede responder a un aspecto restringido del objeto, como puede ser su color o su forma. Ante la presencia de un objeto
concreto, como puede ser una manzana, las unidades de la red responderán cada una al aspecto concreto correspondiente a
su color y a su forma, de modo que la manzana no estará representada por una única unidad sino por un conjunto de
unidades cuyo patrón conjunto de activación corresponderá a la manzana. Pero ninguna unidad en la red mantiene una
relación especial con la manzana representada; por el contrario, cualquier unidad de la red puede formar parte de otros
patrones de activación diferentes que, a su vez, correspondan a otros objetos del medio ambiente.
La investigación con redes neuronales ha puesto de manifiesto que la acción coordinada de las unidades de una red da
origen a propiedades emergentes capaces de simular procesos cognitivos. Por ello
se han convertido en un importante instrumento de formalización de teorías
psicológicas a la vez que proporcionan una forma de pensar acerca del
funcionamiento del cerebro que permite aproximar entre sí los conceptos mentales
propios de la P cognitiva y los conceptos fisiológicos propios de la neurociencia.
La utilización de modelos explicativos formulados en términos de redes neuronales
no está necesariamente reñida con la utilización de teorías simbólicas. El mismo
Marr utilizó de una forma muy pragmática ambas formas de teorizar dependiendo
del tipo de proceso q pretendía estudiar.
4.3 Los avances de la fisiología
Durante los años 50 la investigación fisiológica estableció un contacto más directo con los problemas propios de la
investigación psicológica de la percepción. Antes los fisiólogos se contentaban con describir cómo los órganos sensoriales
y sus nervios correspondientes presentaban una imagen del mundo externo al cerebro y consideraban que era tarea de los
psicólogos la investigación de lo que ocurría después.
Con los microelectrodos y el registro unicelular, la implicación de los fisiólogos en la investigación perceptiva se hizo
habitual y así continúa hasta nuestros días.
Principales hallazgos que llevaron a conceptuar el cerebro como un sistema de procesamiento de inf: las invests sobre la
retina de las ranas por Barlow y Lettvin, Maturana, McCulloch y Pitts. Estos descubrieron un tipo particular de células
ganglionares en su retina q respondían sólo cuando un pequeño disco oscuro aparecía en su campo de visión. Si ese mismo
E se presentaba a una rana intacta, ésta se orientaba hacia el objeto e iniciaba Rs tendentes a cazar y comerse el objeto. Los
investigadores denominaron a esas células “detectores de bichos” pq parecían sintonizadas a la presencia de los pequeños
insectos parte de su dieta. La significación teórica iba más allá de la mera curiosidad: “La retina de la rana era capaz de
transmitir un mapa de las características relevantes en el mundo del animal, y su función principal no era tanto transformar
los distintos niveles de luminancia en impulsos nerviosos de diferente frecuencia, cuanto responder de forma invariante a
distintos patrones de estimulación externa a pesar de los cambios en luminancia” (Barlow, 1972).
A partir de estos descubrimientos, la investigación neurofisiológica produjo una serie de hallazgos que acabarían por
revolucionar la forma de pensar acerca de las neuronas que la fisiología había mantenido hasta entonces.
Hartline y Barlow demostraron la existencia de inhibición lateral, mec periférico de interacción neuronal capaz de explicar
fenómenos perceptivos como el contraste simultáneo de la claridad. Hubel y Wiesel publicaron sus 1ºs trabajos sobre las
neuronas de la corteza estriada de los gatos que les valió el premio Nobel de fisiología y medicina en 1981.
A lo largo de los 60, las invests de los De Valois, acabaron por dar la razón que le correspondía a la teoría de los procesos
oponentes del color que Hering había mantenido en el siglo XIX y Hurvich y Jameson habían reformulado unos años antes.
En 1967, Barlow, Blakemore y Pettigrew encontraron células especializadas en la detección de la profundidad binocular.
Todos estos descubrimientos llevaron a los investigadores al convencimiento de que cada neurona individual en el sistema
visual era capaz de llevar a cabo tareas mucho más complejas que las q se había pensado. Las neuronas no se limitaban a
transmitir inf más o menos precisa sobre la intensidad luminosa de la imagen, sino que eran capaces de informar sobre las
características elementales de un patrón y sobre la org jerárquica de esos elementos. Eran capaces de detectar la distancia a
la q estaban los objetos, y de ignorar las causas irrelevantes de las variaciones en iluminación. Aparecían cada vez de
forma más clara como unidades elementales y el cerebro como un sistema complejo de procesamiento de inf.
Este cambio en la forma de entender el func de las neuronas y del cerebro, llevó a una convergencia de puntos de vista
entre la P y la neurociencia y tanto la mente como el cerebro comenzaron a ser considerados como sistemas complejos de
procesamiento de inf. Desde entonces la relación entre P cognitiva y neurociencias ha sido cada vez más estrecha hasta dar
origen a la moderna Neurociencia Cognitiva: la empresa ínterdisciplinaria q investiga la rel entre procesos psicológicos y
estructuras cerebrales mediante la utilización de técnicas de neuroimagen. Estas técnicas, tales como el PET o la fMRI,
permiten el registro de la actividad cerebral durante la realización de una det tarea.
5. MARCO TEÓRICO
En general la orientación de este libro se enmarca dentro de la aproximación cognitiva del procesamiento de inf. En la
medida en que el computacionalismo representa la madurez del procesamiento de información consideramos que el marco
general de la teoría de la visión propuesta por David Marr es un punto de inflexión en la investigación perceptiva que el
estudiante debe conocer porque representa el nuevo punto de partida de la moderna teoría de la percepción visual.
5.1 La función de la visión En 1r lugar una teoría de la percepción visual debe tomar considerar la función que hace la
visión en el contexto de la interacción del O con su medio. Dentro del objetivo general de supervivencia y reproducción, la
visión da inf precisa y a distancia sobre los objetos y sobre la posición espacial de los mismos en el medio a partir de la luz
que los objetos emiten o reflejan. Con esta inf el O es capaz de dirige las acciones que garantizan su supervivencia.
Un requisito indispensable para la supervivencia del O es la precisión de la visión. No quiere esto decir que la visión sea
infalible; a veces nos engaña, por eso las ilusiones ópticas son un importante conjunto de fenómenos que una teoría de la
percepción debe explicar. Sin embargo las ilusiones no son la norma sino la excepción en el funcionamiento de la visión.
Normalmente la visión es verídica y da al O una inf precisa como para guiar sus acciones de forma eficaz.
La propiedad q tiene la inf q da la visión es que es una inf a distancia, lo q representa un valor adicional xa la supervivencia
pues le permite adquirirla sin entrar en contacto con los objetos ni comprometer su seguridad. La visión comparte esta
carac con la audición y el olfato pero la inf espacial de estos sentidos no es tan precisa como la dada por la visión, al menos
en las personas y gran parte de animales. El tacto y el gusto tb dan inf xo es necesario q éstos entren en contacto con el O.
La característica más específica y definitoria de la visión es q la inf sobre los objetos y sobre su posición espacial se
obtiene a partir de la luz q emiten o reflejan. Pero la luz q llega al observador depende de muchos fs: de la iluminación q el
objeto o la escena reciben, de la reflectancia de sus superficies, de su geometría, del punto de vista del observador, etc.
Pero ¿Cómo puede el sistema visual darnos la percepción de objetos y escenas constantes a partir de una inf tan cambiante?
Este es el problema central de la visión que tenemos q resolver. Al plantear así el problema adoptamos una postura realista
afín a la propuesta por Gibson. Consideramos los sentidos, y la visión, como canales xa la percerción del mundo real
externo. Por eso el problema central de la percepción consiste en recuperar las propiedades válidas de ese mundo externo a
partir de la inf de los sentidos.
5.2 El procesamiento de la información 2º: una teoría de la visión debe preguntarse por la forma en que el sistema visual
resuelve el problema planteado. Para Gibson se reducía a identificar en la estimulación las Vs responsables de la constancia
perceptiva, los invariantes en rel a los cambios en el punto de vista del observador y a los cambios en iluminación. Para
nosotros, la identificación de los aspectos relevantes en la estimulación es solamente el primer paso de una cadena de
eventos. Es necesario considerar las diferentes fases mediante las cuales el sistema visual procesa la inf estimular y la
convierte en conoc para el O del medio en q está. Llevar a cabo este análisis del procesamiento de la inf implica describir
los diferentes tipos de representaciones que el sistema visual construye y los procesos q permiten la codificación de los Es,
la progresiva org de la escena visual y la construcción de las representaciones fundamentales.
El concepto de representación es central en una teoría del proces de inf, como un complejo sistema de correspondencias
entre caracs del medio y códigos neuronales q permiten al sistema visual recuperar internamente la inf relevante del medio.
Fig 1.5: principales fases de procesamiento en el proceso de consecución de la representación final que nos
permite percibir visualmente una escena o un objeto.
Las tres primeras corresponden en general a las tres fases propuestas por Marr.
1ª: centrada en el análisis de la imagen bidimensional proporcionada por la distribución de luminancia que
llega a nuestros receptores y que es objeto del procesamiento visual inicial.
2ª: dedicada a la recuperación del trazado tridimensional de las superficies visibles.
3ª: a la obtención de la representación volumétrica de los objetos en coordenadas centradas en los objetos
mismos. Al final de la 3ª fase el sistema visual ha sido capaz de obtener una representación perceptiva de los
objetos individuales y de la escena concreta de la estimulación. Con todo, el procesamiento perceptivo no
termina ahí; es preciso una última fase en la q las representaciones perceptivas alcanzan un significado al
entrar en rel con el mundo conceptual del observador. En esta última, el mundo percibido dado x los
sentidos es asimilado e integrado en el S de conoc del perceptor.
Este esquema general de procesamiento, constituye el marco general de nuestra postura constructivista en el
sentido de que considera necesario, para poder explicar adecuadamente la percepción visual, tomar en
consideración tanto los procesos que el sistema visual pone en funcionamiento para obtener una
representación del medio, como el conocimiento del observador que da significado a lo percibido. Nuestra
postura simpatiza con la teoría clásica en su consideración constructivista de la percepción pero no suscribe
en su totalidad sus postulados empiristas. El empirismo que inspiró la teoría clásica solamente tomó en
consideración la exp del sujeto adquirida a través del A y retenida en la M. Nosotros consideramos necesario además
considerar la evolución de las especies, q nos da desde el nacimiento unos mecs cuya maduración y func dependen de la
exp individual y que está dotado de pautas de func predetdas. La disyuntiva entre herencia o medio propuesta por innatistas
y empiristas obligando a elegir una de las opciones carece de sentido en la actualidad. No se trata ya de optar por principio
por una de ellas sino de determinar empíricamente el papel de cada una de ellas en la explicación de la percepción.
5.3 Mecanismos neuronales Finalmente, una teoría de la percepción debe prestar at a las estructuras cerebrales q la hacen
posible. Aunq esto parece evidente, la historia de la invest muestra q los contactos entre la psicología y la fisiología no han
sido habituales aunq afortunadamente son cada vez más estrechos. El estudio de la percepción visual formaba parte de la
óptica fisiológica tal como la entendía Helmholtz, pero el desarrollo de la P de la percepción visual se centró en el análisis
de la experiencia consciente y en el estudio de los fs estimulares q determinaban esos estados de consciencia. La referencia
a mecs fisiológicos se limitaba a los órganos de los sentidos. A partir de la mitad del pasado siglo el panorama empezó a
cambiar y ahora la relación entre psicología y fisiología del cerebro es cada vez más estrecha. La moderna neurociencia
cognitiva permite relacionar los fenómenos perceptivos trad estudiados por la P y las estructuras cerebrales de una forma q
hasta ahora no había sido posible. Todo hace pensar q esta nueva empresa multidisciplinar marcará el futuro de la invest
sobre percepción, y probablemente de la investigación psicológica en general.
T.2 LA PERCEPCIÓN DEL COLOR La percepción del color es central en el estudio de la percepción visual por:
1) recoge aportaciones de disciplinas muy diversas; la física, la fisiología, las ciencias de la computación, la lingüística y la
antropología social, que junto con la P han contribuido a mejorar nuestro conocimiento sobre la percepción del color.
2) nuestros conocs sobre el procesamiento del color están bien fundamentados. En comparación con otras áreas de la invest
perceptiva, están mejor fundamentados y el grado de acuerdo entre investigadores es mayor.
3) el procesamiento del color es un buen ej de la forma en q teorías consideradas opuestas pueden ser complementarias si
se amplía el marco teórico. La teoría tricromática y la de los procesos oponentes fueron consideradas irreconciliables para
explicar los fenómenos de la percepción del color. Hoy sabemos q depende del nivel de org perceptiva q consideremos.
El interés de la percepción del color es comprender su apariencia. ¿Pq los colores se muestran en nuestra exp consciente de
la forma en q lo hacen? La R: 3 principios: tricromaticidad, procesamiento oponente y constancia, q pertenecen a
niveles bajo e intermedio en el procesamiento perceptivo del color.
1. LA APARIENCIA DEL COLOR La 1ª aportación a la apariencia del color fué de Newton sobre la composición
espectral de la luz. Cuando hizo pasar un rayo de luz solar a través de un prisma observó la aparición de un arco iris
mostrando los colores del espectro luminoso. Comprobó q estos colores eran fundamentales, pq haciendo pasar un rayo de
cada color por un 2º prisma, el color no volvía a descomponerse con un 2º arco iris. Luz puede ser descrita en términos de:
- luz como onda: útil para comprender su composición espectral y los aspectos cualitativos del color, y
- luz como corpúsculo: para referirnos a la cantidad de luz asociada a los colores.
1. La cantidad de luz y su medida las medidas de la cantidad de luz dimanan de una concepción corpuscular de la luz.
Así, la luz está compuesta por paquetes elementales (“cuantos”) de energía, llamados fotones, que constituyen la unidad de
medida de la cantidad de luz. La medición de la cantidad de luz puede hacerse desde dos perspectivas:
1) la radiometría, considera la luz como cualquier otro tipo de energía, sin hacer referencia al uso q puede hacerse de ella.
2) la fotometría, considera únicamente la cantidad de luz q es visualmente efectiva, es decir la cantidad de luz q se puede
percibir, e introduce un factor de corrección en las medidas radiométricas basado en la sensibilidad de nuestros receptores.
De entre los diferentes conceptos fotométricos son importantes:
Iluminancia (E): cantidad de luz visualmente efectiva q incide sobre una superficie. Ej: la cantidad de luz procedente de
un rayo de luz que incide sobre una mesa. La unidad de medida: el lux. Su valor depende de dos factores:
- de la distancia entre la superficie iluminada y la fuente de iluminación, siendo menor cuanto mayor es la distancia, y
- del ángulo de desviación de la perpendicular; la cantidad de iluminancia es menor cuanto mayor es dicho ángulo.
Luminancia (L): cantidad de luz visualmente efectiva emitida x una fuente de luz extensa. Ej: la cantidad de luz reflejada
por una mesa. Unidad de medida: candela por 𝑚2 (cd · m2). Puesto q una parte importante de las fuentes luminosas
extensas son superficies q reflejan la luz q reciben, la proporción de cantidad de luz recibida q una superficie emite es el
cociente entre la cantidad de luz emitida (luminancia) y la cantidad de luz recibida (iluminancia) y se llama reflectancia.
2. El espectro electromagnético la luz como onda nos permite relacionarla con los difs tipos de energía q componen el
espectro electromagnético. Fig 2.1 (97), el espectro electromagnético ordena los distintos tipos de energía en función de la
longitud de onda q caracteriza a cada una de ellas. Sólo una pequeña parte del espectro electromagnético, la comprendida
entre los 400 y 700 nm2, tiene interés pq es la franja de longitudes de onda q tiene efectividad visual y el espectro visible.
El diferente grado de refracción de las distintas longitudes de onda permite observar los cs del espectro luminoso cuando,
como hizo Newton, se hace pasar un rayo de luz solar a través de un prisma. Las longitudes de onda cortas, que son más
fuertemente refractadas, presentan una apariencia violeta (400 nm)3 o azulada (480 nm) cuando se las ve sobre fondo
oscuro, mientras que las longitudes de onda más largas tienen apariencia anaranjada (610 nm) o roja (700 nm) cuando son
vistas sobre fondo oscuro. El verde (540 nm) o el amarillo (580 nm) ocupan posiciones intermedias en el espectro visible.
La distribución espectral de una luz es la función que describe la cantidad de luz q contiene en cada una de las longitudes
de onda. La luz solar contiene una cantidad aprox igual en todas las longitudes de onda aunque tanto al salir como al
ponerse el sol predomina la presencia de las longitudes de onda larga. Una lámpara de tungsteno, como las que se usan en
la iluminación doméstica, contiene muy poca luz en las longitudes de onda cortas y, dentro del espectro visible, la cantidad
de luz que proyecta está linealmente relda con la longitud de onda por lo que los colores rojos tienden a predominar en
ambientes iluminados con este tipo de lámparas. En la luz proveniente de una lámpara fluorescente todas las longitudes
están relativamente bien representadas y, aunque la distribución no es igual para todas las longitudes de onda, es un tipo de
luz que se aproxima a la luz natural. La distribución espectral de las fuentes de iluminación es un factor determinante de la
estimulación en la percepción del color y debe ser tomada seriamente en consideración por el investigador.
3. La codificación del color Newton fue consciente de q el color no era una propiedad de la luz y de que no se podía decir
q los rayos de luz tuvieran un color det. El color es una sensación consciente resultante de la interacción de nuestros
sentidos con la estimulación luminosa. La longitud de onda es el parámetro estimular preferentemente reldo con la
sensación de color pero solo es el 1r paso en la cadena causal de eventos que determinan esa sensación. Al conjunto de
procesos q completan esa cadena causal podemos llamarlos procesos de codificación del color: encargados de transformar
un código físico, en términos de longitudes de onda, en un código psicológico, en términos de exps conscientes de color.
Las estrategias científicas utilizadas para estudiar la codificación del color son de dos tipos: psicofísicas y fisiológicas.
- Las estrategias psicofísicas estudian la rel entre la manipulación de las características del E luminoso y la exp de color.
- La psicofísica se interesa por describir y medir la experiencia sensorial y por relacionar las caracs de esa exp con los
parámetros de la estimulación. Estudian la relación tanto de las caras estimulares como de la exp sensorial con los distintos
cs del sistema visual. Se interesa por identificar esos cs y determinar su rel con los parámetros estimulares y con la exp de
color. La investigación psicofísica ha sido la primera y ha preparado el terreno que ha hecho posible la investigación
fisiológica. En la actualidad los dos tipos de estrategias son usadas complementariamente.
4. Los atributos del color 3 atributos psicológicos básicos: matiz, saturación y brillo/claridad. Hacen referencia a nuestra
experiencia consciente y deben ser diferenciados de las dims físicas del estímulo con las q están reldas.
El matiz: diferencia un color de otro; nos permite clasificarlo con términos como rojo, verde o azul. Como vimos, en el
espectro luminoso hay una alta correlación entre longitud de onda y matiz, como aparece en el arco iris. Estos colores
forman parte del grupo de colores espectrales. Pero no confundir el matiz con la longitud de onda. Hay colores q no están
reldos con una longitud de onda det, como los colores no espectrales, como los púrpuras y morados, q sólo pueden
obtenerse mediante la mezcla de dos o más luces monocromáticas. A los colores tanto espectrales como no espectrales se
llaman cromáticos. Otros como el blanco, gris y negro se comprenden mejor en rel con la dim de claridad q con el matiz, y
se llaman acromáticos. En sentido estricto, el matiz hace referencia a los aspectos cualitativamente diferentes de la exp de
color q tienen rel con diferencias de longitudes de onda o con mezclas de difs longitudes de onda.
La saturación: pureza cromática q tiene el color. Permite hacer un juicio sobre el grado en que un E cromático difiere de
un acromático independientemente de su brillo. El E acromático de referencia suele ser el blanco, por ello tb suele definirse
como el grado de mezcla con blanco que presenta un E cromático. Ej: un color rosa es un rojo con poca saturación
resultante de la mezcla de rojo con blanco. Para los colores espectrales, el referente de máxima saturación es el aspecto que
presenta en el espectro visible, ej los colores que se pueden observar en la Fig 2.1.
El brillo y la claridad: dos atributos distintos aunque reldos.
- brillo: sensación visual x el q un E visual aparece más o menos intenso. Hace ref a la mayor o menor cantidad de luz q un
E visual parece emitir y está preferentemente reldo con la luminancia x lo q a veces es definido como luminancia percibida.
Cuando un E varía en brillo, oscila entre valores q van de brillante a tenue. Preferentemente asociado a Es q emiten luz.
- claridad: asociado a la percepción de Es que reflejan luz, como son la mayor parte de las superficies. Está relda más con
la reflectancia, por lo q a veces se define como reflectancia percibida. Todas las superficies coloreadas tienen algún grado
de claridad, oscilando entre valores que van de clara a oscura, pero estos cambios de claridad aparecen de forma más
patente en las superficies acromáticas donde los cambios en claridad producen la aparición de colores que oscilan entre los
blancos y los negros pasando x una amplia gama de grises. Por eso es útil asociar la claridad con la dim blanco-gris-negro
y usar los términos claro y oscuro por aproximación a esta dim. Es conveniente reservar el término brillo para referirse a
los cambios de intensidad de fuentes q emiten luz y usar el término claridad cuando se trata de superficies q reflejan luz.
5. Sistemas de ordenación de los colores 2 sistemas de org del color basados en proceds psicofísicos: uno basado en
juicios sobre la semejanza de pequeñas muestras de material coloreado y otro basado en operaciones d igualación de luces.
El de Munsell es uno de los 1ºs sistemas para medir la apariencia del color sobre la base de las 3 dims de matiz, claridad y
saturación. El segundo ha servido de fundamento a la colorimetría.
- el sistema de colores de Munsell: En 1905 Munsell publicó un sistema de org de los colores en forma de libro, integrado
por un conjunto de pequeños trozos de papel coloreado de igual tamaño que varían en matiz, valor y croma. Los trozos
están organizados de forma q difieren entre sí en intervalos perceptivamente iguales en cada una de las 3 dims cuando se
ven en condiciones perceptivas normalizadas, es decir, a la luz del día y sobre fondo entre el blanco y el gris medio.
Cada pág del libro presenta un conjunto de trozos coloreados q son del mismo matiz pero varían en valor y en croma.
Cada pág está organizada de forma q el eje vertical representa el valor en una escala de 10 intervalos, con el negro en la
parte de abajo, el blanco arriba y la gama intermedia de grises. El eje horizontal representa el croma en una escala de 5
intervalos situando el mínimo a la izquierda -junto al eje del valor- y el máximo a la derecha y aumentando la puntuación
de dos en dos para cada intervalo.
Fig 2.2.B, cada pág está formada por un conjunto de filas y de columnas. Cada
una de las filas corresponde a una puntuación diferente en valor y dentro de cada
fila los trozos tienen el mismo valor y varían en croma estando los más saturados
en la parte derecha de la pág. Así mismo, cada una de las columnas corresponde
a una puntuación diferente de croma y dentro de cada columna los trozos tienen
la misma puntuación en croma y varían en valor de menos (abajo) a más (arriba).
Fig 2.2.B, sólo mezclas de det valor y croma son posibles; la gama de posibles
mezclas está encerrada en el espacio delimitado por la curva.
Si colocáramos el libro de pié y abriéramos las págs alrededor del eje central, la
figura geométrica generada se aproximaría a un cilindro como el que presenta la
Figura 2.2.A, con el eje principal del cilindro representando el valor, el radio del
cilindro representando el croma y el matiz situado en torno al perímetro del
cilindro.
La Figura 2.2.C, mediante un corte perpendicular al eje central, permite representar la org del sistema de Munsell, con el
valor situado en el centro, el matiz a lo largo del perímetro de la circunferencia y el croma a lo largo del radio. La escala de
matices en torno a la circunferencia consta de 10 segmentos con 10 matices cada uno. Las referencias van en intervalos de
veinte en 20 puntos del rojo (SR) al amarillo (5Y), al verde (5G), al azul (5B), al púrpura (5P) y vuelta al rojo. Intercalados
entre esto se indican referencias correspondientes a mezclas intermedias. En realidad el libro de Munsell no presenta los
100 posibles matices sino sólo 40. Cada trozo de color se identifica por 3 símbolos, ej 2,5 GB 5/10, en donde el 1r símbolo
(2,5 GB) indica el matiz (2,5 en el segmento Verde-Azul); el 2º (5) indica el nivel de valor y el 3º (10) el nivel de croma.
El sistema creado de Munsell fue anterior al q veremos más adelante, que es el sistema normalizado de la Comisión
Internacional de Iluminación (CIE). Con posterioridad a la normalización llevada a cabo x la CIE, la Munsell Corporation
acordó producir los trozos coloreados de cada muestra de acuerdo con los valores de la CIE y no x medio de mezclas de
pigmentos.
- la codificación de la longitud de onda: El 1r paso en la codificación de la longitud de onda tiene lugar en el nivel de los
receptores. 2 clases d receptores visuales: bastoncillos y conos, determinan 2 sistemas de visión con caracs muy diferentes.
- El sistema de visión escotópica depende de los bastoncillos, y está adaptado a las sits de bajo nivel de iluminación. Los
bastoncillos son extremadamente sensibles a la luz y no difieren entre sí en su respuesta a la longitud de onda. Pero, la
sensibilidad de los bastoncillos no es la misma para cada una de las longitudes de onda.
El estudio psicofísico de la respuesta del sistema de visión escotópica a la longitud de onda de una luz se realiza mediante
un experimento de igualación escotópica. En esta sit experimental se presenta un campo visual -por ejemplo, un círculo-
dividido en dos mitades. Una de las dos mitades contiene la luz de prueba, que puede tener una distribución espectral fija,
es decir un conjunto det de longitudes de onda. La otra mitad contiene una luz primaria, q tiene una distribución espectral
fija y sólo puede variar en intensidad. La tarea del observador es manipular la intensidad de la luz primaria hasta que
consigue igualarla a la luz de prueba. El resultado es que, en condiciones de baja iluminación -condiciones escotópicas- los
observadores pueden ajustar la intensidad de la luz primaria hasta igualar cualquier luz de prueba. Esto muestra q la
distribución espectral relativa de la luz es irrelevante para el func del sistema visual escotópico; éste sólo es sensible a la
cantidad de luz. Ahora bien, la intensidad de la luz primaria para conseguir la igualación no es la misma para todas las
luces de prueba, lo que indica que el sistema de visión escotópica es más sensible a unas longitudes de onda que a otras.
Fig 2.3 muestra la función de sensibilidad espectral escotópica. Como se ve, el sistema es poco sensible a las longitudes de
onda extremas y muestra su máxima sensibilidad a las longitudes de onda medias en el entorno de los 510 nm.
- El sistema de visión fotópica depende de los conos, está adaptado a sits de alta iluminación y está directamente reldo con
la codificación diferencial de la longitud de onda. No todos los conos responden de la misma forma a la longitud de onda,
unos son más sensibles a las longitudes cortas, otros a las longitudes de onda medias y otros a las largas. El estudio
psicofísico de la respuesta del sistema de visión fotópica a la longitud de onda de una luz se realiza mediante un
experimento de igualación de color, q es el fundamento de la colorimetría y a partir de Helmholtz y Maxwell los
resultados obtenidos en este tipo de experimento dieron los datos fundamentales para su teoría del color.
La sit experimental en un experimento de igualación de color es similar a la del exp de igualación escotópica. El campo
visual dividido en dos mitades contiene una luz de prueba q puede tener cualquier distribución espectral y la tarea consiste
en manipular la intensidad de 3 luces primarias hasta conseguir que los dos lados del campo visual sean indistinguibles.
Durante todo el exp, la distribución espectral de las 3 luces primarias permanece constante y el observador sólo puede
modificar la cantidad de cada luz primaria. El resultado es q, en condiciones de alta iluminación -condiciones fotópicas- los
observadores pueden igualar todas las luces de prueba manipulando las cantidades de luz de las 3 luces primarias. Las dos
partes del campo visual, aunq tienen la misma apariencia, no tienen la misma distribución espectral por lo q al color
resultante de la mezcla de las 3 luces primarias se llama metámero.
El conjunto de luces primarias que se pueden utilizar en un experimento
de igualación de color debe cumplir una condición y es que ninguno de
los colores primarios pueda obtenerse por la mezcla de los otros dos. En
la práctica se ha comprobado que para obtener conjuntos de tres luces
que puedan ser utilizadas como primarias, sus longitudes de onda deben
estar ampliamente separadas en el espectro visible. Para tipificar las
referencias calorimétricas, La Comisión Internacional de Iluminación
(CIE), ha utilizado como primarios de su sistema RGB (rojo, verde, azul)
tres luces de 700, 546.1 y 435.8 nm
La Figura 2.4 muestra la función resultante de un experimento que usó
estas luces primarias. En ella se especifica las cantidades de R [r (/..)], G
[g (/..)] y B [b (/..)] necesarias para igualar los colores de prueba
correspondientes al espectro visible. Estas cantidades se denominan
valores triestímulo y están expresadas en unidades tricromáticas.
Véase en la Fig 2.4 q para igualar las longitudes de onda entre los 435.8 y los 546.1 nm los valores de R q hay q añadir a la
mezcla tienen un valor negativo. Esto significa q la igualación de los colores correspondientes a las longitudes de onda
comprendidas en ese rango no puede lograrse mediante la mezcla de las tres luces primarias, pero sí se logra si la cantidad
de R se mezcla con la luz del E de prueba. En este caso lo q se hace es disminuir la saturación del E de prueba y lograr de
esta forma q el color resultante sea igualado x una mezcla de G y B. Así, en sentido estricto no es verdad q la apariencia de
cualquier color pueda ser igualada por la mezcla de 3 luces primarias, pero sí es verdad q la igualación de cualquier color
puede lograrse mediante la manipulación de 3 luces primarias lo q permite establecer un sistema descriptivo basado en 3
luces primarias q incluya todos los colores.
La ecuación del color es la expresión q determina la cantidad de cada luz primaria necesaria para lograr la igualación del
color (E) correspondiente a una det longitud de onda (A.). Ej: con ref a la Fig 2.4, el color correspondiente a una longitud
de onda de 475 nm tiene la siguiente ecuación del color: 𝐄𝟒𝟕𝟓 = -0.045R + 0.032G + 0.186B
En este caso ha sido necesario proyectar 0,045 unidades tricromáticas de R en el campo de prueba para lograr la
igualación, por eso aparece como un valor negativo en la ecuación.
La mezcla de luces puede expresarse en términos de una ecuación lineal porque cumple las propiedades de:
La homogeneidad supone q una igualación persiste si ambos términos de la ecuación se multiplican por una constante.
La superposición supone q si a ambos lados de la ecuación se suma una constante, la igualación persiste. Esta propiedad
suele conocerse con el nombre de ley aditiva de Grassmann. Aunque esté implícitamente supuesto, es conveniente caer en
la cuenta de que la mezcla de colores tb tiene las propiedades simétrica y transitiva
- el diagrama de cromaticidad: como en toda mezcla de luces, la cantidad de luz en la mezcla es igual a la suma de las
cantidades de cada luz primaria y la apariencia de la mezcla no depende de los valores triestímulo absolutos, se puede
definir un sistema de coordenadas basado en la contribución proporcional de cada luz primaria al total de la mezcla. Ej, la
proporción de R a la mezcla viene dada por la ecuación:

de igual manera puede determinarse la proporción de G y de B. A los valores r, g y b q representan la contribución


proporcional de cada luz primaria a la mezcla se les llama coordenadas de cromaticidad. Un sistema de representación de
los colores basado en coordenadas de cromaticidad puede usar solo 2 coordenadas ya q el valor de la 3ª coordenada viene
det x la diferencia entre uno y la suma de los valores de las dos coordenadas q se usan en la representación bidimensional.
Éste es el caso del diagrama de cromaticidad de la CIE que aparece en la Fig 2.5. Este diagrama está basado en el sistema
X Y Z cuyos valores primarios no corresponden a un conjunto particular de luces primarias sino que son transformaciones
lineales del sistema R G B. Estas transformaciones se hicieron con el propósito de tipificar la representación y teniendo en
cuenta una serie de ventajas, entre ellas la de q los valores triestímulo fueran todos positivos.
En la Figura 2.5, puede verse que las coordenadas X e Y son
suficientes para construir un sistema de representación de todos los
colores. En el perímetro de la línea curva continua se representan las
distintas longitudes del espectro luminoso con sus correspondientes
matices de color en el grado máximo de pureza de excitación. La
línea recta que une el punto de los 400 nm con el de los 700 nm
corresponde a la zona de colores púrpura que no son espectrales. En
el centro del diagrama se sitúa la zona de colores acromáticos con el
punto D correspondiente al valor del estímulo acromático que sirve
de referencia al sistema de unidades tricromáticas usado. Para los
colores situados dentro del diagrama de cromaticidad puede
determinarse su longitud de onda dominante, si la tienen, así como
su pureza de excitación. La longitud de onda dominante de un E de
color está correlda con el matiz perceptivo del mismo. En el
diagrama de cromaticidad se puede determinar mediante una línea q,
trazada desde el punto de referencia D y pasando por el punto
correspondiente al color q se quiere determinar (Q) corte el
perímetro del diagrama. El punto de intersección determina la
longitud de onda dominante (A,d). La pureza de excitación está correlacionada con la saturación y es fácil de entender por
referencia a la recta menciona- da en la definición anterior. La pureza de excitación es el cociente entre la distancia desde
el punto de referencia D al punto correspondiente al color (Q) y la distancia de la recta que une D con A,d pasando por Q.
La pureza de excitación es cero cuando D y Q coinciden y alcanza el valor de 1 cuando Q y A,d coinciden.
El diagrama de cromaticidad nos permite también determinar los pares de colores complementarios10, que son aquellas
parejas de colores que, mezcladas en proporciones adecuadas, producen una igualación con un color acromático
determinado (el de referencia, que en este caso es el blanco). En el diagrama de cromaticidad, los puntos opuestos del
perímetro que están unidos por una recta que pasa por el punto de referencia D, determinan longitudes de onda que son
complementarias. No todas las longitudes de onda tienen complementaria. Como puede verse en el diagrama de la Figura
2.4, los Es de color de longitudes de onda comprendida entre aprox 493,3 y 566,5 no tienen complementario. El punto
opuesto a estas longitudes de onda en el diagrama cae en la recta de los colores púrpura que no son colores espectrales.
La mezcla de pigmentos
Como hemos visto, en este tipo de mezcla de luces de colores, la resultante de la mezcla es igual a la suma de la cantidad
de luz de las luces primarias, por ello se llama tb mezcla aditiva de colores. Pero no toda mezcla de colores es aditiva. Hay
sits en q la resultante de una mezcla no es aditiva respecto a sus cs. El caso más frecuente de mezcla no aditiva es la mezcla
de pigmentos, como la de un pintor. Esta se llama mezcla sustractiva pq hay q considerar las longitudes de onda q son
absorbidas y las q son reflejadas por los pigmentos. Ej: un pigmento azul absorbe longitudes de onda largas y refleja las
cortas q son las q le dan la apariencia azul. Por el contrario, un pigmento amarillo absorbe longitudes de onda cortas y
refleja longitudes de onda largas. En la mezcla de ambos pigmentos, el azul absorbe las largas y el amarillo las cortas por
lo q en la mezcla las longitudes de onda más reflejadas son las medias, q producen una sensación verde. Este resultado es
la consecuencia de una supresión de longitudes de onda provocada por la reflectancia particular de cada pigmento. En una
mezcla de luces, realizada en las debidas proporciones, la mezcla de azul y amarillo hubiera producido un efecto gris ya
que azul y amarillo son colores complementarios.
2. TRICROMATICIDAD
La experimentación con mezcla de luces fue el fund más sólido de la teoría tricromática del color. Propuesta en 1777 por
G. Palmer e independientemente vuelta a descubrir por T. Young en 1802. Dp elaborada por Maxwell y Helmholtz y
conocida como la teoría tricromática de Young y Helmholtz.
- En su vertiente psicofísica, defendía que las sensaciones de color fundamentales eran 3: rojo, verde y azul.
- En su vertiente fisiológica, mantenía la existencia de 3 tipos de receptores sensibles a diferentes longitudes de onda.
Según Helmholtz, cada uno de los receptores respondía preferentemente a un tipo de longitud de onda, uno a las cortas,
otro a las medias y otro a las largas. No obstante, cada uno de ellos era diferencialmente sensible a un rango de longitudes
de onda amplio, por lo q se daba un cierto solapamiento entre las distribuciones de sensibilidad de los tres receptores. Cada
uno de los receptores, considerado de forma aislada, era ciego al color; pero, debido al solapamiento de las funciones de
sensibilidad, cualquier longitud de onda era capaz de estimular de forma diferente a cada receptor. El patrón de activación
producido en los receptores por las distintas longitudes de onda era el responsable directo de la experiencia de color.
La teoría tricromática tenía a su favor los resultados provenientes de experimentos de mezcla de luces como los vistos.
Además explica bien las deficiencias cromáticas. La fisiología actual nos permite afirmar q, en el nivel de los receptores, la
codificación del color tiene lugar de acuerdo con los postulados fundamentales de la teoría tricromática.
Las deficiencias cromáticas
- acromatopsia: verdadera ceguera al color, en muy raros casos, reduce la visión a la dimensión de claridad en la gama de
blancos, grises y negros. Los q la padecen no necesitan más que una luz primaria en un experimento de igualación ya q
sólo pueden basar su discriminación en la dimensión de brillo-claridad.
- dicromatopsia: más frecuente. Quien la padece sólo tiene dos de los 3 tipos de receptores dl color, por lo q un dicrómata
sólo necesita usar dos luces primarias para igualar una luz de prueba en un exp de igualación de colores. Dependiendo del
tipo de receptor que falte, pueden presentarse tres tipos de dicromatopsia:
protanopas: carecen de receptores de onda larga. Si una luz roja se hace más brillante q una luz verde, confundirá estos
colores.
deuteranopas: carecen de receptores de onda media. Es más común que la protanopia y afecta tb a la discriminación entre
el verde y el rojo. La apariencia del color para protanopas y deuteranopas es similar, las longitudes de onda cortas tienden a
aparecer azules y las largas tienden a aparecer amarillas. En medio de estas dos bandas hay un punto acromático de color
gris q permite discriminar a protanopas de deuteranopas ya q para los 1ºs tiene lugar en los 492 nm y para los 2ºs en los
498 nm.
tritanopas: carecen de receptores de ondas cortas y son poco frecuentes entre la población (1 entre 20.000 personas). La
apariencia q toman los colores para el tritanopa es de verde para las longitudes de onda cortas y rojo para las largas. El
punto gris de neutralidad cromática lo presentan en los 570 nm.
Existen otros tipos de anomalías llamadas tricromáticas q son debidas a un func anómalo de los receptores. Quienes las
padecen pueden igualar cualquier color con una mezcla de 3 luces primarias pero la mezcla difiere de la usada por las
personas normales. La investigación del color el estudio de las deficiencias cromáticas influyó poderosamente a favor de la
teoría tricromática. No obstante, la evidencia determinante a favor de la teoría la aportó la invest directa de los receptores.
Fisiología de los fotorreceptores
A mediados del siglo veinte la investigación fisiológica fue capaz de aislar y extraer el fotopigmento de los bastoncillos
llamado rodopsina. Cuando este fotopigmento es expuesto a la luz, sufre una serie de modificaciones químicas que acaban
produciendo un cambio gradual en el potencial de membrana. Una característica de todo este proceso es que no cambia a
pesar de que cambie la longitud de onda que es absorbida. Es decir, aunque los cuantos de longitud de onda corta poseen
más energía que los cuantos de longitud de onda larga, la secuencia de reacciones es la misma cuando se absorben unos
que cuando se absorben otros. A esta propiedad se le da el nombre de univarianza significando con ello q el fotopigmento
establece una correspondencia entre toda la gama de longitudes de onda del espectro visible y un único tipo de output que
es la tasa de absorción. La respuesta de la rodopsina no codifica inf alguna sobre la composición espectral de la luz y por
ello no somos capaces de discriminar luces de diferente color en condiciones de visión escotópica. Obsérvese q univarianza
no significa que la rodopsina absorba de igual forma todas las longitudes de onda; no es así, de hecho es más sensible a las
longitudes de onda media que a las bajas o altas, como se ha visto antes en la función de sensibilidad escotópica.
Univarianza significa que, una vez absorbidos, los cuantos de cualquier longitud de onda tienen el mismo efecto visual.
La propiedad de univarianza permite establecer una relación entre la tasa de absorción del fotopigmento y los resultados de
un experimento de iguala- ción escotópica comparando la funcion de absorción de la rodopsina con la función de
sensibilidad espectral escotópica. Wald y Brown hicieron esa comparación y comprobaron que el grado de solapamiento
entre ambas es prácticamente perfecto. Resultados como éste permiten establecer que la tasa de absorción de la rodopsina
es el fundamento biológico de la igualación escotópica.
Con respecto a los conos, la investigación de los fotopigmentos ha sido más complicada y no han podido ser aislados hasta
hace unos años por proceds de ingeniería genética (Merbs y Nathan). No obstante, utilizando una gran variedad de proceds,
hace tiempo que se había establecido la existencia de tres tipos de conos que presentan una sensibilidad diferente a las
distintas longitudes de onda. Unos conos muestran mayor ca- pacidad de absorción para las longitudes de onda corta, por
lo que son llama- dos conos S; tienen una sensibilidad máxima en torno a los 440
nm12• Otro grupo de conos M muestra mayor capacidad de absorción para las
longitudes de onda medias, con un máximo en torno a los 530 nm. El tercer grupo de
conos L es más sensible a las longitudes de onda largas y su pico máximo se sitúa en
torno a los 560 nm13• Los conos L son los más abundantes en la retina humana, son
aproximadamente el doble que los conos M. Los más escasos son los conos S que
vienen a representar entre el cinco y el diez por ciento de la población de conos. Según
la opinión de Rusell y Karen DeValois (De Valois & De Valois, 1993) la razón entre
los conos L, M y S viene a ser aproximadamente de 10 : 5 : 1.
Fig 2.6 presenta la absorción relativa de cada uno de los tres tipos de conos. Como puede verse, hay solapamiento entre las
distribuciones de absorción de cada uno de ellos aunq el solapamiento es mucho mayor entre las distribuciones de los
conos M y L. La Fig tb pone de manifiesto q, ante una misma longitud de onda, la respuesta de cada tipo de cono es
diferente. En general, el funcionamiento de los 3 tipos de conos es parecido a lo que Helmholtz había anticipado aunq los
detalles de las funciones de absorción son diferentes.
3. PROCESAMIENTO OPONENTE
En el siglo XIX, los investigadores de la percepción con una orientación fenomenológica, siempre concedieron una gran
importancia a la forma en que los colores aparecen en nuestra experiencia consciente. Varios fenómenos reldos con la
percepción del color encontraban difícil acomodo en la teoría tricromática.
Fenómenos que cuestionan la teoría tricromática
a) Tareas de clasificación de colores. Hering observó que, cuando se pedía a los sujetos el agrupamiento de un conjunto
de fichas de diferentes colores, el n1 de cats más frecuentemente utilizado era cuatro: rojo, verde, azul y amarillo. Si los
colores fundamentales fueran 3, ¿por qué se utilizaba el amarillo como categoría independiente de las otras tres?
b) Combinaciones de colores. Aunque la teoría tricromática es capaz de predecir el resultado de la mezcla de luces, no es
capaz de explicar porqué no podemos tener experiencia de dets combinaciones. Ej: el púrpura es un color q parece ser rojo
y azul, el naranja responde a una mezcla de rojo y amarillo, pero no existe experiencia de colores que respondan a
combinación de rojo y verde o de azul y amarillo.
e) Deficiencias cromáticas. hemos visto que guardan una relación estrecha con la falta de dets fotorreceptores, pero tb q la
experiencia visual de un protanopa es semejante a la de un deuteranopa. La pérdida de la experiencia de color no ocurre de
forma individualizada para cada uno de ellos, sino que tiene lugar por pares, y los emparejamientos no son arbitrarios sino
que afectan al par rojo-verde o al par azul-amarillo.
d) Posefecto de color. Si uno fija su vista en una superficie coloreada durante cierto tiempo y, a continuación, cambia su
mirada a una superficie blanca, esta superficie adquirirá la apariencia del color oponente al que tenía la primera superficie.
Este fenómeno se conoce con el nombre de posefecto de color y está íntimamente reldo con el fenómeno de adaptación
cromática q consiste en la perdida de sensibilidad para un det matiz como consec de una exposición repetida a ese matiz.
Fenómenos como estos llevaron a muchos autores a defender la existencia de más de tres colores fundamentales. Ej: Ernst
Mach, físico y filósofo austriaco, propuso la existencia de 6 colores funds: rojo, verde, azul, amarillo, blanco y negro. Sin
embargo, la teoría q se opuso con más fuerza a la teoría tricromática fue la de Ewald Hering.
Teoria de Hering
Hering sostuvo la existencia de 6 colores fundamentales, reldos en pares amarillo-azul, rojo-verde y blanco-negro. Pero, su
teoría de los receptores defendía la existencia de 3 sistemas retinianos, por lo que el nº de receptores postulados no era
diferente del postulado por la teoría tricromática. La diferencia fund radicaba en la forma de entender el func de esos mes.
Para Hering, cada receptor estaba preferentemente dedicado al procesamiento de un par de colores oponentes y la respuesta
de los receptores no era monofásica (excitatoria), sino bifásica (excitatoria e inhibitoria). Hering asumió la existencia de 3
sustancias visuales en la retina, cada una capaz de experimentar un cambio químico en una de dos direcciones antagónicas.
Hering llamó a estos cambios asimilación y desasimilación y relacionó la fase de asimilación de cada sustancia con la
codificación del azul, el verde y el negro, y la fase de desasimilación con la codificación del amarillo, el rojo y el blanco
respectivamente, de forma q en cada uno de los tres pares, amarillo-azul, rojo-verde, y blanco-negro el primer miembro del
par estaba asociado con la desasimilación y el segundo con la asimilación.
Los teóricos del color se dividieron entre partidarios de la teoría tricromática o de la teoría de procesos oponentes. Hasta
sXX, la teoría preferida fue la teoría tricromática, aunq ya en 1905 von Kries y dp Müller y Schrodinger manifestaron q las
dos teorías no tenían por qué ser incompatibles. Ambas podían ser correctas pero en fases diferentes del procesamiento del
color. Pero, para la gran mayoría aceptar una teoría de doble proceso resultaba una complicación excesiva y una
innecesaria violación del principio de economía explicativa. No obstante, los trabajos de Hurvich y Jameson (1957)
abrieron definitivamente la puerta a una teoría de doble proceso.
Teoría de Hurvich y Jameson
Hurvich y Jameson usaron un proced psicofísico conocido como experimento de cancelación de matiz. En este exp, se
pide al observador q juzgue si una luz de prueba tiene apariencia, por ej, rojiza o verdosa. Si la apariencia es rojiza, el
observador debe añadir luz verde hasta cancelar la impresión de luz rojiza. Si aparece verdosa, la luz que debe añadir es la
roja. La idea central en el proced consiste en la cancelación mutua de los matices oponentes de forma que, una vez que el
matiz rojo o verde de la luz de prueba ha sido cancelado, la luz de prueba, más la luz añadida para cancelar, adquiere una
tonalidad amarilla, azul o gris. El proced es el mismo para cancelar los matices azulados o amarillentos, se utiliza luz
amarilla para cancelar el azul y luz azul para cancelar la amarilla.
Figura 2.8 muestra la valencia cromática del espectro visual obtenida mediante la aplicación de este método.
En la parte A se representa la fuerza del par azul-amarillo. En las longitudes de onda cortas -valores menores de 500 nm
aprox- predomina el matiz azulado, mientras q en las largas - por encima de 500 nm- predominan los matices amarillentos.
En el apartado B se representa la fuerza del par rojo-verde. Obsérvese que el matiz rojo está presente en las longitudes de
onda cortas aunq en menor medida q en las largas; en las longitudes de onda medias predomina exclusivamente el verde.
El apartado e representa la superposición de las funciones anteriores con la particularidad de que, para acentuar el carácter
oponente de cada par de colores, se ha dado a los matices azul y verde valores negativos. Se trata solamente de una
convención que no debe hacernos olvidar que los valores de las luces utilizadas son siempre positivos.
Sobre la base de estos datos psicofísicos, Hurvich y Jameson propusieron una teoría de la codificación del color de dos
fases que reconciliaba la teoría tricromática de Helmholtz con la teoría de los procesos oponentes de Hering. La teoría
tricromática era correcta en el nivel de los receptores puesto que solamente existían 3 tipos de fotorreceptores en la retina q
se activaban en distinto grado ante cada longitud de onda. Pero, en una segunda fase se producía una nueva codificación en
términos de procesos oponentes de forma que determinados mecanismos cerebrales codificaban el par rojo-verde mientras
otros mecanismos codificaban el par azul-amarillo. Hurvich y Jameson postularon además la existencia de un 3r mec no
oponente para el par blanco-negro encargado de procesar la claridad.
El modelo de Hurvich y Jameson estaba fundamentado en los datos psicofísicos procedentes de experimentos de
cancelación de matices. En la más pura tradición de la psicología experimental, postulaba la existencia de dets mecs
neuronales para explicar los datos psicofísicos, pero no estaba apoyado en evidencia fisiológica directa. No obstante, la
influencia de sus investigaciones fue grande y dieron un fuerte impulso a la investigación fisiológica del color.
Investigaciones de DeValois
Las ideas de Hurvich y Jameson, y en consecuencia la teoría de los procesos oponentes, encontraron apoyo fisiológico en
las invests de Rusell DeValois y sus cols. Estos descubrieron en el núcleo geniculado lateral (NGL) del tálamo de primates,
células q respondían selectivamente al color de forma similar a la postulada por la teoría de los procesos oponentes. Unas
células eran activadas x la luz roja e inhibidas x la verde y otras se activaban ante la luz verde e inhibidas x la roja. Lo
mismo ocurría para el par azul-amarillo. Además encontraron células no oponentes, algunas de las cuales eran excitadas
por cualquier tipo de longitud de onda e inhibidas por la ausencia de luz y otras que eran activadas por la ausencia de luz e
inhibidas x su presencia. En conjunto, las células descubiertas por De Valois y cols presentaban un patrón de codificación
del color que estaba de acuerdo con la teoría de los procesos oponentes. Esto, junto con los 3 tipos de fotorrectores del
color, dieron un impulso definitivo a las teorías duales de proces del color como la propuesta por Hurvich y Jameson.
Avances recientes
- investigación empírica: la investigación fisiológica descubrió muy pronto que el procesamiento oponente del color no
tenía su comienzo en el núcleo geniculado lateral del tálamo, sino que se iniciaba ya en la retina, en el nivel de las células
bipolares y ganglionares. De hecho, la especialización de las vías nerviosas en lo referente a la transmisión de la inf
cromática se inicia ya en las células bipolares y ganglionares y continúa hasta la corteza a través de 3 vías diferentes:
l. La vía P se origina en las células bipolares enanas y deja la retina a través de las células ganglionares del mismo nombre.
Este grupo de células comprende tanto neuronas de centro on como neuronas de centro off y tanto las unas como las otras
contactan con un único cono L y M en el centro de la fóvea. Los conos S, que son menos abundantes q los L y M, parece
que solamente hacen contacto con bipolares enanas de centro off. Para todas estas células el contorno oponente al centro
parece estar controlado por señales procedentes de una mezcla de los otros tipos de conos. Las células ganglionares envían
la inf a las capas parvocelulares del núcleo geniculado la- teral que a su vez la proyecta sobre la capa 4Cb de la corteza
visual primaria. La vía P es la principal portadora de información sobre el color.
2. La vía M. se origina en las células bipolares difusas que envían su información a las células ganglionares parasol. Estas
células contactan preferentemente con grupos de bastoncillos y con grupos de conos L y M que contribuyen de forma
conjunta, por lo que las células no pueden dar una base para discriminar entre diferentes longitudes de onda. Las células
parasol envían su información a las capas magnocelulares del núcleo geniculado lateral que desde allí se proyecta sobre la
capa 4Ca y 4B de la corteza visual primaria. Aunque no envía inf cromática diferenciada, esta vía proporciona la principal
inf q determina las funciones de luminosidad escotópica y fotópica.
3. La vía K. origen en unas células ganglionares llamadas pequeñas biestratificadas que poseen un centro on activado por
un cono S y un contorno inhibitorio que recibe inf de conos L y M. Estas células ganglionares proyectan su información
sobre las capas K19 del núcleo geniculado lateral y desde allí a la zona de las gotas (blobs) en las capas 2 y 3 de la corteza
visual primaria. Esta vía transmite hasta la corteza inf oponente relda con los conos S por lo que parece razonable pensar q
está preferentemente relda con la codificación del par de colores azul-amarillo.
- elaboración teórica: desde la teoría el interés se ha centrado en la construcción de modelos que, siendo fieles a los
descubrimientos empíricos, puedan explicar la forma en que la codificación tricromática que tiene lugar en los receptores,
se transforma en una codificación en pares colores oponentes y, en última instancia, en la experiencia de color como
aparece en nuestra consciencia. Uno de los modelos más influyentes ha sido el propuesto por los DeValois.
El modelo que han propuesto los DeValois es un modelo de 4 fases que tienen lugar en zonas diferentes de los centros
nerviosos reldos con el procesamiento visual del color.
- La 1ª fase el nivel de los receptores y es de naturaleza tricromática. Tenemos 3 tipos de receptores del color
diferencialmente sintonizados a longitudes de onda largas (conos-L), longitudes de onda media (conos-M) y longitudes de
onda corta (conos-S). La proporción de conos L: M:S es 10:5:1.
- La 2ª fase es de naturaleza oponente y tiene lugar en la retina y en el núcleo geniculado lateral del tálamo. En la retina,
una red neuronal formada por las conexiones e interacciones de los fotorreceptores con las demás células retinianas da
origen a seis tipos de células ganglionares enanas oponentes. Tres de ellas, llamadas L𝑜 , M𝑜 y 𝑆𝑜20 , tienen un centro
activado directamente por conos L, M y S respectivamente y un contorno que en todas ellas es inhibido por influencias
indirectas provenientes de conos L + M + S. Así, la inf q converge en una célula Lo puede representarse como L - (LMS),
la que converge en Mo como M - (LMS) y la de So como S - (LMS). Las otras 3 enanas oponentes, -Lo-Mo y -So tendrían
una org on off opuesta a las anteriores ya que sería inhibidas en su centro por conexiones directas con conos L, M y S y
excitadas en su contorno por las influencias indirectas de conos L+ M + S. La representación de la inf convergente sobre
cada una de estas células sería -L + (LMS), -M + (LMS) y -S + (LMS). Estos 6 tipos de células ganglionares enanas
mandan la inf al núcleo geniculado lateral (NGL) a través de la vía P. En la retina tiene lugar tb la codificación de la
información q se transmite por la vía M pero no nos detendremos en ella ya q el modelo de los DeValois se centra en la inf
transmitida por la vía P. A partir de ahora nos centraremos exclusivamente en la vía P.
En el núcleo geniculado lateral del tálamo tiene lugar una organización más precisa del contorno de las unidades
acentuando la naturaleza oponen- te de las mismas. Así, las células con un centro relacionado con un cono L reciben en su
contorno un input antagonista proveniente exclusivamente de conos M y viceversa. En este nivel las células adquieren una
estructura que puede representarse así: Lo como L-M, -Lo como -L+M, Mo como M-L, -M como -M+L, So como S-LM, y
So como -S+LM. Por tanto, en este nivel la codificación del color adquiere un carácter claramente oponente en su
estructura centro-contorno. Esta org proporciona a las células del NGL la posibilidad de responder tanto a variaciones en el
color como a variaciones en la luminancia de los estímulos. Esta idea se puede entender mejor examinando la Figura 2.9.
En la parte izquierda de la figura se puede ver la estructura centro-contorno de una
célula Lo que tomamos como ejemplo. Dependiendo del tipo de estimulación que
incide sobre esta célula, el campo receptivo de la misma puede ser de dos formas
diferentes. Si la célula es estimulada por una luz acromática blanca, que contiene
todas las longitudes de onda, la respuesta de la célula será excitatoria en su centro
e inhibitoria en su contorno, es decir la respuesta ordinaria de una célula on-off a
los cambios de luminancia. Esto es lo que aparece en la parte superior derecha de
la figura. Sin embargo, si la luz que incide sobre la célula es roja, entonces el
centro L responderá hasta su máximo posible mientras que el contorno -M, al no
ser sensible a la luz roja, no producirá inhibición. El resultado será un campo
receptivo uniforme respecto al color.
- La 3ª fase es la fase principal para el modelo pues en ella se produce la
separación de la inf referente al color de la información correspondiente a la
luminancia y también tiene lugar la organización del código del color en un
espacio tridimensional siendo estas dimensiones los pares rojo-verde, amarillo-
azul y blanco-negro. Estos dos problemas se resuelven mediante combinaciones particulares de la información que
proporcionan las células del NGL que hemos visto en la fase anterior y tiene lugar en la corteza visual.
La separación del color y la luminancia se puede entender considerando las propiedades de las células ejemplificadas en la
Figura 2.9. Supongamos, por ejemplo, que combinamos el output de una célula Lo con el de una -M cuyo centro es
inhibido por longitudes de onda medias y cuyo contorno es activado por las longitudes de onda largas. Como hemos visto
antes, la célula Lo tiene un campo receptivo de centro excitatorio y contorno inhibitorio (on- off) en respuesta a los
incrementos de luminancia, y tiene un campo uniforme excitatorio de color (rojo) en respuesta a los cambios hacia las
longitudes de onda largas. En estas mismas situaciones de estimulación, la célula -M0responde a los incrementos de
luminancia con un centro inhibitorio y un entorno excitatorio (off-on) y a la luz roja con un campo homogéneo del mismo
color que el producido por Lo ya que su centro inhibitorio no se ve afectado por las longitudes de onda largas. El resultado
de la combinación de Lo y -M puede deducirse fácilmente dado el carácter lineal del modelo. Con respecto a los
incrementos de luminancia los dos campos receptivos (on-off y off-on) se anularán mutuamente. Con respecto a la
estimulación de luz roja las dos células sumarán sus respectivos campos receptivos. El resultado final de esta combinación
es la producción de unidades de procesamiento que son ciegas a la luminancia pero sensibles al color.
Consideremos ahora la combinación del output de una célula L con una 0 célula Mo que tiene un centro excitatorio para las
longitudes de onda medias y un contorno inhibitorio para las largas. En este caso la respuesta a incrementos en luminancia
será on-off para ambas produciéndose la suma de los campos receptivos. Sin embargo, la respuesta a la luz roja será
excitatoria en L e inhibitoria en M produciéndose así la cancelación del color. El resultado oo final de esta combinación es
la producción de unidades que son ciegas al color pero sensibles a la luminancia.
Resumiendo, la integración de la información procedente de Lo y – Mo suma color y cancela luminancia mientras que la
de Lo y + Mo suma luminancia y cancela color. Lo mismo puede decirse para Mo y - L y para M y + L. El resultado final
consigue separar el procesamiento del color del procesamiento de la luminancia.
La org del espacio tridimensional de los procesos oponentes es el
resultado de añadir el output de las células So y -S a las combinaciones
que acabamos de estudiar.
La Fig 2.10 representa el diagrama completo del modelo propuesto por
los DeValois. Las líneas horizontales representan combinaciones que
cancelan el color y codifican la luminancia, una dando lugar a
acromáticos claros y otra a acromáticos oscuros. Las líneas verticales
representan las combinaciones particulares que llevan a la codificación
de los 4 colores funds q forman los dos pares oponentes cromáticos:
rojo, amarillo, verde y azul. El diagrama pone de manifiesto tb los
supuestos fundamentales del modelo. En esencia, los DeValois
proponen q a lo largo de la vía P, el eje predominante en la
codificación del color es el formado por las células que reciben en el
centro de sus campos receptivos inputs que provienen de los conos L y M. El papel del sistema oponente S es romper esa
predominancia cuando la información llega a la corteza visual modulando la actividad del sistema L M de dos formas
diferentes que dan lugar a los ejes rojo-verde y amarillo-azul. Así pues, los tres sistemas oponentes L M y S participan en
la codificación de los colores pero L y M son los principales. Incluso en la codificación del azul, la contribución de Mo es
mayor q la de So.
4. La cuarta fase y última en el modelo asume la existencia de células complejas que responden selectivamente a un color y
no a otros. En opinión de los DeValois, estas células deben darse en zonas corticales posteriores a Vl y no tienen el carácter
oponente que tienen las células que participan en las fases anteriores. Estas células complejas disparan a una determinada
región espectral y no producen respuesta alguna a otras. Esto no significa que el procesamiento del color pierda su carácter
oponente en esta fase, sino que el procesamiento es oponente entre células diferentes y no dentro de cada célula como lo
era en las fases anteriores. Ej: aunq son células diferentes las que disparan al rojo y al verde, estas células nunca disparan
las dos al mismo estímulo, cuando disparan las células sensibles al rojo no lo hacen las sensibles al verde y viceversa. Pero,
las células q disparan al rojo y las que lo hacen al amarillo, pueden disparar ambas ante el mismo E.
El modelo de los DeValois es uno de los más completos e influyentes en la investigación actual y constituye una buena
muestra de la complejidad que los actuales modelos de procesamiento del color van adquiriendo. Merece la pena destacar
algunos de sus aspectos más interesantes. En primer lugar, el modelo muestra cómo la información cromática y la
acromática pueden ser proporcionadas por los mismos mecanismos. El modelo asume que la infor- mación acromática, no
sólo es conducida por la vía M sino también por la vía P. En segundo lugar, el modelo muestra cómo pueden surgir células
especia- lizadas en la respuesta a seis colores, organizados en tres pares oponentes, a partir de los tres fotorreceptores
cromáticos. Además, el modelo proporciona una explicación aceptable de la calidad de la percepción de las longitudes de
onda cortas a pesar de la escasez de receptores especialmente sensibilizados a las mismas. Finalmente, desde un punto de
vista computacional el modelo es sencillo pues mantiene, a lo largo de sus principales fases, un funcionamiento lineal para
todas las unidades de procesamiento. La investigación futura se encargará de ir estableciendo la consistencia de los
principales supuestos del modelo.
4. LA CONSTANCIA DEL COLOR
Las teorías q hemos tratado se han centrado en el procesamiento de Es muy sencillos, luces y superficies monocromáticas
aisladas. La inf q nos ha proporcionado ha sido de gran valor, pero no es menos verdad que el estudio de la percepción del
color exige la consideración de Es más complejos y de fenómenos q no pueden ser explicados por las teorías estudiadas.
A mediados del sXX, el físico E. Land, famoso por haber inventado la técnica fotográfica de revelado instantáneo y
fundador de la Polaroid Corporation, hizo investigaciones que causaron un fuerte impacto en la comunidad científica.
Land, que había desarrollado su técnica para fotografía en blanco y negro, estaba investigando la forma de ampliarla para
obtener fotografía en color. En el proceso, comprobó q los principios de la colorimetría no le permitían predecir la
apariencia de los colores. Uno de los experimentos q provocaron en él mayor sorpresa y dedicación a la investigación fue:
tomó dos fotografías en blanco y negro de una misma escena rica en colores, una de ellas la tomó a través de un filtro rojo,
y la otra a través de un filtro verde. Después de hacer las correspondientes filminas, proyectó a través de un filtro rojo en
una pantalla la imagen tomada con el filtro rojo y superpuso a esta imagen la segunda, q había tomado con el filtro verde,
pero proyectada sin filtro, es decir, proyectada con luz blanca. Sobre la base de la mezcla de luces, era de esperar que el
resultado de la superposición fuera una escena o roja, o blanca o un rosa intermedio entre las dos luces mezcladas. Para
sorpresa de todos, Land observó que la superposición de las dos filminas reproducía toda la gama de colores presentes en
la escena inicial, casi con la misma viveza que si se tratara de una fotografía ordinaria en color. La reacción de Land en
contra de la teoría tricromática fue frontal pero el tiempo se ha encargado de demostrar que las observaciones de Land sólo
ponen de manifiesto la insuficiencia de la teoría tricromática para predecir la apariencia de los colores aunque sea útil para
predecir cuándo dos luces parecerán iguales.
Las observaciones de Land eran una demostración más de la constancia del color. La percepción del color no depende
exclusivamente de la cantidad de luz q un objeto refleja, o de la longitud de onda reflejada x el objeto sino de un conjunto
de fs que tienen q ver con la naturaleza del objeto y con el contexto en q aparecen los colores. Supongamos q a plena luz
del sol, a mediodía, exponemos un trozo de carbón a los rayos del sol. Por mucha luz que refleje, el carbón continúa
apareciendo negro. Si comparamos la cantidad de luz reflejada por el carbón al mediodía con la reflejada por una hoja de
papel blanco al anochecer, podríamos comprobar que, en términos absolutos, la cantidad de luz reflejada por el carbón al
mediodía es mayor que la del papel blanco al anochecer. Pero el carbón continúa viéndose negro al mediodía y el papel
continúa viéndose blanco al anochecer. Los colores de los objetos nos aparecen como una propiedad de los objetos q nos
permite muchas veces reconocerlos como tales objetos. Esto no es posible si nuestra exp de color variara en función de las
variaciones q sufre la luminancia de los objetos. Nuestro sistema visual responde a una carac intrínseca de los objetos,
como es su reflectancia, y no a las cantidades absolutas de luz q llegan a la retina, pero ¿cómo puede conocer nuestro
sistema visual la reflectancia de un objeto si lo único que llega a la retina es su luminancia?
Fig 2.11 presenta 2 casos de contraste simultáneo, uno acromático y otro cromático, q ponen de manifiesto la
dependencia del contexto q tiene nuestra percepción del color. En la parte superior de la fig, los dos cuadrados de los
extremos tienen exactamente las mismas propiedades físicas y por lo tanto provocan el mismo tipo de reacción local en los
fotopigmentos de los receptores retinianos. Sin embargo, los dos cuadrados son percibidos con distinta claridad debido al
gradiente de claridad q caracteriza al entorno. En la parte inferior de la fig, la distribución espectral de las dos “X” es la
misma y esto se puede observar si fijamos la vista en el punto donde ambas coinciden. A pesar de ello, el color de cada
“X” es diferente, demostrando q la apariencia del color no depende de la estimulación local de los fotorreceptores sino de
la estructura espacial de la imagen como un todo. Las filminas q Land superpuso en el experimento mencionado antes son
una demostración más dramática aún de que nuestro sistema visual no atribuye color a los objetos en función
exclusivamente de la luz que los objetos reflejan sino teniendo en cuenta complejas rels de la escena como un todo.
La constancia de la claridad
Para entenderla, debemos recordar los conceptos de iluminancia, luminancia y reflectancia. Los valores de luminancia q
llegan a la retina son el producto de la reflectancia del objeto por la iluminancia q recibe dicho objeto. Además, el rango de
variación de los valores de luminancia en la retina como resultado de cambios en iluminancia, es mucho mayor q el rango
de variación debido a cambios en reflectancia. El problema es descubrir cómo puede nuestro sistema visual distinguir los
cambios en luminancia debidos a diferencias en iluminación de los cambios debidos a la reflectancia del objeto a partir de
los cambios en luminancia que es la única inf q recibe a través de los receptores. El hecho empírico innegable es que
nuestra percepción de la claridad responde adecuadamente a los cambios en reflectancia. ¿cómo es posible?
Helmholtz propuso que la luminancia de una región en la imagen retiniana era comparada con la intensidad percibida de la
iluminación en esa parte de la escena visual. Para Helmholtz, el problema se reducía a un cálculo de la claridad similar al
que hacen los físicos cuando calculan la reflectancia de una superficie. La luminancia retiniana dividida por la iluminancia
percibida nos daba la reflectancia percibida -es decir, la claridad- de la misma forma que la luminancia de una superficie
dividida por su iluminancia nos proporciona su reflectancia. El razonamiento de Helmholtz presentaba problemas lógicos y
empíricos. Uno de los primeros en resaltar sus problemas lógicos fue Hering, quien tildó al razonamiento de Helmhotz de
circular. Dada la luminancia de una superficie, uno necesita conocer la reflec- tancia de la misma para poder inferir su
iluminancia, pero es precisamente la reflectancia lo que se trata de encontrar. La circularidad parece inevitable: ne-
cesitamos conocer la reflectancia para inferir la iluminancia y ésta para inferir la reflectancia. Desde un punto de vista
empírico, el problema viene dado por la adaptación a la luz que nos hace insensibles a los niveles absolutos de iluminación
en condiciones de visión normal. No parece, por tanto, probable que el sistema visual tenga acceso a la iluminancia de una
superficie de forma directa e independiente de la luminancia retiniana.
Hering, a su vez, puso mucho énfasis en atribuir la constancia de la claridad, y del color en general, a mecs sensoriales por
un lado, tales como el tamaño de la pupila y la adaptación, y a mecanismos cognitivos como la memoria del color. La
opinión de Hering fue refutada por Katz en su famoso libro El Mundo del Color (1935) donde demostró que la constancia
del color persistía en situaciones que excluían la influencia de los factores defendidos por Hering.
Los psicólogos de la Gestalt fueron los primeros en rechazar la idea de que la luminancia fuera el estímulo responsable de
la percepción de la claridad y pusieron el énfasis en el papel desempeñado por los gradientes y por la razón entre
luminancias. Dentro de esta tradición investigadora, el experimento realizado por Hans Wallach (1948) fue determinante
para encauzar definitivamente la investigación. Wallach utilizó una situación que aparece representada en la Figura 2.12.
Presentó a los observadores dos Es distintos, cada uno formado
por dos círculos concéntricos. Los círculos interiores de cada
estímulo estaban iluminados por proyectores diferentes de los
que iluminaban los círculos envolventes. En cada ensayo, los
dos círculos concéntricos de un estímulo eran iluminados por el
experimentador con una intensidad fija y diferente para cada
uno de ellos. También el círculo envolvente del otro estímulo
era iluminado por el experimentador con una intensidad
diferente a la del círculo envolvente del primer estímulo. A
modo de ej, supongamos que la intensidad de los círculos del
primer estímulo era fijada por el experimentador en 80 unidades
para el envolvente y 20 unidades para el interno, y, a su vez, la
intensidad del círculo envolvente del segundo estímulo se fijaba
en 40 unidades. La tarea del observador consistía en manipular
la cantidad de luz del proyector que iluminaba el círculo interno
de la presentación variable hasta conseguir para el mismo una
apariencia igual a la del círculo interno de la presentación fija.
Wallach encontró que los observadores ajustaban la intensidad
del círculo de forma que la razón entre su luminancia y la de su
círculo envolvente era igual a la razón entre la luminancia del
círculo interno y la de su envolvente en la presentación fija. En el caso de nuestro ejemplo, los sujetos iluminabanel círculo
interno con 10 unidades de intensidad. Los resultados de Wallach pusieron de manifiesto la respuesta del sistema visual, no
a los valores absolu- tos de iluminación, sino a los valores relativos. La investigación posterior ha puesto de manifiesto que
la comparación entre la luminancia de la superficie interna y la de la superficie envolvente toma en consideración
preferentemen- te los bordes donde se produce el tránsito de un nivel de luminancia a otro.
La Figura 2.13 ilustra un efecto, conocido con el nombre de efecto Craik-O'Brien-Cornsweet. En la figura aparece una
superficie oscura junto a otra más clara. De hecho la distribución de luminancia es la misma para las dos, como lo
muestran las dos rampas de luminancia que aparecen en la parte de abajo de la figura, pero el efecto perceptivo viene
determinado por las di- ferencias en el borde central que se propaga a toda la superficie.
La teoría retinex propuesta por Land y cols fue una de las primeras teorías que utilizó el cálculo de las razones de
luminancia en los bordes como fundamento de su teoría para explicar la constancia del color. La teoría fue formulada para
explicar preferentemente la constancia cromática pero, como veremos más adelante, su explicación de la constancia de la
claridad es el fundamento de toda la teoría. Por eso, comenzaremos aquí su estudio y volveremos a ella al tratar de la
constancia cromática.
Land y MeCano comenzaron por tomar en consideración la naturaleza de las superficies y de las imágenes. En su opinión,
la reflectancia tiende a ser constante en el espacio delimitado por una superficie excepto en los bordes donde se produce un
cambio abrupto entre objetos o entre pigmentos. Sin embargo, los cambios en iluminancia tienden a ser graduales y no
producen transiciones bruscas. Por tanto, al analizar los cambios de luminancia en una imagen, los cambios escalonados en
la función de luminancia serán indicadores de cambios en reflectancia mientras que los cambios graduales indicarán
cambios en iluminancia. Land y MeCano estudiaron el alcance de estas ideas en un contexto experimental como el que
aparece en la Fig 2.14.
El conjunto de colores que aparecen como estímulo en el apartado B se conoce con el nombre de Mondrian por su parecido
con los planos rectan- gulares de colores puros creados por el pintor holandés Piet Mondrian. Un Mondrian proporciona un
estímulo adecuado para estudiar el efecto conjun- to de múltiples cambios de reflectancia al pasar de un plano a otro25• En
el apartado A de la figura se presenta un Mondrian acromático en blanco gris y negro apropiado para el estudio de la
constancia de la claridad.
Land y McCann estudiaron la percepción de estos estímulos bajo distintas condiciones de iluminación. Los planos de un
Mondrian formados de distin- tos niveles de gris repartidos de forma aleatoria en la superficie del cuadro, constituyen un
estímulo mucho más complejo que la organización de círculos concéntricos utilizada por Wallach. En el caso de Wallach
sólo se daba un tipo de borde entre los círculos concéntricos y las superficies a comparar eran sólo dos, pero en un
Mondrian los bordes que delimitan cada plano son muchos más, también son más las posibles superficies de comparación
y se encuen- tran a distancias distintas. A pesar de ello, el gris de cada plano se mantiene constante. Como la luminancia de
cada plano es el resultado de multiplicar la iluminancia por la reflectancia de la superficie, el problema al que se enfrenta el
sistema visual es recuperar la reflectancia a partir de las luminancias.
La teoría retinex propone que la claridad de las superficies es el resultado de la integración global de las razones de
luminancia determinadas localmen- te en los bordes. Land y McCann demostraron que la razón entre las lumi- nancias de
cualesquiera dos rectángulos en un Mondrian es igual al producto de las razones de las luminancias correspondientes a los
bordes que hay que cruzar en la trayectoria que va de uno a otro. Por ejemplo, si tomamos dos rectángulos a y e en el
Mondrian de la Figura 2.14, que están separados por una tercera superficie b, la razón entre la luminancia de a y la de e es
igual al producto de dos razones de luminancias: la que existe en el borde que separa a y b entre la luminancia de a y la
luminancia de b, y la que existe en el borde que separa b y e entre la luminancia de b y la luminancia de c. Land y McCann
demostraron que esta relación se daba para cualquier número de rectángulos intervinientes y para cualquier trayectoria que
se trazara entre cualesquiera dos planos de un Mondrian.
La teoría retinex es un buen ejemplo de teoría basada en propiedades intrínsecas de la imagen. La relación entre las razones
de las luminancias de los planos de un Mondrian forma un conjunto entrelazado de invariantes que son, en última
instancia, los responsables de la constancia de la claridad. La teoría es también un buen ejemplo de teoría computacional
pues un retinex es un mecanismo hipotético de cómputo -en última instancia realizable en un mecanismo neuronal- cuyo
funcionamiento equivale a un algoritmo que calcula las razones de luminancia e integra en el espacio correspondiente a la
superficie del Mondrian la información correspondiente a los bordes para reconstruir la imagen sobre la base de la
reflectancia.
La teoría retinex es capaz de explicar que la información local de la lu- minancia en los bordes es suficiente para recuperar
la reflectancia relativa de todas las regiones de un Mondrian pero es importante caer en la cuenta de que la reflectancia
relativa sólo nos informa de las diferencias entre las reflec- tancias de las regiones del cuadro, no nos dice nada de los
valores absolutos de reflectancia. La importancia de este punto para la percepción de la claridad es grande, porque las
diferencias relativas entre distintos niveles de claridad pueden ser iguales para la diferencia entre un blanco y una gama de
grises claros que para la diferencia entre un gris medio y una gama de grises oscuros que terminen en negro. ¿cómo puede
el sistema visual determinar que se trata de una gama que oscila entre blancos y grises o una gama entre grises ynegros?
Los investigadores han etiquetado este problema con el nombre de problema del anclaje porque se trata de fijar un punto de
la gama que permita interpretar el significado de las diferencias en términos absolutos. Land y Mc- Cann propusieron una
regla simple. Asumieron que el sistema visual asigna el color blanco al valor de máxima reflectancia y atribuye al resto
valores menores de claridad dependiendo de su relación con el primero26• Esta regla ha resultado ser aplicable en muchas
ocasiones cuando se trata de situaciones simples que implican la comparación de dos áreas. Sin embargo, incluso en
situaciones simples la asignación del blanco parece depender no sólo de fac- tores fotométricos como es la luminancia sino
de factores geométricos como es el área. En su formulación más simple, la regla del área viene a decir que cuanto más
grande es un área más clara parece. Las dos reglas funcionan bien cuando el área más grande es también la de mayor
luminancia pero la cosa se complica cuando hay conflicto entre las dos reglas. Gilchrist y colaboradores (1999) han
formulado una regla del área que combina ambos factores y que puede formularse de la siguiente manera: en una situación
estimular simple, cuando la más oscura de las dos regiones tiene el área relativa más grande, a
medida que el área más oscura crece, su claridad aumenta. Al mismo tiempo, la región más pequeña y más clara al
principio parece blanca, después parece una luz blanca fluorescente y finalmente parece una fuente emisora de luz. Un
ejemplo de esta situación final es la apariencia de la luna en la noche. La luna es una superficie que refleja luz pero su
apariencia no es blanca sino que parece emitir luz.
En el caso de situaciones estimulares complejas el problema es mucho mayor pues la atribución de claridad a las
superficies depende de factores que determinan la organización de la escena. Aunque no nos vamos a detener en ellos
ahora pues los estudiaremos con mayor detenimiento más adelante, me- rece la pena mencionar algunos resultados que nos
ayuden a entender la com- plejidad que puede llegar a alcanzar algo aparentemente tan sencillo como es la determinación
de la claridad de una superficie. Por ejemplo, Gilchrist (1980) demostró que, incluso en situaciones tan simples como la
utilizada por Wallach, la razón entre las luminancias sólo es efectiva cuando las dos su- perficies aparecen como
coplanares, es decir, pertenecientes al mismo plano en profundidad. Si, manipulando las claves de profundidad, los dos
círculos aparecen como sustentados en planos de profundidad diferentes, la constan- cia de la claridad se rompe. Vemos,
por tanto, que la asignación de claridad interactúa con otros factores
que determinan la interpretación última. La Fi- gura 2.15 presenta
los conocidos anillos de Kofka y Benussi que ejemplifican la
importancia de factores que afectan a la organización de la escena.
En la parte A de la figura, el anillo central parece uniforme. En la parte B la uniformidad se rompe mediante la separación
de las superficies que sirven de fondo, de modo que la mitad de la izquierda, que se inscribe en el fondo más oscuro,
aparece más clara que la mitad de la derecha. En C las diferencias en claridad de las dos partes del círculo se hace mucho
más compleja por la reorganización de la figura central producida por el simple cambio relativo de las posiciones de las
dos mitades de la figura.
La influencia de estos factores que afectan a la interpretación final de la claridad pone de manifiesto la insuficiencia de las
teorías que ponen el énfasis explicativo exclusivamente en factores fotométricos. Para la teoría retinex el papel de factores
no fotométricos, como los que acabamos de ver, afecta a un supuesto central de la teoría, el relacionado con el efecto
gradual de la iluminancia y la interpretación de los cambios bruscos de luminancia en términos de cambios en reflectancia.
Este supuesto funciona bastante bien a la hora de explicar la percepción de un Mondrian pero hay situaciones múltiples en
la experiencia perceptiva que no pueden explicarse así. Imaginemos, por ejemplo, una escena a plena luz del día en la que
un edificio que interfieren los rayos del sol proyecta una sombra nítida sobre el suelo o sobre cualquier otra superficie. El
borde que divide la zona sombreada de la iluminada es el resultado de un cambio brusco de luminancia en las dos zonas
que lo delimi- tan producido por las diferencias en iluminancia de las dos superficies, pero en este caso el cambio brusco
no es interpretado por el sistema visual como una diferencia en los pigmentos de las superficies, es decir, no es interpretado
como un cambio de reflectancia sino que el sistema visual acierta a interpre- tarlos como un cambio en la iluminación que
reciben las superficies, es decir, como un cambio en iluminancia. Existen por tanto cambios bruscos en lumi- nancia
producidos por bordes de iluminación que el sistema visual atribuye a cambios en la iluminancia de la escena y cambios
bruscos de luminancia producidos por bordes de reflectancia que el sistema visual atribuye a cambios de claridad en las
superficies. Las razones últimas de esta interpretación estánpor determinar pero algunas han sido ya identificadas y su
estudio forma parte de la investigación actual. Por ejemplo, el grado de nitidez del borde influye haciendo que cuanto
mayor sea la nitidez más predomine la interpretación del borde como borde de reflectancia27• También la magnitud de la
diferencia entre las luminancias que determinan el borde parece importante ya que los bordes de iluminación pueden
producir diferencias en luminancia mucho ma- yores que los bordes de reflectancia. Ya hemos mencionado antes la
importan- cia asociada a que los estímulos aparezcan como coplanares y de otros factores organizativos. A ellos hay que
añadir la importancia de factores locales de la imagen como son las conjunciones en forma de T, de Y o de 'P que pueden
formar la unión de bordes en figuras planas o en prismas. La investigación de estos factores forma parte de los temas más
actuales de la investigación en este campo. Una idea bastante generalizada entre los investigadores es la existencia de
marcos de referencia (Gilchrist, 1999) o ventanas adaptativas (Adelson, 2000) que delimitan una región en el espacio
dentro de la cual tienen lugar los cómputos que determinan la asignación de claridad a una superficie y los
principios de agrupamiento que la configuran. Los factores que están fuera de una determinada ventana adaptativa no
ejercen un efecto en la determinación de la luminancia que esa ventana acota. Las ventanas adaptativas pueden cam- biar
de tamaño y de forma dependiendo de factores diversos, por ejemplo, si el número de elementos en una escena es muy
grande la ventana adaptativa se hace más pequeña, y si el número de elementos es escaso la ventana se hace mayor. El
concepto de ventana adaptativa nos proporciona una idea de la fle- xibilidad que posee el sistema implicado en el
procesamiento de la claridad. La determinación de razones de luminancia y el conjunto de cómputos que acaban
determinando la claridad de una superficie no se efectúan siempre de una forma rígida y predeterminada sino de forma
flexible y adaptativa como lo requieren las diferentes situaciones estimulares que confronta el organismo.
La constancia cromática
La constancia de la claridad se ha centrado en el estudio del eje blanco-negro y ahora se trata de ampliar esos conocs al eje
rojo-verde y al amarillo- azul. El problema se complica en cuanto al número de ejes que tiene que tomar en consideración
el sistema visual a la hora de determinar el color de una superficie, pero la naturaleza del problema no es muy diferente del
problema. En ambos casos elsistema visual tiene que recuperar la reflectancia de las superficies sobre la base de las
luminancias que a partir de esas superficies llegan a la retina.
Land aplicó su teoría retinex a la visión cromática extendiendo las ideas q antes hemos estudiado a los tres fotorreceptores
retinianos. Hemos visto que un retinex es un mec hipotético encargado de hacer el cómputo de las razones entre las
luminancias que delimitan los bordes de una escena con el fin de recuperar la reflectancia de las superficies que conforman
un Mondrian. Con respecto al color, Land supuso que existen tres tipos diferentes de mecs retinex cada uno encargado de
llevar a cabo un cómputo de la claridad similar al que hemos estudiado antes pero cada uno de ellos restringido al cómputo
de la claridad correspondiente al rango de sensibilidad espectral de cada uno de los fotorreceptores. Para entender mejor
esta idea, supongamos q tomamos una fotografía en blanco y negro de una escena rica en colores diferentes con un filtro
que sólo deja pasar las longitudes de onda largas. El resultado será una fotografía monocromática en la que los objetos
rojos aparecerán con mucha claridad, los objetos verdes aparecerán más oscuros y los azules aparecerán más oscuros
todavía. Si el filtro con el que tomamos la fotografía sólo deja pasar las longitudes de onda cortas, los objetos más claros en
la escena monocromática serán los azules y los rojos serán más oscuros. Si el filtro favorece a las longitudes de onda
medias, los objetos más claros serán los verdes. Cada filtro producirá una fotografía monocromática pero la claridad de los
objetos en cada fotografía dependerá de la reflectancia de sus superficies o pigmentos. El funcionamiento de cada retinex
en la teoría de Land produciría un efecto parecido, aunque más complicado, al de los filtros. Todos los mecs retinex hacen
el cómputo de razones de luminancia de la misma forma y todos producen como resultado del cómputo y de las
operaciones de anclaje un mapa de las reflectancias - y por tanto de la claridad- correspondientes a cada zona de la escena.
Sin embargo, cada uno de los tres mecanismos retinex se especializa en el cálculo de las reflectancias correspondientes a
un conjunto de longitudes de onda diferentes. El resultado final de estas operaciones da lugar a tres mapas diferentes de
claridad para una determinada escena, cada mapa registrando la claridad de los elementos de una escena para una det banda
de longitudes de onda. La teoría retinex aún necesita asumir otra fase de procesamiento que, mediante la comparación de
los tres registros de claridad para cada parte de la escena, asigna el color dominante a cada parte de la escena sobre la base
de los valores de claridad calculados por cada retinex. Si un determinado objeto tiene mayor claridad en el retinex
correspondiente a la banda de longitudes de onda larga, el objeto aparecerá rojo y de la misma forma se asignará el color a
cada objeto. Zeki (1993) ha resumido la teoría retinex como una comparación de comparaciones. “El color_según la teoría
retinex_es el producto final de dos comparaciones: la 1ª consiste en comparar la reflectancia de distintas superficies para
luz de la misma banda de ondas, generando así el registro de claridad de la escena para esta banda, y la segunda, en
comparar los 3 registros de claridad de la escena para diferentes bandas de ondas, dando lugar así al color”.
Los problemas de la teoría retinex apra explicar la constancia del clor son parecidos a los q tiene para explicar la constancia
de la claridad. Ya hemos visto que los bordes debidos a transiciones bruscas de luminancia no siempre son bordes de
reflectancia, como asume la teoría de retinex, sino q hay bordes de iluminación q son percibidos como tales. Tb hemos
visto que hay fs de agrupamiento y de org de la escena q influyen sobre la asignación de la claridad. Estos fs tb influyen en
el color. La teoría retinex no es una teoría completa de la constancia del color pero ha sido una teoría muy influyente y ha
puesto de manifiesto la importancia de fs relevantes. Un aspecto de la teoría q merece la pena destacar es su capacidad para
generar investigación fisiológica. De la isma forma que las invests psicofísicas de Hurvich y Jameson llevaron a DeValois
a buscar células oponentes en los nucleos geniculados laterales del talamo, asi tb los trabajos de Land sobre la psicofísica
de la constancia del color llevaron a la nvest de células en la cortexa q respondieran específicamente al color propio de la
reflectancia de una superficie por oposición a la longitud de onda. Las invests de Zeki en la uni de Londres apuntan a que
en el área V4 de la cortexa occipital extraestriada existen esas células. Zeki realizó ss invests tanto con técnicas de registro
unicelular en macacos como con técnicas de neuroimagen en personas. En sus invests con macacos comparó la respuesta
de células en V1, V2 y V4 ante Es tipo Mondrian. Comprobó que mientras las células V1 y V2 respondían a las distintas
combinaciones de lonitudes de onda, independientemente del color de las superficies, las células V4 respondían al color de
las superficies del mondrian y no a las distintas combinaciones de ongitudes de onda.
En sus investigaciones con personas Zeki estudio las zonas implicadas en la percepción del color comparando la activación
de distintas zonas cerebrales a un Mondrian acromático con su activación a un Mondrian cromático de formas iguales al
anterior. Encontró que la zona del cerebro que respondía específicamente al color era la formada por el giro fusiforme
situado en la zona ventral de la corteza occipital (ver Figura 2.16 en p. 100).
Zeki se refiere a estas zonas de la corteza cerebral humana como equiva- lentes al área V4 en el macaco, aunque no hay
acuerdo en este punto.
La observación clínica de pacientes ha puesto también de manifiesto que la lesión de estas zonas del cerebro da lugar a una
forma de acromatopsia cortical que reduce al paciente a un tipo de visión exclusivamente acromáti- ca32. Vemos, por
tanto, que existe evidencia fisiológica importante a favor de zonas cerebrales cuya respuesta está asociada con aspectos
importantes de la apariencia del color como es su constancia a pesar de los cambios en luminan- cia que puedan introducir
en una escena las variaciones en iluminación. Zeki (Zeki & Marini,1998) es el investigador que más fuerte ha apostado por
re- lacionar V4 con el cómputo que Land atribuía a sus mecanismos hipotéticos. Según Zeki son los campos receptivos de
V4 los idóneos para llevar a cabo las comparaciones entre zonas remotas de una misma escena como postula la teoría
retinex ya que reciben información no sólo de las células de V1 y V2 del mismo hemisferio sino también las del hemisferio
cerebral contrario a través de conexiones del cuerpo calloso.
Con el estudio de la constancia del color completamos el tratamiento de los principios fundamentales que gobiernan la
percepción del color. Hemos visto cómo una codificación inicial de la longitud de onda de naturaleza tri- cromática da
lugar a una codificación en términos oponentes de los colores fundamentales. También hemos visto cómo, en fases
posteriores de procesa- miento, el sistema visual realiza determinados cómputos que permiten alcan- zar información
acerca de los objetos. La consecución de la constancia del color, y de todas las demás constancias, es uno de los principales
logros del sistema visual para proporcionarnos un mundo objetivo al que poder adaptar nuestro comportamiento con éxito.
En las primeras fases, el procesamiento del color tiene lugar de forma relativamente encapsulada, es decir, relativa- mente
independiente de otros aspectos de la percepción visual, como son la forma o la profundidad. En el establecimiento de la
constancia, sin embargo, el sistema visual utiliza información procedente de otros módulos visuales para resolver el
problema de la asignación de colores a superficies. Una ca- racterística general de los procesos que tiene lugar en las fases
que hemos estudiado es que predomina en ellos el procesamiento de abajo arriba. No excluimos que factores atencionales,
de aprendizaje u otras influencias cog- nitivas puedan modular el funcionamiento de esos procesos33, pero no son
necesarios para llevar a cabo el procesamiento que tiene lugar en esas fases.
Sin embargo, la percepción del color no termina con la determinación de la constancia. Al igual que cualquier otro aspecto
de la percepción, el color tiene que entrar en contacto con nuestro conocimiento del mundo, y en par- ticular con nuestro
conocimiento de los objetos y de los colores, para adquirir significación, para contribuir al reconocimiento de los objetos y
para facilitar la adaptación al medio. A esta nueva fase del proceso perceptivo, en la que la información que fluye desde el
medio ambiente hacia el organismo establece contacto con el conocimiento del organismo, la llamamos de forma genérica
categorización perceptiva y es la fase que vamos a estudiar a continuación.

CATEGORIZACIÓN DEL COLOR


El espectro visible está formado por una banda continua de longitudes
de onda que, en general, se extiende entre los 400 y 700 nanometros.
Toda esta gama de longitudes de onda es codificada 1º por 3 tipos
diferentes de receptores y recodificada dp sobre la base de tres pares de
colores oponentes: rojo-verde, amarillo-azul y blanco-negro. Sin
embargo, nuestro vocabulario está repleto de términos referentes a
colores que van mucho más allá de los seis colores mencionados: rosa,
marrón, malva, naranja, pardo, morado, marfil, oro, púrpura, caqui, cian,
violeta, beige, crema, burdeos, bermellón, etc., son sólo unos cuantos de
los numerosos matices que podemos discriminar entre los colores,
aunque no todas las personas podrían afirmar ser capaces de ello.
El mundo de los colores, está abierto al aprendizaje discriminativo y es tb el resultado de influencias culturales que,
mediante la creación de cats perceptivas, nos enseñan a ver el mundo de una forma det. Debemos preguntarnos por la
naturaleza del conocimiento acerca de los colores porque, en última instancia, el mundo de las cats respecto al color va a
actuar como filtro último a la hora de asignar un nombre a una experiencia particular de color. El problema es el grado de
generalidad o de relativismo particular q cabe esperar en el mundo de las cats del color.
Durante algún tiempo se pensó en términos de mero relativismo cultural:
las personas de distintas culturas aplican nombres distintos a los colores de acuerdo con su experiencia. Es famoso el ej del
antropólogo Franz Boas sobre el nº de palabras que los esquimales tienen para referirse a la nieve. Si eran capaces de
discriminar más de 12 tipos de nieve distintas era debido a su adaptación al medio ambiente polar y a la necesidad de
asignar significación a aspectos q pasan desapercibidos para miembros de otras culturas. La generalización de esta tesis
llevó a pensar q la forma en que las distintas culturas fragmentan el espectro luminoso en cats de color era arbitraria.
Berlín y Kay, antropólogos, hicieron un estudio sobre los términos básicos del color q demostró q hay unas tendencias
comunes entre las distintas culturas. Comenzaron x definir como términos básicos d color los q tuviesen estas condiciones:
- Debían ser términos formados x un único lexema. Esto excluía los nombres compuestos de colores cm azul marino, etc.
- Debían ser términos referidos al color y no a un objeto o material det del que el color tomara el nombre. Esto excluía
términos como dorado, marfil, crema, etc.
- Debían ser ampliamente usados para designar el color de una gran variedad de objetos, lo q excluía términos locales
como rubio o moreno que sólo se aplican a objetos dets como la piel o el pelo.
- Debían tener una frecuencia alta de uso en la lengua de la cultura, excluyendo los términos demasiado técnicos.
Con esta definición de términos básicos de color, Berlín y Kay estudiaron directamente 20 lenguas diferentes con métodos
experimentales y otras 78 por medio del análisis de escritos. Encontraron que en todo el conjunto de lenguas estudiadas se
podían discriminar doce términos básicos de color: rojo, verde, amarillo, azul, blanco, negro, gris, marrón, rosa, naranja,
púrpura, y un azul claro que en muchas culturas tiene un término único para designarlo. Dp Kay y McDaniel ampliaron
este conjunto de 12 a 16 para incluir términos muy comunes en varias culturas q hacen referencia a subconjuntos de los
doce anteriores. Los cuatro términos añadi- dos fueron: cálido, que puede referirse a rojo o a amarillo, frío para el azul o
verde, claro-cálido, que abarca a blanco o rojo o amarillo, y oscuro-frío, para el negro o azul o verde.
El segundo descubrimiento que Berlín y Kay hicieron fue la utilización de únicamente 22 conjuntos diferentes de colores
de entre los millones q pueden hacerse con esos 16 términos básicos. Entre estos 22 conjuntos descubrieron un patrón que
podía interpretarse como un orden det en el desarrollo de los términos de color. Así, si una lengua det tenía solo 2 términos
básicos para designar el color, los términos usados eran claro-cálido y oscuro-frío; si tenía 3 términos básicos, eran blanco,
cálido y oscuro-frío; si eran 4, el oscuro frío se dividía resultando blanco, cálido, negro y frío; si la lengua tenía 5 términos,
el q se dividía era el cálido, dando lugar a blanco, rojo, amarillo, negro y frío; finalmente, si la lengua tenía 6 términos, se
dividía el término frío y los utilizados eran blanco, rojo amarillo, negro, azul y verde. Lejos, por tanto, de un relativismo
cultural, sus resultados pusieron de manifiesto q los términos básicos de color se mueven en torno a los 6 colores funds que
Hering había postulado, aunque el modo de agrupamiento en cada cultura sea diferente.
En el caso de las veinte lenguas que Berlin y Kay estudiaron con métodos experimentales, investigaron con especial interés
la manera de llevar a cabo la categorización de los colores. Para ello utilizaron un gran nº de fichas de distintos colores
tomados del libro del color de Munsell y pidieron a los sujetos q las clasificaran en distintas cats. Encontraron q la
tendencia predominante era agrupar las fichas de colores en torno a un conjunto de colores funds que actuaban como
colores focales mientras q los límites entre las diferentes cats eran mucho más difusos. Parece, por tanto, q las cats
conceptuales referentes a los colores están organizadas de forma q unos colores dets son los más representativos y actúan
de prototipo de la cat, mientras q el resto se categoriza x semejanza con los distintos prototipos q sirven de puntos focales.
Recientes investigaciones de Zeki han dado importantes indicios sobre las estructuras neuronales q pueden estar implicadas
en las fases superiores de procesamiento del color. Recordemos q fueron las investigaciones de Zeki las que relacionaban
la constancia del color con el procesamiento que tiene lugar en V4. Recordemos también que en esas investigaciones los
estímulos utilizados por Zeki fueron conjuntos de colores al estilo Mondrian. En sus últimas invests, Zeki y Marini han
utilizado escenas de objetos reales que en unos casos eran acromáticas y en otros estaban dotadas de color. Además, en este
último caso, los colores podían ser apropiados para los objetos representados (fresas rojas, por ej) o inapropiados (fresas
azules). Utilizaron resonancia magnética funcional para registrar la actividad cerebral ante la proyección de las escenas.
Los resultados mostraron q, al comparar las activaciones producidas por los objetos con colores apropiados con las
producidas por los mismos objetos pero acromáticos, se producía una mayor activación del giro fusiforme pero, en este
caso, implicaba a zonas del giro fusiforme que no se activaban ante la presencia de un Mondrian. Otras zonas que también
se activaron diferencialmente fueron el giro parahipocampal, situado en la zona media del lóbulo temporal, y el mismo
hipocampo. Estas zonas no se activaron cuando los objetos mostraban colores inapropiados. Zeki lo interpretó en el sentido
de q estas estructuras neuronales no llevan a cabo un análisis abstracto del color sino q están reldas con la interacción del
color con los objetos y con la memoria de los colores de los objetos. Es probable q sean estas estructuras las que estén
preferentemente reldas con la categorización del color.

6. RESUMEN Hemos visto q las fases tienen un alto grado de org serial, pero tb en cada una de las fases hay un alto grado
de interacción en paralelo de carácter intramodular, en las primeras fases, e intermodular en las últimas. A medida q el
procesamiento del color se hace más complejo, mayor es la intervención de todo el conocimiento a disposición del sistema
visual para precisar la inf que necesita el organismo.
T.3 PROCESAMIENTO VISUAL INICIAL
La percepción de la forma es central pq la forma el determinante principal del reconocimiento visual de los objetos.
3 aportaciones: (la 1ª) invest fisiológica del sistema visual, la invest psicofísica y la teoría computacional de la visión (la
última). Aunq no sean teorías completas de la percepción de la forma, son determinantes del modo de entenderla pq cada
una plantea un punto de partida diferente xa entender los 1ºs pasos del proces q son la base sobre la q construir los demás.
1. LAS INVESTIGACIONES DE HUBEL Y WIESEL
Kuffler descubrió la org de los campos receptivos de las células ganglionares en términos oponentes entre el centro y el
contorno. En el cap anterior estudiamos el func de este tipo de células. Hubel y Wiesel trataron de extender la invest de los
campos receptivos a las células de la corteza estriada y encontraron diferentes clases de células q tenían difs tipos de
campos receptivos. Clasificaron estas células en 3 clases con el nombre de células simples, complejas e hipercomplejas.
1.1 Tipos de células
- células simples: tienen campos receptivos con una forma más complicada q las ganglionares o las del núcleo geniculado
del tálamo cuyos campos receptivos son circulares. Pero continúa teniendo la estructura antagónica centro-contorno en la q
tanto uno como otro puede ser excitador (on) o inhibidor (off). Un punto de luz proyectado sobre una zona excitadora (on)
es un E suficiente para aumentar la tasa de disparo de una célula y un punto de luz proyectado sobre una zona inhibidora
(off) disminuye la tasa de disparo. Cuando los Es son mayores q un punto de luz la respuesta de la célula aumenta de forma
lineal a medida q aumenta la cantidad de luz que cae sobre una zona excitadora o dism a medida q aumenta la cantidad de
luz q cae sobre una zona inhibidora. Esta naturaleza lineal de la respuesta es una de las caracs principales de las simples.
El estímulo óptimo para una célula simple es aquel que mejor se ajusta a la forma de su campo receptivo y la geometría de
los campos receptivos da lugar a diferentes tipos de células simples. La mayor parte tienen campos receptivos alargados y
responden preferentemente a líneas o bordes de una det orientación y posición en la retina.
- Unas tienen un área excitadora en un lado y otra área inhibidora en el otro lado por lo que responden preferentemente a
bordes de luminancia formados por la transición de luz a oscuridad; por ello se les llama a veces detectores de bordes.
- Otras tienen campos receptivos con una zona central alargada, que puede ser excitadora o inhibidora, flanqueada a uno y
otro lado por zonas antagónicas. Estas células responden preferentemente a líneas claras u oscuras de una det orientación y
posición en la retina y son a veces llamadas detectores de líneas o detectores de barras. En general las distintas formas de
campos receptivos q se han encontrado son pocas y responden a tipos diferentes de bordes, líneas o barras. Pero para cada
una de estas formas se ha encontrado una gran cantidad de células cada una de las cuales responde a una orientación y
posición retiniana particular pero q en conjunto cubren con sus respuestas todas las orientaciones posibles en el campo
visual. El tamaño de los campos receptivos de las simples depende de su posición en la retina con rel a la fóvea. En la zona
de la fóvea los campos receptivos son más pequeños q en la periferia.
Aún no se sabe cómo las células simples se relacionan con las ganglionares y con las de los núcleos geniculados del tálamo
cuyos campos receptivos son circulares. Hubel propuso un modelo sencillo como el de la Fig 3.1.
La fig ilustra las conexiones entre 4 células con campos receptivos circulares y una célula
simple. Cada una de las 4 células que conectan con la simple tiene un campo receptivo de centro
on y contorno off y los centros de estas cuatro células se encuentran dispuestos a lo largo de una
línea. Si suponemos q muchas células como estas 4 se estan conectadas a una simple, podemos
entender que el campo receptivo de la célula simple consistirá en una región excitadora estrecha
y alargada q estará flanqueada por una región inhibidora y que un estímulo luminoso semejante a
una línea será capaz de activar a su máximo nivel a esa célula simple. El modelo de la Fig 3.1 es
solo un modelo hipotético, más adelante veremos q hay otras formas de interpretar el func de las células «simples».
- Las células complejas: las 1ªs descubiertas x Hubel y Wiesel, las más abundantes en la corteza visual estriada; el 75% de
esta corteza está formada por células complejas. Comparten con las simples la cualidad de responder solo a líneas q tienen
una orientación específica. Diferencias respecto a las simples:
l. Tienen campos receptivos algo más grandes que las células simples.
2. No responden de forma específica a la posición de una línea dentro del campo receptivo. Con tal que se mantenga la
orientación de la línea, cualquier posición dentro del campo receptivo es capaz de provocar la excitación de estas células.
3. Son muy sensibles al movimiento de las líneas que sirven de estímulo.
No responden si son estimuladas encendiendo o apagando pequeños puntos de luz estacionarios. Incluso las líneas
estacionarias producen una respuesta débil y no mantenida. Pero si una línea orientada adecuadamente se mueve a lo largo
del campo receptivo, su respuesta es máxima y se mantiene desde q el E entra en el campo visual hasta q lo abandona.
4. Así, la R de las complejas no es lineal respecto a la cantidad de luz recibida, al contrario q la respuesta de las simples.
Fig 3.2 hipotético modelo de las rels entre las células simples y las complejas propuesto por Hubel. Representa una célula
compleja q recibe inf de 3 simples aunq habría q suponer q son muchas más las simples q convergen en una compleja. Los
campos receptivos de las simples tienen todos la misma orientación pero están distribuidos de forma q se solapan sobre la
totalidad del campo receptivo de la compleja.
La célula compleja se activará siempre que su campo receptivo sea estimulado por una línea con la orientación apropiada,
pero la excitación de la célula será breve si la estimulación es estática, pero si el E se mueve a lo largo del campo receptivo
de compleja, un nº mayor de simples disparará sucesivamente, evitando el problema de la adaptación de las simples y
manteniendo de esta forma la excitación sostenida de la célula compleja.
Aunq existe un pequeño porcentaje de las mismas, entre un 10 y un 20% en las láminas superficiales de la corteza estriada,
q muestran selectividad a la dirección del movimiento de forma q tienden a disparar preferentemente cuando el mov del
estímulo va en una det dirección y no disparan o lo hacen menos intensamente cuando el mov es en dirección contraria.
- células hipercomplejas: campo receptivo más selectivo q las complejas. Carac fund: disminución de su R cuando la
longitud de la línea q la estimula aumenta por encima de un límite. Esto es sorprendente pq tanto las simples como las
complejas muestran un aumento en la R cuando aumenta la longitud de la línea q se usa como E. Es como si las nuevas
células respondieran preferentemente a líneas q presentan una terminación. Hoy se llaman células con inhibición final pq
responder a líneas con terminación no está sólo asociada a células q presentan caracs complejas sino tb a células simples.
Es decir, hoy se piensa q las células hipercomplejas son grupos particulares tanto de células simples como complejas q
tienen una sensibilidad gradual a la presencia de una terminación.
1.2 La arquitectura de la corteza estriada Tanto las invests de Hubel y Wiesel, como posteriores, principios de su org:
1) org retinotópica. La corteza estriada preserva la topografía propia de la retina en el sentido de que áreas que son
adyacentes en la retina proyectan sobre áreas en la corteza que también son adyacentes. La representación de la distancia
entre las líneas radiales tiende a igualarse en la autorradiografía a pesar de que en el estímulo la distancia entre las líneas es
muy diferente. Esta diferencia entre las rels métricas de la representación en la corteza y en el estímulo se conoce como
magnificación cortical y es una distorsión característica de la representación retinotópica de la corteza estriada debida a q
la zona central de la retina ocupa un área más amplia en la corteza q la zona periférica. Esta distorsión es una consecuencia
de la mayor densidad de receptores existente en el centro de la retina en comparación con la periferia. El análisis q la
corteza visual realiza en el centro de la retina que es más detallado que en la periferia.
2) columnas de dominio ocular. una de las 1ªs caracs de su arquitectura q fue descubierta. Si se introduce un electrodo en
la corteza estriada de forma perpendicular a su superficie, puede comprobarse q todas las células a lo largo de esa
trayectoria responden de forma preferente a la estimulación presentada a un det ojo y no lo hacen, o en menor medida, a la
presentada al otro ojo. Si el electrodo se introduce de forma oblicua a la superficie, tan en paralelo a la misma como sea
posible, el predominio de un ojo sobre el otro en la excitación de las células alterna. Primero predomina un ojo y luego otro
y la secuencia alternante se repite a lo largo de la trayectoria. Estos resultados obtenidos con técnicas de registro unicelular,
ponen de manifiesto una org de la corteza en columnas, cada una de ellas formada por conjuntos de células que responden
a un ojo con preferencia al otro y todas ellas organizadas de forma alternante respecto al ojo dominante. Fig 3.4 esquema
de un corte realizado tangentemente a la superficie del área V1 de un mono. El corte muestra la org alternante de columnas
claras y oscuras correspondientes al ojo derecho e izquierdo respectivamente. En general, el tipo de transición brusca q se
produce de las zonas claras a las oscuras es propio de la capa 4C de la corteza, en el resto de las capas la alternancia de
columnas de dominio ocular es más suave y gradual pasando de columnas con clara preferencia por un ojo a otras en que la
preferencia es menor y a otras claramente binoculares antes de llegar a las columnas con preferencia por el otro ojo.
3) columnas de orientación. la forma en que se organiza esa preferencia a la orientación (carac tanto de las simples como
de las complejas) tiene tb una curiosa regularidad. Al igual q la preferencia ocular, la preferencia por una det orientación
permanece constante si la penetración del electrodo de registro es perpendicular a la superficie de la corteza. Todas las
capas de la corteza desde la superficie hasta la sustancia blanca muestran preferencia por una det orientación excepto la
capa 4 q no muestra preferencia. Si la penetración del electrodo se hace de forma paralela a la superficie, aparece una
secuencia regular de cambios en la preferencia por la orientación de forma que cada vez que el electrodo avanza unas 50
micras se produce un cambio en la preferencia por la orientación de unos 10 grados de ángulo bien en el sentido de las
agujas del reloj bien en sentido contrario. Esta distribución del cambio hace q en un espacio de aprox un milímetro el
cambio de preferencia en la orientación sea de unos 180 grados.
1.2.4. org modular. Hubel y Wiesel propusieron una org funcional de la corteza estriada q resumía las preferencias
oculares y de orientación. Según Hubel las 6 capas de la corteza están organizadas en módulos o hipercolumnas que se
distribuyen de forma perpendicular a la superficie. Las dims de los módulos varían de una capa a otra, pero la org
funcional es la misma. Fig 3.5: idealización de la org que caracteriza a cada módulo. Como se ve, la org del módulo
resume la estructura de columnas q hemos comentado en 2 y 3. Por un lado el conjunto de
columnas alternantes de dominio ocular I D I D... organizan la inf del ojo izquierdo y
derecho respectivamente. Por el otro, se muestra la org de las columnas de orientación
especificando los cambios en orientación a los q las distintas columnas son sensibles.
Estas unidades funcionales son el mosaico fund q organiza la corteza estriada.
Las invests de Hubel y Wiesel demostraron tb q la org de la corteza visual estriada no sólo depende de fs de herencia sino
tb de fs reldos con el medio. Estudiando la conducta de las células de la corteza estriada de gatos pequeños en condiciones
normales y de privación visual comprobaron que, si bien hay células q responden selectivamente a la orientación en los
recién nacidos, hay tb periodos críticos en las primeras semanas de maduración durante los cuales es necesaria la
estimulación ambiental para lograr un desarrollo normal en el func de las células de la corteza estriada.
El periodo crítico no es el mismo xa todas las propiedades de la estimulación visual q son procesadas x la corteza estriada.
Está reldo con el nivel q ocupan las células en el sistema visual y tiene lugar antes para las células q ocupan un nivel más
bajo, ya q su maduración es un requisito necesario para el desarrollo de células que operan a un nivel más alto. El periodo
crítico de la sensibilidad a la orientación oscila entre la 1ª y la 5ª semana de vida.
El periodo crítico para el dominio ocular entre la 5ª y la 10ª semana de vida.
Los trabajos de Hubel y Wiesel son una de las principales aportaciones al estudio de la percepción visual en el sXX. Su
influencia fue enorme ya que sus descubrimientos parecían apoyar a las teorías basadas en detectores de características.
2. APROXIMACIÓN PSICOFÍSICA
2.1 El análisis de la frecuencia espacial Para Hubel y Wiesel lo q hacen las células de la corteza estriada es responder de
forma selectiva a caracs estimulares simples como la orientación y el movimiento de líneas y bordes. Estas células son
detectores de características. A 1ª vista esta interpretación parece la más simple y ligada a los hechos experimentales.
Pero tiene estas dificultades:
- es verdad q una línea luminosa puede aparecer como el mejor E para una det célula, pero no se puede descartar q otros Es
posibles puedan estimularla tb. Ningún experimento puede agotar el conjunto de Es eficaces posibles para una célula.
- suponer que el análisis más elemental del patrón estimular que realiza el cerebro lo hace en términos de líneas y bordes
requeriría una teoría capaz de mostrar que todo el conjunto de formas y objetos q podemos percibir se puede descomponer
en términos de líneas y bordes. No es negar la existencia de células q responden preferentemente a líneas de una det
orientación; esto es un hecho experimental; sino preguntarse si esa respuesta es el nivel más elemental de análisis.
La teoría de la frecuencia espacial surgió como una alternativa a la teoría de los detectores de características:
- Sostiene q el análisis más elemental de los objetos q realiza el sistema visual es en términos de cs de frecuencia espacial.
- El patrón estimular debe ser considerado como una onda compleja de intensidad luminosa q es analizada por el cerebro
en términos de sus cs elementales de frecuencia espacial. Las células de la corteza estriada llevan a cabo ese análisis de cs
pq actúan como filtros espaciales q responden selectivamente a una det banda de frecuencias espaciales con preferencia a
otras frecuencias.
2.2. El concepto de frecuencia espacial Por muy compleja que sea una onda, siempre se puede analizar en sus cs simples
llamados ondas sinusoidales. Fig 3.6. A: onda sinusoidal referida al dominio
del espacio. En B aparece el E correspondiente a la onda sinusoidal. El eje
horizontal de la onda representa el espacio estimular cuyos cambios en
intensidad están representados en el eje vertical. El E varía en intensidad a lo
largo de la dim horizontal con oscilaciones suaves de zonas claras y oscuras
de igual amplitud que se repiten en intervalos iguales. Este E se llama
enrejado y el de la Fig 3.6 es un enrejado sinusoidal en el q las transiciones
entre las zonas claras y las oscuras son suaves y continuas. Cuando estas
transiciones son bruscas (fig 3.7) el enrejado se llama onda cuadrada. Igual
q las ondas sinusoidales son los els más simples q podemos analizar una onda, los enrejados sinusoidales son los Es más
simples xa estudiar la sensibilidad del S visual a la frecuencia espacial. Todo enrejado sinusoidal 4 parámetros: la
frecuencia, amplitud y fase de las ondas sinusoidales q lo caracterizan y la orientación del patrón respecto a la vertical.
1. La frecuencia espacial de un enrejado viene dada por la anchura de las
zonas claras y oscuras que lo componen. Un enrejado en el que las zonas
claras y oscuras son anchas tendrá menor frecuencia espacial q un enrejado
en el q las zonas son estrechas ya q el nº de ciclos por unidad de distancia
en la onda asociada al enrejado será mayor en el 2º caso. La unidad de
distancia q se usa es el grado de ángulo visual.
El concepto de ángulo visual es sencillo y nos permite relacionar todas las
medidas con el observador. En la Fig 3.8 puede verse q una flecha (h)
colocada cerca del observador (o) produce una imagen retiniana mayor que
otra flecha (h') q está más alejada. Si para cada flecha trazamos dos líneas
q intercepten sus dos extremos y converjan en el ojo del observador,
tendremos dos ángulos visuales alfal y alfa2 tales q alfa1 es mayor que
alfa2. Los ángulos, por tanto, están directamente reldos con el tamaño de la
imagen retiniana y éste, a su vez, está directamente reldo con el tamaño del
E e inversamente reldo con la distancia a la q el E se encuentra. En el caso
de la frecuencia espacial se usa el nº de ciclos por grado de ángulo visual (c/gav), porque nos indica directamente las caracs
espaciales del E q llega al observador independientemente del tamaño del E o de la distancia a la que esté.
2. La amplitud de onda de un enrejado es la mayor o menor intensidad luminosa de sus zonas claras u oscuras. Un
concepto importante derivado de la amplitud es el de contraste: la diferencia entre zonas claras y zonas oscuras y q se
define así: Contraste = (Imax - Imin) / (Imax + Imin)
Donde Imax es el punto de máxima intensidad e Imin el punto de mínima intensidad luminosa en el enrejado. Se puede ver
claramente que el contraste será cero cuando lmax sea igual a Imin y será igual a 1 cuando Imin sea cero. Por tanto, el
índice de contraste oscila entre 0 - cuando no hay diferencias de intensidad luminosa y tenemos un campo uniforme de luz-
y 1, cuando la diferencia entre las zonas sea máxima.
3. La fase de un enrejado se refiere a la posición de la oscilación de la onda sinusoidal en un momento det que sirve de
punto de referencia. La fase se mide en grados en relación con ese punto de referencia. La onda sinusoidal de la Fig 3.6 en
el punto en que comienza está en fase de 0°, también llamada fase seno porque es el punto de comienzo de la inflexión en
sentido positivo. Si la onda comenzara en el punto de su máximo valor positivo de amplitud se diría que está en fase de
90°, también llamada fase coseno. Si comenzara en el punto de comienzo de la inflexión en sentido negativo estaría en fase
de 180° (fase antiseno) y si lo hiciera en el punto de mínimo valor de amplitud estaría en fase de 270° (fase anticoseno). La
fase es, por tanto, una medida de posición y puede variar entre Oy 360 grados.
4. La orientación de un enrejado se refiere al grado de desviación de la vertical que presentan sus zonas claras y oscuras.
Se suele expresar en grados a partir de la vertical y en sentido contrario al de las agujas del reloj.
2.3. El análisis de Fourier una de las grandes ventajas de estudiar el patrón de estimulación visual en términos de ondas,
es q la teoría de análisis de ondas está bien establecida en física y podemos usarla para investigar la validez y el alcance de
esta concepción estimular en la percepción visual. En 1822 Fourier propuso su teorema fund sobre las ondas: cualquier
onda, tenga la forma q tenga, se puede expresar de manera única como la superposición (suma) de ondas sinusoidales de
frecuencias y amplitudes definidas. La fig 3.9: aplicación de este teorema al análisis de una onda compleja como es una
onda cuadrada. En la fila F el gráfico de dicha onda. Teóricamente sus cs armónicos son
infinitos en nº, pero en la práctica una onda cuadrada puede aproximarse mediante la
suma de un nº finito de cs. La fila E en la fig muestra cómo la suma de los cs A, B, C y D
produce una onda compleja q se aproxima a la onda cuadrada. La adición de armónicos
de mayor frecuencia aproximaría la onda compleja al ideal representado en F.
Los cs de una onda cuadrada son ondas sinusoidales que guardan entre sí un conjunto de
rels peculiares. El 1r c es el llamado fundamental que consiste en una onda sinusoidal de
igual frecuencia y amplitud que la onda cuadrada. El resto de los cs se llaman armónicos
cuya frecuencia es un múltiplo impar de la frecuencia fundamental y cuya amplitud varía
en función de su orden. Así, el 2º c corresponde al 3r armónico y tiene 3 veces la
frecuencia del fundamental y un tercio de su amplitud, el 3r c corresponde al 5º armónico
y tiene 5 veces la frecuencia del fundamental y un quinto de su amplitud, etc. Así, cada
nuevo armónico q se añade contribuye al total una amplitud cada vez más pequeña, por lo q en la práctica la síntesis de una
onda cuadrada puede aproximarse de forma bastante satisfactoria usando un pequeño conjunto de armónicos aunq en teoría
el nº de cs sinusoidales de una onda cuadrada sea infinito. Fig 3.9: la suma de los 3 primeros armónicos al fundamental da
una buena aprox a la onda cuadrada aunq necesitaríamos añadir más para hacer regulares los puntos máximos y mínimos.
Igual q una onda cuadrada, la onda compleja correspondiente a la imagen de un objeto puede ser analizada en sus cs
fundamentales. Una idea general del papel que los distintos cs de frecuencia espacial juegan en la determinación de una
imagen, puede obtenerse considerando la Fig 3.10 en la q aparece en el centro una fotografía de Einstein. La imagen a la
izquierda muestra la misma pero una vez se han eliminado los cs de frecuencia espacial alta. La imagen de la derecha es
trás haber eliminado los cs correspondientes a las frecuencias espaciales bajas. Como puede comprobarse, los cs de
frecuencia espacial baja dan inf sobre los aspectos globales de la imagen, mientras q los de alta frecuencia de los detalles.
2.4. El análisis de Fourier como modelo así, la imagen de intensidad luminosa que da un patrón de estimulación visual
puede describirse en términos de análisis de ondas y esta forma de entender el E da un proced preciso para su estudio.
Fourier nos da un instrumento de análisis del E útil pero sin una significación psicológica particular. Hay q preguntarse si
el sistema visual tiene filtros diferencialmente sintonizados a un det rango de frecuencias espaciales con preferencia a
otras_ Si éste fuera el caso, cabe pensar q la corteza visual se comporta como un analizador Fourier q, a través del func de
estos filtros, descompone el patrón estimular en sus elementos constituyentes de frecuencia espacial. Vimos cómo 3
receptores q responden diferencialmente a distintas longitudes de onda son suficientes para producir las señales primarias
necesarias para codificar el color. Ahora se trata de asumir la existencia de receptores q responden diferencialmente a
distintas frecuencias espaciales de modo q las frecuencias espaciales altas serían procesadas por canales diferentes a los q
procesan las frecuencias espaciales medias y bajas. La existencia de esos hipotéticos filtros de frecuencia espacial sería un
1r paso para poner la teoría de la percepción de la forma sobre un sólido fundamento. Los defensores de la teoría de la
frecuencia espacial opinan q esos receptores de frecuencia espacial existen y han dado evidencia experimental:
2.5. Evidencia experimental más relevante a favor de la existencia de filtro de frecuencia espacial es psicofísica:
La psicofísica es la parte de la invest psicológica q trata de establecer rels entre las caracs físicas de los Es y la experiencia
consciente usando métodos comportamentales. La carac principal de los métodos conductuales es q analizan la ejecución
del sujeto en tareas muy precisas q permiten hacer inferencias sobre la naturaleza de los procesos que intervienen en la
tarea. Se han usado tareas de detección para medir el umbral de contraste de los sujetos y ha sido el comportamiento del
sistema en sits de umbral el q ha permitido inferir la existencia de diferentes filtros de frecuencia espacial. El umbral de
contraste es el contraste mínimo necesario para distinguir un enrejado sinusoidal de una escena de luminancia homogénea.
Para determinar la cantidad de contraste necesaria para determinar el umbral es frecuente usar el método de ajustes como
método psicofísico. En éste, el sujeto controla el contraste hasta q el enrejado resulta mínimamente perceptible. Cm valor
de contraste correspondiente al umbral suele tomarse el q es capaz de producir un porcentaje de respuesta correctas det.
2.5.1. La Función de Sensibilidad al Contraste (FSC) Si hacemos un experimento psicofísico de medición del umbral de
contraste usando un variado nº de enrejados sinusoidales de diferentes frecuencias espaciales podemos obtener la función
de sensibilidad al contraste de un observador determinado. La sensibilidad al contraste es el valor recíproco del umbral de
contraste ya q la sensibilidad al contraste de una persona será mayor cuanto menor sea el valor de contraste de su umbral.
La función de sensibilidad al contraste es la función q relaciona la sensibilidad al contraste con la frecuencia espacial de los
enrejados utilizados. Fig 3.11: FSC típica de una persona adulta en condiciones de visión fotópica. Como se ve, la función
tiene la forma de U invertida. Todos los puntos en la curva representan la sensibilidad máxima para cada frecuencia
espacial. El punto óptimo de sensibilidad se sitúa entre los 4 y los 5 ciclos por grado de ángulo visual y decae
progresivamente a medida q aumenta la frecuencia espacial, de forma q por encima de aprox los 50 ciclos por grado de
ángulo visual no somos capaces de percibir diferencias entre un enrejado y una superficie de luminancia homogénea.
La función de sensibilidad al contraste permite caracterizar la sensibilidad A de un det sistema visual. Si el experimento de
se hiciera en condiciones de visión escotópica la sensibilidad a todas las frecuencias sería mucho menor pero afectaría más
a las altas que a h las bajas frecuencias porque al faltar la contribución de los conos se perdería b la agudeza visual que
permite percibir los detalles de un objeto.
2.5 .2. Predicciones a partir de la FSC la función de sensibilidad al contrate es un instrumento para poder explorar la
posible existencia de filtros especialmente sintonizados a un det rango de frecuencias espaciales. Campbell y Robson
usaron la FSC de sus sujetos experimentales para comparar su sensibilidad a las ondas cuadradas con su sensibilidad a las
ondas sunusoidales. El fundamento de sus invests consistía en suponer q, si el sistema visual posee filtros sintonizados a
diferentes frecuencias espaciales y realiza un análisis del patrón estimular en términos de cs sinusoidales, entonces la
respuesta correspondiente al umbral de detección de un enrejado de onda cuadrada está det por la respuesta de los filtros a
los distintos cs sinusoidales de la onda cuadrada. Una 1ª predicción de este supuesto es que si comparamos el umbral de
detección de una onda cuadrada de 26 c/gav con el de una onda sinusoidal de la misma frecuencia no debe haber ninguna
diferencia pq en ambos casos el sistema visual está respondiendo únicamente a una onda sinusoidal de 26c/gav. Aunq la
onda cuadrada tiene más cs sinusoidales, el sistema visual no es sensible a los mismos ya q incluso el armónico de menor
frecuencia, que tendrá 78 c/gav, no cae dentro del rango de frecuencias que el sistema visual puede detectar. Por otra parte,
si comparamos el umbral de detección de una onda cuadrada de 2 c/gav con el de una onda sinusoidal de la misma
frecuencia, entonces el umbral para la detección de la onda cuadrada debe ser más bajo, es decir la sensibilidad más alta, q
para la onda sinusoidal porque la onda cuadrada tendrá, además del c fundamental de 2 c/gav, un armónico de 6 c/gav cuyo
umbral de detección es más bajo que el correspondiente al fundamental según la FSC. Así, comprobaron que predicciones
como éstas eran confirmadas por los datos experimentales y concluyeron q el sistema visual está dotado de filtros
sintonizados a rangos dets de frecuencia espacial.
2.5.3. Los posefectos de frecuencia espacial al ver el proces oponente dl color vimos q si miramos una superficie de un
color fundamental, ej rojo, y dp miramos hacia una superficie blanca, veremos la superficie blanca coloreada con el matiz
complementario, el verde. Esto se llama posefecto de color, y tiene lugar pq los receptores q responden al rojo, dbido a la
exposición prolongada al E, pierden sensibilidad y se adaptan (se hacen menos sensibles al E). Así, cuando la mirada se
centra en la luz blanca, los receptores del rojo responden con menor intensidad que los de su oponente, el verde. Los
posefectos, en general, son un fenómeno q da inf sobre la existencia y naturaleza de distinto tipo de receptores. En el
estudio de los filtros espaciales, se ha aplicado tb la lógica de los posefectos xa poder inferir la existencia de múltiples
filtros espaciales. El razonamiento se entenderá mejor con la Fig 3.12: posible rel entre la FSC y un conjunto de hipotéticos
filtros espaciales. Lo importante es q la fig hace patente q si hay múltiples filtros espaciales, la FSC es el resultado de la
actividad d todos ellos. Técnicamente se dice q es la envolvente q encierra y reúne el
comportamiento de muchos más canales cada uno de ellos sintonizado a un rango limitado
de frecuencias espaciales.
Supongamos q sometemos a un sujeto a una exposición prolongada de un enrejado
sinusoidal de una frecuencia espacial particular. Si a continuación comprobamos la
sensibilidad al contraste del sujeto verificando el estado de su FSC y lo comparamos con el
estado de la FSC previo a la adaptación, podemos sacar conclusiones acerca de la
existencia o no de múltiples filtros o canales de frecuencia espacial. Consideremos 1º la
hipótesis de q no existen múltiples filtros sino q la frecuencia espacial se procesa por un
único canal y que la FSC refleja el estado de ese canal. Entonces la adaptación producida
por la exposición prolongada al enrejado afectará a todas las frecuencias espaciales y la
FSC posterior a la adaptación mostrará una menor sensibilidad, es decir un umbral más alto, para todas las frecuencias
espaciales del dominio de la función. Sin embargo, si hay varios canales sintonizados a diferentes frecuencias espaciales, la
adaptación producida por la exposición prolongada afectará únicamente a los receptores sintonizados con esa frecuencia
por lo que la FSC posterior a la adaptación mostrará una menor sensibilidad únicamente para las frecuencias iguales a las
usadas en la fase de adaptación, mostrando una especie de bache en la zona correspondiente a esas frecuencias espaciales.
Blakemore y Campbell confirmaron la aparición de baches de sensibilidad en la zona de las frecuencias utilizadas en la
fase de adaptación de sus experimentos mientras q la sensibilidad para las frecuencias q no habían sufrido adaptación
permanecía sin cambio. Estos datos favorecen la existencia de canales múltiples en el proces de la frecuencia espacial.
2.5.4. Manipulación de la fase de los enrejados otro experimento favorable a la existencia de múltiples canales o filtros
en el procesamiento de la frecuencia espacial ha usado el hecho de q la síntesis de dos
ondas sinusoidales q están en la misma fase produce una onda compleja cuya amplitud
es igual a la suma de las amplitudes de los cs sinusoidales; pero la síntesis de dos ondas
sinusoidales cuyos componentes tienen una diferencia de fase de 180° produce una onda
compleja cuya amplitud es igual a la diferencia de las amplitudes componentes. Fig 3.13
muestra la forma de las ondas de los enrejados usados por Graham y Nachmias. La fila
inferior muestra la forma de las ondas complejas usadas como E. Las dos primeras filas
muestran los cs sinusoidales usados para sintetizar los Es. La amplitud y frecuencia de los cs es la misma para ambos Es.
Lo único q varía de un E a otro es la secuencia de fase de sus cs. El razonamiento de Grahamy Nachmias fue: si el sistema
visual funciona de acuerdo con un modelo de canal único en el q el E se procesa como una totalidad, el E correspondiente
a la onda A será más fácil de detectar q el correspondiente a la onda B ya q el contraste es mayor en A que en B. Pero si el
sistema visual analiza el E respondiendo diferencialmente a sus cs sinusoidales, los dos Es mostrarán el mismo umbral de
detección ya q la amplitud y frecuencia de sus cs es la misma. Resultados: el umbral de detección era igual para los 2 Es.
Existe una gran cantidad de experimentos que muestran de forma convincente la existencia de filtros espaciales. No aún no
se ha podido aislar esos filtros en el nivel fisiológico.
2.6. Función de la corteza visual primaria algunos autores piensan que las células encontradas por Hubel y Wiesel en la
corteza estriada son en realidad filtros espaciales y proponen una interpretación de lo que hacen las células simples y
complejas en términos de análisis de frecuencia espacial en lugar de en términos de detectores de características. Tal es el
caso de Russell y DeValois. En el lab de los DeValois, Albrecht estudió cuidadosamente la respuesta de células simples de
la corteza visual ante una barra estrechablanca y negra. Observó que la respuesta de las células presentaba oscilaciones
adicionales a ambos lados de la respuesta principal a la barra tal como se muestra en la Fig 3.14. Curiosamente este tipo de
R es el q se puede predecir a partir de la R q estas células dan a enrejados de difs
frecuencias espaciales. DeValois encontraron tb campos receptivos de difs tamaños,
unos grandes q responden a una estructura espacial gruesa y otros pequeños que
responden a una estructura espacial fina. Por otra parte existe una correlación entre el
tipo de campo receptivo y el nº d oscilaciones colaterales q presenta la R d las células.
- células con campos receptivos pequeños tienden a presentar mayor nº de
oscilaciones q las de campos receptivos más grandes.
DeValois interpretaron todos estos resultados en el sentido de q la función de al
menos algunas células de la corteza visual es analizar la frecuencia espacial del patrón
estimular. En opinión de los DeValois estas células serían la realización fisiológica de
los filtros espaciales q llevan a cabo un análisis local de las frecuencias espaciales. El
análisis se llama local pq está restringido a los pocos grados de ángulo visual q
registra el campo receptivo de cada célula. La forma q adoptan estos campos
receptivos puede describirse por medio de una función de Gabor, equivalente a
multiplicar una función sinusoidal por una función normal como se muestra en la Fig
3.15. Obsérvese la semejanza entre la forma de la función de Gabor en esta figura con
la respuesta de las células de la Fig 3.14. Los DeValois midieron cuidadosamente la R
de las células simples y complejas de Hubel y Wiesel a la frecuencia espacial.
Encontraron q el grado de respuesta a la frecuencia espacial se extendía en un
continuo q iba desde células q tenían un campo receptivo finamente sintonizado a dets
frecuencias espaciales a células con una sintonía mucho más amplia. En general las
células q responden a frecuencias espaciales altas tienen campos receptivos más
estrechos q las sintonizadas a frecuencias espaciales bajas.
Tb suele ocurrir q las simples tienden a responder a una banda de frecuencias más
estrecha q las complejas aunq la diferencia no es muy grande. El grado de
selectividad a la frecuencia espacial está correldo con el grado de selectividad a la
orientación: las células q responden a bandas estrechas de frecuencia espacial tb
responden a un rango estrecho de orientaciones diferentes y las q responden a un rango amplio de frecuencias espaciales tb
lo hacen a un amplio rango de orientaciones.
Para los DeValois tb la corteza estriada está organizada funcionalmente en módulos, pero han propuesto una ampliación de
la idea de Hubel y Wiesel añadiendo una 3ª dim: la frecuencia espacial. El módulo cortical sería parecido al de la fig 2.5
pero ampliando la representación de la superficie que muestra la orientación de las líneas. En esta superficie la frecuencia
espacial estaría representada desde el centro hacia la periferia de cada orientación. Así las bajas frecuencias espaciales
estarían representadas en el centro mientras q la representación se desplazaría hacia la periferia a medida q la frecuencia
espacial aumentara. Para losDeValois, por tanto, el hecho de q las células de la corteza estriada procesen frecuencia
espacial no es un hecho contrario a la propuesta de Hubel y Wiesel respecto a las mismas sino complementario. Tb las
implicaciones para una teoría de la percepción no necesitan ser antagónicas. En el cap sobre la percepción del color vimos
q la teoría tricromática y la de los procesos oponentes fueron consideradas antagónicas durante mucho tiempo y dp se pudo
ver que eran complementarias a distintos niveles de procesamiento. Es posible q lo mismo pueda ocurrir con las dos
interpretaciones del func de las células de la corteza estriada. Es posible que en un 1r nivel de procesamiento tenga lugar
un barrido del patrón estimular q lo descomponga en términos de frecuencias espaciales y q los detectores de caracs
representen un nivel de proces posterior. Una propuesta como ésta fue de hecho formulada por Marr al exponer su primera
fase en el procesamiento de los objetos visuales. Pero la propuesta de Marr estuvo hecha desde una perspectiva de carácter
computacional y es este tipo de aprox el 3r punto de interés de este tema que ahora pasamos a considerar.
3. LA APROXIMACIÓN COMPUTACIONAL
En el cap primero vimos q la aprox computacional ha aportado a la teoría de la percepción el interés por la especificación
precisa de los procesos mediante su formalización en términos de programas. También q la teoría de David Marr fue en su
momento un verdadero punto de inflexión dentro de la teoría de la percepción visual, influyendo en la forma de pensar
acerca de los procesos perceptivos. Al exponer la teoría de Marr, mencionamos 3 niveles de org del procesamiento visual:
esbozo primario, el esbozo 2. 1/2-D, y el esbozo 3-D. En este cap estudiamos la fase correspondiente al esbozo primario en
el que Marr abordó el problema referente a la representación perceptiva más elemental o primitiva.
3.1. El esbozo primario El objetivo de la 1ª fase (esbozo primario) es hacer explícitos tanto los cambios de intensidad de
la imagen que proporcionan las vías visuales, como la distribución de esos cambios en la escena y su org geométrica. La
descripción explícita de esos cambios se hace especificando las características primitivas simbólicas de la imagen q, según
Marr, son 4: bordes, barras, terminaciones y manchas y los parámetros fundamentales de cada una de esas caracs
primitivas que son: posición, tamaño, orientación y contraste.
El punto de partida de esta fase es la imagen bidimensional proporcionada por los receptores visuales que representa la
distribución de luminancia de la escena y q es una representación analógica de la misma.
El resultado final es una representación simbólica formada por los 4 tipos de caracs q describen los cambios de intensidad
y q, organizadas en conjuntos resultantes de la aplicación de principios de agrupamiento, servirán como descripción básica
a los restantes niveles de procesamiento. Para Marr, por tanto, el sistema visual se hace simbólico muy pronto, en la 1ª fase
de proces, dando lugar a una descripción de la imagen considerablemente reducida en comparación con la original pero q
sigue conservando los aspectos importantes necesarios para el análisis de la imagen.
Para lograr los objetivos del esbozo primario, Marr asume q los mecs visuales operan con un conjunto supuestos generales;
respecto a la naturaleza de las imágenes; q hacen referencia tanto a la naturaleza de las superficies en el mundo visual
como al modo en q esas superficies se representan en la imagen. Ej: Marr cree lógico suponer q el mundo visible está
compuesto de superficies lisas q tienen funciones de reflectancia cuya estructura espacial podemos descubrir. Tb piensa q
las funciones q describen las superficies pueden hacerlo en escalas diferentes; unas nos describen los aspectos globales de
la superficie, otras los aspectos referentes al detalle, etc. En general asume q las superficies constitutivas de las imágenes
visuales son estables, tienen un alto grado de homogeneidad y las transiciones de luminancia dentro de ellas tienden a ser
suaves y no bruscas. Estos supuestos permiten orientar el func del sistema en esta 1ª fase. 2 subfases del esbozo primario:
1) esbozo primario bruto: los procesos que permiten pasar de la descripción analógica proporcionada por la distribución
de luminancia q describe la escena, a la descripción simbólica basada en las características primitivas.
2) esbozo primario completo: está dedicada a la exposición de los principios de org que permiten agrupar las
características primitivas en conjuntos y zonas que estructuran la escena.
3.2. El esbozo primario bruto El punto de partida del proces visual es la imagen más simple q pueden producir el
conjunto de nuestros receptores: una representación bidimensional de los difs niveles de intensidad luminosa que tienen los
puntos q la componen. Es una representación monocromática, monocular y estática. Imaginarla como la superficie de una
tv en blanco y negro compuesta x puntos elementales o píxeles cada uno con un nivel particular de intensidad luminosa.
Aunq la distribución de los receptores en la retina no tiene la homogeneidad espacial de los píxeles de una pantalla.
El objetivo dar una descripción de los cambios de luminancia existentes en la imagen en diferentes escalas y clasificar los
que sean relevantes en las 4 cats de caracs primitivas. Tanto Marr como la mayor parte de los investigadores en inteligencia
artificial han prestado especial atención a la clasificación de los bordes, por ello nos centraremos en su estudio y nos
servirán como ej en la comprensión del esbozo primario bruto.
A partir de la imagen en nivel de gris, la detección de los bordes tiene lugar por medio de un conjunto de operaciones que
pueden ser desglosadas de la forma que a continuación se indica.
3.2.1. Filtrado de la imagen. La imagen es analizada a distintos niveles de detalle, unos más globales y otros más
precisos. En este punto Marr y Hildreth incorporan la idea de los filtros espaciales que hemos estudiado anteriormente.
Para ellos la forma de los filtros espaciales es parecida al sombrero mexicano propio de una curva normal (gaussiana)
bidimensional, y dependiendo del mayor o menor tamaño del campo receptivo de los filtros, se producirá un mayor o
menor grado de apariencia difuminada en la imagen. La fig 3.10: resultado de la actuación de estos filtros. La imagen en
(a) es la fotografía original, los filtros amplios proporcionan en (b) una
imagen más difuminada que la proporcionada en (e) por los estrechos,
debido a q son sensibles a las frecuencias espaciales bajas que son las q dan
inf sobre los aspectos globales de la escena. Por el contrario, los filtros
estrechos dan inf de los detalles de la imagen ya que son sensibles a las
frecuencias espaciales altas. El filtrado de la imagen se puede entender tb
por referencia a los píxeles d una pantalla de tv o de un monitor. Un filtrado
de la imagen es equivalente a sustituir el valor de luminancia de cada píxel
por el valor de luminancia promedio de un conjunto de píxeles d su entorno.
Cuanto mayorsea el nº de píxeles que forman el conjunto de puntos q se
promedian, más ancho será el filtro. El filtrado de la imagen permite un análisis de la misma escena en diferentes escalas y
una determinación de las diferencias en luminancia para cada escala de filtrado de la imagen.
3.2.2. Localización de los puntos de cruce de cero. Para entender este 2º paso repasar algunos conceptos elementales
reldos con el análisis de imágenes. La Fig
3.16 será útil para esto.
A: imagen sencilla formada x un borde
producido por un cambio brusco en la
luminancia de la escena.
B: la fig ha sido digitalizada, es decir
sustituida x una matriz cuyas entradas
representan puntos en la imagen y en la que
el valor numérico de cada entrada
representa la intensidad luminosa de cada
punto. Podemos observar q el borde está
situado en la parte de la figura en la que se
produce la transición desde una intensidad
baja (02, en unidades arbitrarias) a una alta
(10).
C: se presenta el gráfico q muestra la intensidad luminosa para cada punto en la dirección horizontal de la imagen en A.
Unas nociones elementales de cálculo nos enseñan q la derivada de una función en un punto nos informa sobre el cambio
de los valores de la función en ese punto.
D: nos presenta el gráfico de la función derivada de la función representada en C. Este gráfico representa el cambio de
intensidad que tiene lugar para cada punto en la dirección horizontal de la imagen. En una imagen digitalizada, como la de
B, se puede hallar la función derivada a lo largo del eje horizontal calculando la diferencia entre los valores de los puntos
vecinos a lo largo de dicho eje. En el campo de la inteligencia artificial estos cálculos se llevan a cabo por medio de
operadores de bordes como los representados en E. Un operador de bordes es un esquema de cómputo para integrar los
valores de intensidad de un determinado entorno de píxeles adyacentes en la imagen; el resultado del cómputo es un nº que
nos informa sobre la existencia o no existencia de un borde. Ej: los operados q se muestran en E indican el peso o signo q
debe darse a cada valor de intensidad antes de proceder a la suma de los valores a los que se aplica. El primero de ellos, El,
se aplica a conjuntos de dos puntos e indica que el valor de intensidad del primer punto debe ir dotado de signo negativo
mientras q el valor de intensidad del segundo es positivo. Al aplicar este esquema de cómputo a dos puntos contiguos lo q
se hace es calcular la diferencia entre las intensidades de los dos puntos. Si no hay diferencia el resultado será igual a cero.
Si hay diferencia, el nº resultante nos indicará la magnitud de la diferencia y el signo la dirección del cambio ya que un nº
positivo indica un cambio de menos a más intensidad y un negativo indica un cambio de más a menos intensidad. Si se
aplica de forma sistemática este operador a la imagen digitalizada del apartado B, comenzando por la parte superior
izquierda y procediendo hacia abajo, obtendremos los valores q aparecen en la 1ª columna de la matriz mostrada en F. El
resto de los valores de la matriz se obtiene repitiendo la misma operación de arriba abajo pero comenzando una columna
más a la derecha. Obsérvese q todos los valores de la matriz en F son iguales a cero para los puntos en q no hay cambio en
los valores de intensidad y son distintos de cero en los puntos en los q se produce el cambio de intensidad con un valor (+8)
igual a la magnitud de la diferencia en intensidades y un signo apropiado a la dirección del cambio. La operación q
acabamos de realizar, consistente en hallar la suma ponderada de sus intensidades para cada dos puntos de la imagen a lo
largo de todos los puntos de la imagen, recibe el nombre de convolución de un operador de bordes con una imagen.
Obsérvese q si trazáramos el gráfico de los valores de la matriz en F para los puntos de la matriz en la dirección horizontal,
el resultado sería igual que el gráfico mostrado en D que es el de la derivada de la función de intensidad.
Un operador como este se llama de operador diferencial de primer orden porque calcula la diferencia simple entre píxeles
contiguos. El resultado de la convolución del operador con la imagen nos permite detectar los puntos en los q tiene lugar
un cambio de intensidad dando lugar a un borde. El borde viene indicado por los valores extremos de la matriz resultante.
El operador mostrado en el apartado E2 de la Fig 3.16 presenta un esquema
de cómputo más complejo que el anterior. Es un operador diferencial de
segundo orden porque su convolución con una imagen equivale a calcular la
segunda derivada de la función de intensidad de la imagen. El apartado G de
la Fig 3.16 presenta el resultado de aplicar este operador a la imagen
digitalizada en B y el apartado H presenta el gráfico de los valores obtenidos
en G que corresponden a la segunda derivada de la función de intensidad. Al
punto en el que la función pasa por el valor cero cuando baja desde su valor
máximo (+8) a su valor mínimo (-8) se le llama punto de cruce de cero. En la
figura aparece indicado por una flecha. Los puntos de cruce de cero son los
indicadores de un borde cuando se utiliza un operador diferencial de segundo
orden. Obsérvese que no son puntos de cruce de cero todos los puntos de la
imagen en los q el valor de la segunda derivada de la función de intensidad es
cero sino sólo aquellos en los q la segunda derivada cruza un valor cero
flanqueado por valores extremos. Obsérvese tb q los puntos de cruce de cero
producidos por un operador diferencial de segundo orden son en la imagen los
mismos q muestran un valor extremo como resultado de la aplicación de un
operador diferencial de primer orden.
Ahora estamos en condiciones de entender un poco mejor la teoría de Marr
respecto al esbozo primario bruto. Para cada imagen filtrada a diferentes
niveles de frecuencia espacial se lleva a cabo la convolución de esa imagen
con un operador diferencial de segundo orden como el mostrado en la Fig 3.17 para determinar los puntos de cruce de cero
indicadores de la presencia de un borde. La fig 3.18 da un ej del resultado de las fases correspondientes a la diferenciación
de la imagen de una planta situada detrás de una alambrada.
En A aparece la imagen en nivel de gris de la planta. En B la imagen resultante de la convolución de la imagen en A con un
operador laplaciano, como el de la fig 3.17, dp de ser filtrada por un filtro gaussiano con una desviación típica equivalente
a 8 píxeles. En C se muestran respectivamente en blanco y negro los valores positivos y negativos resultantes de la
convolución anterior. En D solo se muestran los puntos de cruce de cero. Como se ve, los puntos de cruce de cero dan una
buena base sobre la que determinar los bordes de la imagen.
La Fig 3.19 da otro ej del valor informativo q dan los puntos de cruce de cero. La imagen de la derecha muestra los puntos
de máximo contraste de la imagen de la izquierda hallados mediante un operador diferencial de segundo orden. En la
imagen de la derecha se ha variado la intensidad de las líneas de modo q las q tienen un mayor contraste sean más intensas.
Los puntos de cruce de cero son en la teoría de Marr el principal proced por el que el sistema visual sienta las bases para
pasar de una representación continua de carácter analógico a una representación discreta de carácter simbólico.
3.2.3. La determinación de las características. A partir de la determinación de los puntos de cruce de cero y para llegar a
la descripción simbólica final, el sistema visual necesita integrar la inf q procede de los filtros de dif tamaño. Los cambios
de luminancia q dan origen a un punto de cruce de cero pueden estar provocados por fs muy diferentes en el mundo físico:
cambios en la iluminación de la escena, cambios en la reflectancia de las superficies, en la orientación o distancia de las
superficies con respecto al observador, etc. El sistema visual tiene q discriminar qué puntos de cruce de cero corresponden
a un mismo fenómeno físico y cuales a fenómenos físicos diferentes. Según Marr, el sistema visual consigue asignar los
puntos a fenómenos físicos integrando la inf proporcionada por los puntos de cruce de cero de las distintas escalas q
proporcionan los filtros de diferente tamaño. El principio fundamental q orienta esta fase del procesamiento se conoce
como supuesto de coincidencia espacial y dice así:
Si en un conjunto de canales independientes, de una gama continua de tamaños (filtrados mediante un operador laplaciano) está
presente un segmento de puntos de cruce de cero y este segmento tiene la misma orientación y posición en cada canal, entonces el
conjunto de segmentos de puntos de cruce de cero indica la presencia de un cambio de intensidad en la imagen q se debe a un único
fenómeno físico (un cambio en la reflectancia, iluminación, profundidad u orientación en la superficie).
Si no existiera coincidencia espacial en los distintos canales, probablemente los puntos de cruce de cero tendrían su origen
en distintos fenómenos físicos o en distintas superficies. Mediante la aplicación de este y otros supuestos reldos se acaba
logrando, según Marr y Hildreth, la descripción simbólica de la imagen en términos de las 4 caracs primitivas: bordes,
barras, manchas y terminaciones. La Fig 3.20 muestra la forma q adopta la descripción final del esbozo primario bruto de
la imagen de la Fig 3.18. En A y B se muestran los puntos de cruce de cero correspondientes a dos filtros de tamaño
diferente; el usado en A es más fino q el usado en B. En los siguientes apartados la fig muestra el resultado de la
integración de ambos filtros para generar un mapa de bordes orientados (D) y de los análisis q originan un mapa de
manchas (C) y otro de barras (E). El resultado final del esbozo primario bruto es un conjunto de 4 mapas con la descripción
de las caracs, cada una de ellas especificada por los parámetros correspondientes a su posición, orientación, contraste, y
tamaño, éste último expresado en términos de longitud y anchura.
3.3. Bases fisiológicas del esbozo primario bruto
En esta etapa de proces visual Marr tb prestó atención a los aspectos reldos con la realización física de estos procesos en el
cerebro humano. Especialmente se interesó por los mecs capaces de realizar el cómputo de los puntos de cruce de cero.
Marr pensó q el campo receptivo de las células ganglionares y de las células del núcleo geniculado lateral del tálamo
muestran caracs similares a las del operador utilizado por ellos que aparece en la Fig 3.17. En el apartado G y H de la Fig
3.16 hemos visto q los puntos de cruce de cero están flanqueados por valores extremos de la segunda derivada de la
función de luminancia. Marr asumió q las células del núcleo geniculado organizadas como aparece en la Fig 3.21, de forma
q un conjunto de células con centro off y entorno on estén alineadas y adyacentes a un conjunto alineado de células con
centro on y entorno off, forman la base para lograr el cómputo de los puntos de cruce de cero.
Siempre que ambas filas de células estén activas simultáneamente se producirá la presencia de puntos de cruce de cero
entre ellas. Si otro conjunto de células en un nivel de procesamiento superior recibe inf de ambas células y solamente
dispara cuando ambas están activas estas células Y actuarán como verdaderos detectores de puntos de cruce de cero. Si a su
vez estas células están sintonizadas a orientaciones diferentes y se organizan entre sí en alineamientos de una det
orientación, tendremos la base para la detección de segmentos de puntos de cruce de cero q, como hemos visto, forman en
la teoría de Marr la base sobre la cual se lleva a cabo el cómputo de las caracs primitivas. Para Marr la función q llevan a
cabo las células simples de la corteza estriada es precisamente detectar los puntos de cruce de cero como se ha explicado.
3.4. Valoración de la teoría de David Marr fue la 1ª teoría computacional de la visión general y que organizó las
principales contribuciones q las invests en inteligencia artificial habían aportado al campo de la percepción visual. En este
tema su aportación tb fue pionera y el esquema de detección de bordes basado en operadores laplacianos de una gaussiana
continúa dominando en los modelos de sistemas biológicos de detección de bordes. Más problemática para la teoría de
Marr y Hildreth fue la forma en que resuelve el problema de la integración de escalas de puntos de cruce de cero, pq nunca
dieron un algoritmo preciso. Pero la principal aportación de Marr fue la nueva forma de pensar q introdujo al teorizar sobre
la percepción visual apuntando a los problemas centrales q toda teoría debe resolver en cada nivel de procesamiento.

CONCLUSIÓN Hemos visto q en torno a la interpretación de la función de las células de la corteza estriada se han
acuñado las principales teorías de la percepción de la forma. A las invests fisiológicas de Hubel y Wiesel siguieron las
aportaciones teóricas desde la psicofísica de Campbell, Robson, Blakemore, Graham y los DeValois a favor de la defensa
de filtros de frecuencia espacial. La interpretación inicial de Hubel y Wiesel sobre el func de las células de la corteza
cerebral se hizo en términos de detectores de caracs entendiendo este término de forma demasiado simple, como la
respuesta directa de una célula a las caracs elementales del E. Cuando la invest posterior mostró la existencia de células q
respondían a caracs más complejas o incluso a objetos, se perdió la confianza en un tipo de teoría q todo lo resolviera a
base de encontrar una célula para cada objeto o parte de un objeto. La invest se orientó hacia la búsqueda de una
descripción del E q fuera elemental en sus cs básicos, aplicable de forma generalizada a todo E posible y realizable por las
células de la corteza.
T.4 EL ESPACIO TRIDMENSIONAL Explicamos cómo el sistema visual consigue una representación de espacio
tridimensional, cómo se logra recuperar la profundidad de la escena visual, pero desde una perspectiva constructivista q,
concibe la percepción visual como un conjunto de procesos q, a partir de la inf q da la luz, construye una representación de
la escena q permita reconocer los objetos. Dsd la perspectiva constructivista, la forma de abordar el proces d la profundidad
consiste en buscar en la escena bidimensional las claves o indicios q permiten alcanzar una representación tridimensional.
Una alternativa es la perspectiva ecológica ligada a las invests de Gibson. Desde este punto de vista no tiene sentido buscar
claves en una representación bidimensional pq la percepción visual es directa, no está mediada x una representación. La
percepción consiste en la extracción por el observador de la inf presente en el E y la inf acerca de la profundidad está tan
presente en la inf proporcionada por el patrón general de estimulación como cualquier otra.
1. LAS CLAVES DE PROFUNDIDAD
Las claves Monoculares, q están disponibles para cada uno de los ojos con independencia del otro:
- las claves estáticas, provenientes de una escena visual sin movimiento. Dentro de las estáticas distinguiremos:
claves oculares: tienen su origen en el func mecánico de la musculatura ocular, y
claves pictóricas: por su estrecha rel con la pintura y del dibujo.
- las claves dinámicas, provenientes de una escena visual en mov, pq hay mov en los objetos o pq se mueve el observador.
Las claves Binoculares, q resultan de la integración de la inf de los dos ojos, como la convergencia y de la estereoscopia.
1.1 Claves monoculares
1.1.1 claves estáticas Pueden ser de dos tipos, oculares y pictóricas.
1.1.1.1 claves oculares
Acomodación: cambio en la forma del cristalino para mantener la imagen del objeto focalizada sobre la retina. Cuando el
objeto está alejado del observador el cristalino tiende a disminuir de grosor y a hacerse más plano para facilitar el enfoque
de los rayos q desde el objeto llegan al cristalino en paralelo. Pero cuando se aproxima al observador, los rayos procedentes
del mismo divergen a medida q se acercan al ojo. En este caso el cristalino aumenta su convexidad aumentando de grosor y
de esta forma facilita el enfoque de la imagen sobre la retina. La forma del cristalino cambia por los músculos ciliares cuya
contracción provoca el aumento de grosor y cuya relajación lo disminuye. Si el sistema visual tiene inf sobre la tensión de
los músculos ciliares, entonces tb puede tener inf sobre la distancia a la q está el objeto focalizado.
El valor de la acomodación como indicador de distancia es efectivo sólo en distancias cortas, inferiores a 2’5m aprox.
Incluso dentro de este rango de distancia, los observadores no usan la inf sobre distancia q da la acomodación cuando
tienen q hacer juicios directos sobre la distancia de un objeto sino al hacer juicios sobre el tamaño de los objetos.
El sistema visual calcula el tamaño de los objetos tomando en cuenta la inf proporcionada por la acomodación.
Un aspecto interesante de este indicador es q da inf sobre la distancia absoluta a la q se encuentra un objeto. La mayor
parte de los indicadores monoculares de profundidad dan inf sobre la distancia relativa de los objetos señalándonos cual de
dos o más objetos está más próximo a nosotros, pero no nos informan de la distancia a la q esos objetos están de nosotros.
El conocimiento de la distancia absoluta a la que se encuentran los objetos es necesario para poder alcanzarlos con
precisión y para moverse en su entorno sin tropezar con ellos.
1.1.1.2 claves pictóricas
- perspectiva lineal: En el uso común: reglas q permite a los artistas crear proyecciones bidimensionales precisas de las
formas esquemáticas de objetos tridimensionales. El plano sobre el q se llevan a cabo esas proyecciones es el plano de
proyección y está perpendicularmente a la línea de visión q va del observador al objeto.
En la Percepción visual: las rels existentes dentro de la escena visual q subyacen a ese conjunto
de reglas y tb en parte a la percepción de la distribución espacial.
Una de las reglas más básicas de la perspectiva lineal es la convergencia de paralelas según la
cual las líneas paralelas en el espacio tridimensional se representan en dos dims por líneas q
convergen hacia un único punto llamado punto de fuga. La exp común de convergencia de las
vías de un tren cuando estando entre ellas miramos a lo lejos es tb un ej de perspectiva lineal.
Fig 4.1 el punto de fuga está en la línea del horizonte de la superficie q sirve de punto de ref
para dividir el espacio visual en dos zonas, una superior y otra inferior. En general, la línea del horizonte de una superficie
es la línea q pasa por dos o más puntos de fuga de conjuntos de líneas paralelas q se extienden en la superficie.
La perspectiva lineal basada en la convergencia de paralelas produce una compresión lateral de las superficies implicadas.
Fig 4.2 muestra el contorno de una superficie cuadrada q está inclinada con respecto a un eje horizontal en el plano frontal.
La inclinación produce en el observador una proyección trapezoidal de la superficie de
forma que el borde que se inclina hacia el observador aparece más largo que el que se
inclina lejos del observador provocando una compresión lateral que tiende a
concentrarse en el punto de fuga.
La convergencia de paralelas propia de la perspectiva lineal nos permite entender la
relación entre el punto de fuga y la orientación de los bordes de una superficie. Si se
mide la orientación de un borde por ref a un marco fijo del medio ambiente, entonces
todos los bordes q tienen la misma orientación son paralelos entre sí y la proyección de este conjunto de bordes paralelos
en el plano de proyección es un conjunto de líneas q convergen en un único punto de fuga. El punto de fuga de un borde
puede concebirse como el término final de la proyección de un borde cuando se extiende infinitamente en la distancia.
Existe, por tanto, una rel uno a uno entre el punto de fuga y la orientación de un det conjunto de bordes, de forma q para
cada orientación det de un borde hay un correspondiente punto de fuga y cada punto en el plano de proyección es el punto
de fuga de un conjunto de bordes paralelos q tienen la misma orientación. El punto de fuga de un borde contiene, x tanto,
inf específica sobre su orientación. Esta rel entre punto de fuga y orientación de los bordes no varía aunq cambie el punto
de observación; cada punto de fuga permanece fijo en su posición de correspondencia con las orientaciones fijas de los
bordes en el medio ambiente. La correspondencia entre los distintos puntos de fuga y la orientación de los bordes, cuyas
proyecciones convergen en esos puntos, contribuye a estructurar un entramado de rels altamente informativas sobre la org
tridimensional de una escena.
- altura relativa: La posición de los objetos en rel con la línea del horizonte es un importante indicador de profundidad
incluso en escenas en las q la convergencia de paralelas en un punto de fuga no está presente. Generalmente aquellos
objetos q se encuentran próximos a la línea del horizonte de una superficie bidimensional son percibidos como más
lejanos. La potencia de la altura relativa como clave de profundidad o de distancia depende de la presencia de un marco de
ref q, por lo general, es la línea del horizonte. El efecto de profundidad se acentúa por la presencia de textura dentro del
marco de ref. En ausencia de un marco de ref, el efecto de profundidad queda casi anulado.
- perspectiva aérea: cambios en contraste y en color q experimenta la percepción de los objetos cuando están a gran
distancia del observador. El contraste tiende a reducirse haciendo q la imagen de los objetos aparezca más borrosa debido a
la dispersión de la luz q provocan las partículas de polvo y agua suspendidas en la atmósfera. Con respecto al color, la
lejanía de los objetos tiende a acentuar las tonalidades azuladas debidas tb a q las longitudes de onda cortas son más
fácilmente perturbadas por las partículas suspendidas en la atmósfera q las de onda largas y por lo tanto experimentan una
dispersión mayor.
- tamaño relativo: si dos objetos son presentados en el campo visual simultáneamente o en próxima sucesión, aquel que
produce una imagen retiniana mayor, parecerá estar más cerca. En la Fig 4.2 la influencia de la perspectiva lineal para
producir profundidad en la percepción, se ve reforzada por el tamaño relativo de los dos segmentos horizontales q forman
parte del trapezoide. El segmento largo aparece más cercano al observador que el corto. En este ej, los dos segmentos están
conectados, pero no es preciso que exista conexión para que esta clave de profundidad tenga efecto.
- tamaño familiar: experimentos que han utilizado objetos familiares para los participantes, tales como cartas de una
baraja o monedas de uso corriente, han puesto de manifiesto que, si se conoce el tamaño real de un objeto, el tamaño de la
imagen proyectada sobre el observador es un buen indicador de la distancia a la que se encuentra el objeto. El tamaño
familiar es un ejemplo claro de la influencia que la experiencia puede tener sobre los procesos de percepción.
- gradiente de textura: casi todas las superficies tienen una estructura q consta de unidades o elementos, relativamente
homogéneos en tamaño y forma, distribuidos por la superficie con relativa regularidad. A la cualidad producida por este
tipo de estructura se le da el nombre de textura. La distribución de granos de arena en una playa y la de las baldosas de un
cuarto de baño son ejs de superficies con texturas diferentes. Gradiente: es la proporción en q una det propiedad cambia a
lo largo de un continuo. El gradiente de textura hace ref al cambio gradual q la percepción de la textura de una superficie
experimenta a medida q ésta está más alejada del observador. Los principales cambios afectan al tamaño de los elementos,
q se hacen progresivamente más pequeños, y a la densidad de los mismos, que aumenta a medida q la superficie se aleja.
La Fig 4.3 A un ej de superficie en la q el gradiente de textura proporciona una fuerte
sensación de profundidad.
Además de informar sobre la profundidad, el gradiente de textura tb puede dar inf sobre otras
caracs de la superficie, como su orientación en profundidad o su curvatura. En la fig anterior,
imagen B, se muestra cómo un cambio en el gradiente puede informar sobre la existencia de
una esquina, mientras q en C, la ruptura entre los dos gradientes proporciona inf sobre la
existencia de un borde. Gibson, q formuló la aproximación ecológica al estudio de la
percepción, consideró que el gradiente de densidad de textura es uno de los aspectos de la
estimulación que mayor inf proporciona sobre la profundidad porque afecta a la estructura
general del patrón estimular. El gradiente de densidad de textura proporciona una escala
absoluta de distancia respecto a la que se puede medir toda otra distancia.
- sombreado y sombras. La posición relativa existente entre la fuente de la iluminación, las superficies iluminadas y el
observador, determina la cantidad de luz q acaba llegando al ojo del último. Sombreado hace ref a los cambios en el
patrón de luminancia q se produce como consecuencia de la variación en el ángulo q forman la luz q incide sobre una
superficie y la superficie misma. Existen diferentes tipos de sombreado:
- sombreado especular el propio de superficies brillantes como un espejo y depende fund de la posición del observador y
de la dirección de la iluminación.
- sombreado difuso o Lambertiano el propio de las superficies mate cuya reflectancia es igual en todas las direcciones.
La cantidad de luz reflejada por cada punto de la superficie depende de su orienración respecto a la fuente de luz, siendo
máxima en los puntos en q la luz incide perpendicularmente sobre la superficie. Por ello, cuando superficies de la misma
reflectancia presentan ángulos diferentes respecto a la misma fuente de iluminación, pueden dar lugar a bordes de
iluminación. El sombreado es un potente indicador de los aspectos volumétricos de las formas, en particular sus
concavidades y convexidades. Gibson llamó la at sobre el hecho de q la percepción de una escena tiende a organizarse
como si estuviera iluminada x una sola fuente de luz y desde arriba. Probablemente este supuesto interpretativo actúa como
una constricción en el sistema perceptivo y es el resultado de un largo proceso evolutivo de adaptación
al medio terrestre.
La Fig 4.4 ilustra la fuerza de este supuesto en un caso relativamente simple. Los objetos circulares de
la fila superior aparecen como bultos convexos que se aproximan hacia el observador, mientras que los
de la fila inferior aparecen como pequeñas concavidades que tienden a alejarse del observador. El
efecto es perfectamente reversible si el lector da la vuelta a la página.
Este cambio se debe al supuesto q estamos comentando de q los objetos circulares están recibiendo la luz de una misma
fuente situada sobre ellos. Los objetos circulares iluminados en su parte superior y obscurecidos en su inferior son
percibidos como convexos, ya q su patrón de sombreado corresponde al de un objeto esférico iluminado desde arriba. En
los obscurecidos en su parte superior e iluminados en su inferior, el patrón de sombreado corresponde al de una concavidad
iluminada desde arriba y en consecuencia son percibidos como una oquedad. Ramachandran ha puesto de manifiesto que el
supuesto que parece realmente enraizado en nuestro sistema visual es el de la existencia de una sola fuente de luz. La
localización de la fuente depende para su determinación de diferentes fs que interactúan entre sí.
La Fig 4.5 presenta un ej proporcionado por este autor. Las máscaras que aparecen son en efecto
máscaras, pero fotografiadas por su lado cóncavo, el que se ajusta a la cara de la persona que se la
pone, e iluminadas desde arriba. Sin embargo son claramente percibidas como máscaras vistas
por su lado convexo e iluminadas desde abajo. El efecto pone de manifiesto la importancia que
factores tales como la experiencia previa y el contexto pueden tener en la determinación de
nuestra percepción. En este caso, ante un estímulo extraño como es el lado cóncavo de una máscara, nuestro sistema visual
prefiere ver caras normales convexas aunque para ello tenga que asumir que la luz viene de abajo. El efecto del contexto
puede comprobarse si fijamos nuestra atención sobre los dos círculos que aparecen entre las dos máscaras. Si aislamos su
percepción del influjo de las caras tapándolas, el círculo de la izquierda tiende a percibirse como cóncavo y el de la derecha
como convexo, de acuerdo con una percepción que asume que la fuente de luz viene de arriba. Sin embargo, cuando los
dos círculos se incluyen en las caras, donde predomina la percepción de la iluminación desde abajo, el cír· culo de la
izquierda aparece convexo, parecido a un bulto en la cara, y el de la derecha cóncavo.
Una sombra cuando un objeto se interpone entre una fuente de iluminación y una superficie, proyecta sobre ésta una
sombra que proporciona inf sobre la escena tridimensional. La forma de la sombra depende de: la proximidad de la fuente
de iluminación, su dirección, la forma del objeto que proyecta la sombra, el relieve de la superficie sobre la que es
proyectada y la posición relativa entre la fuente, el objeto y la superficie. La sombra puede estar unida al objeto o separada
del mismo. Las sombras unidas al objeto indican que el objeto está apoyado sobre la superficie.
Fig 4.6 dos escenas iguales en todo, excepto en la posición de las sombras respecto al objeto
que las produce. En A, las sombras están unidas al objeto, lo que provoca la percepción de
las esferas como si estuvieran descansando sobre la superficie y alineadas diagonalmente en
profundidad de izquierda a derecha. En B las sombras se van separando de los objetos y
permanecen alineadas en dirección perpendicular a la línea de visión dando ocasión a una
percepción de las esferas como si estuvieran a diferentes alturas respecto de la superficie
pero en el mismo plano frontal.
- interposición: los objetos q están más alejados pueden quedar total o parcialmente ocultos
a un observador por otros objetos interpuestos en la línea de visión. Cuando un objeto
aparece parcialmente encubierto, nuestro sistema visual tiende a percibir como más alejado
al objeto tapado y como más cercano al interpuesto. La interposición es uno de los más potentes indicadores de
profundidad aunq se limita a darnos inf ordinal sobre la distancia de los objetos en relación al observador. Si el objeto A
oculta al objeto B y éste, a su vez, oculta a C entonces C es el más alejado del observador y A es el más cercano. La
interposición no nos informa de la magnitud de las distancias entre los objetos y el observador.
1.1.2 Claves dinámicas
El movimiento del observador y de los objetos da lugar a nuevas claves de profundidad y de distancia. El estudio de la
percepción del movimiento tiene una gran importancia en sí mismo y por ello le dedicamos un cap.
1.1.2.1. Paralaje de movimiento. Cuando un observador se mueve en dirección lateral, ej: de derecha a izquierda, con
respecto a su campo de visión, los objetos que se encuentran a distancias diferentes proyectan unas imágenes en la retina
que se mueven en sentido y a velocidades diferentes. Paralaje de movimiento: el desplazamiento diferencial de las
imágenes, proyectadas por distintos objetos, debido a un cambio lateral en la posición del observador y a la distancia
relativa de los objetos con respecto al punto de fijación.
Una forma sencilla de entender esta claveconsiste en colocar el dedo pulgar de cada mano a distintas distancias en la línea
de visión y alinearlos con un tercer objeto más alejado que sirva de ref. Si en esa sit, con los dedos y el objeto a distintas
distancias en la misma línea de visión y el punto de fijación situado en el objeto más alejado, movemos la cabeza hacia la
derecha, notaremos que los dos dedos se mueven hacia la izquierda en relación con el tercer objeto pero que el dedo más
cercano se mueve más lejos y más rápidamente. Si movemos la cabeza hacia la izquierda, el movimiento de los dedos
respecto al objeto cambiará de sentido pero, de nuevo, el dedo más cercano se moverá más lejos y más rápidamente. En
general, los objetos más cercanos parecen desplazarse más lejos y a mayor velocidad mientras que para los más alejados el
desplazamiento es menor y más lento. Pero el sentido del mov no depende únicamente de la distancia a la q están los
objetos sino también de la posición del punto de fijación. Los objetos que están situados en una posición más cercana al
observador que aquella en la que cae el punto de fijación, se mueven en sentido contrario al observador, mientras que los
situados en una posición más alejada que el punto de fijación se mueven en el mismo sentido que el observador. Si no ha
bajado usted los dedos, compruebe este efecto fijando ahora la mirada en el dedo que está entre el objeto que antes servía
de punto de referencia y el dedo más cercano a usted. Observe cómo el objeto más alejado se desplaza en el sentido del
movimiento de su cabeza, mientras que el dedo más cercano a usted lo hace en sentido contrario.
El paralaje de mov es una clave de profundidad muy efectiva a grandes distancias incluso cuando no están presentes otras
claves de profundidad. Pero su efectividad aumenta cuando la inf espacial es rica y proporciona varios puntos de ref.
1.1.2.2. Flujo óptico. Para Gibson el análisis de la clave que hemos llamado paralaje de movimiento no es más que una
consideración par- cial de un patrón global de estimulación que él denominó flujo óptico. Con este término Gibson quiso
poner el énfasis en la necesidad de tomar en consideración las transformaciones del patrón global de estimulación cuando
un observador se mueve en el medio ambiente. Como vimos anteriormente en el estudio de la textura, también en este
contexto Gibson acentuó la importan- cia de los gradientes de movimiento refiriéndose a los cambios graduales en
velocidad y dirección que tienen lugar en la escena visual.
La Figura 4.7 presenta un esquema del flujo óptico de
una escena cuando el observador se mueve lateralmente
de derecha a izquierda con la mirada fija en el punto
central (F) de la escena.
Las flechas del esquema son vectores que indican, con
su punta el sentido de las distintas direcciones que corren
paralelas unas a otras, y con su longi- tud la mayor o
menor velocidad del conjunto de puntos organizados en
una determinada dirección. Como vimos al hablar de la
clave paralaje de movimiento, el sentido del movimiento
para todos los puntos que se encuentran por delante del punto de fijación es contrario al sentido del movimiento del
observador, mientras que el de los puntos que se sitúan por detrás del punto de fijación es igual que el del observador.
Además, el esquema hace explícita la representación del gradiente de velocidad presente en la escena, donde la velocidad
se va haciendo menor a medida q las direcciones se aproximan al punto de fijación y aumentan a medida q se alejan.
El análisis del flujo óptico cuando el movimiento del observador es lateral respecto de la escena no produce resultados muy
diferentes del análisis del paralaje de movimiento, aunque es importante tomar en consideración el valor informativo de los
gradientes. Una aportación más original de Gibson fue el análisis del flujo óptico cuando el movimiento del observador se
dirige directamente hacia un objeto o se aleja de él en el plano frontal. Al acercarse a una superficie u objeto, se produce un
fenómeno de expansión óptica consistente en que el punto de fijación permanece estático en la fóvea mientras que el resto
de puntos en el campo visual divergen hacia su exterior en todas las direcciones a partir del punto de fijación y a una
velocidad que es tanto mayor cuanto más alejados están del punto de fijación. Cuando la velocidad de expansión es alta, el
patrón de expansión produce la impresión de que la superficie se echa encima del observador. Por el contrario, cuando el
movimiento consiste en alejarse de un punto de referencia, el patrón que se produce es de contracción óptica en el que los
puntos del campo visual tienden a converger hacia el punto de fijación (ver Fig 5.9).
Los patrones de flujo óptico pueden resultar muy complejos y difíciles de analizar en términos matemáticos. Los ejemplos
que acabamos de estudiar permiten entender la naturaleza de estas claves de carácter global, que forman parte de la
contribución de Gibson al estudio de la percepción espacial.
1.1.2.3. El Efecto de profundidad cinética. No sólo resultan informativos respecto a la distancia o a la profundidad los
cambios en el flujo óptico producidos por el movimiento del observador, también los cambios en el patrón de estimulación
producido por el movimiento de un objeto pueden proporcionar inf sobre la profundidad. Un efecto q ha sido muy
investigado en la psicología de la percepción visual y q ejemplifica lo que acabamos de afirmar es el efecto de
profundidad cinética q Wallach y O'Connell mostraron por primera vez. Lo entenderemos mejor x referencia a la Fig 4.8
La sit q genera la estimulación es parecida a la usada para producir sombras chinescas.
Un objeto, en este caso un palo, colocado perpendicularmente sobre un eje vertical, que
puede hacerse rotar, se sitúa entre una fuente de iluminación y una pantalla traslúcida
sobre la que se proyecta la sombra del objeto. El observador se encuentra al otro lado de
la pantalla de forma que sólo es capaz de ver las sombras del objeto proyectadas en la
pantalla. Cuando el objeto está estático, no se percibe profundidad alguna, solamente la
sombra bidimensional del palo. Cuando se hace rotar el objeto en torno al eje vertical, la
sombra del palo aparece rotando tb en profundidad. Lo realmente curioso en este efecto
es q el patrón bidimensional de cambios en la sombra proyectada en la pantalla consiste
en una sucesión de líneas que varían en longitud y en orientación pero lo que el observador percibe no son las
deformaciones bidimensionales de un conjunto de líneas sino la forma invariante de un palo que rota en profundidad sobre
un eje. El hecho es que, de entre las distintas interpretaciones perceptivas que la estimulación puede tener, el sistema visual
impone una determinada: la de una forma rígida rotando en profundidad. Parece como si el sistema visual estuviera
sesgado a favor de esa forma de percibir mientras los datos que proporciona la estimulación sean consistentes con ella.
Se han dado varias explicaciones de carácter general a este fenómeno.
Los psicólogos de orientación empirista opinan que el sesgo está det por la experiencia ya que la rotación de formas rígidas
es más frecuente en el medio ambiente que las deformaciones plásticas bidimensionales. Los psicólogos de la Gestalt
opinan que la interpretación en términos de una forma rígida que rota es más simple. La verdad es que no tenemos un por
qué satisfactorio para este efecto, pero el efecto es robusto y demuestra sin lugar a dudas que el sistema visual es capaz de
recuperar la forma y el movimiento en profundidad de los objetos a partir de los cambios en longitud y en orientación de
formas bidimensionales. El efecto de profundidad cinética es un buen ejemplo del carácter constructivo de la percepción a
partir de una estimulación ambigua.
1.2. Las Claves binoculares
Son las q dan inf sobre la distancia combinando inf de cada uno de los ojos.
1.2.1. Convergencia binocular. Cuando fijamos la vista en un objeto, las líneas de visión de cada uno de los ojos
convergen en el punto de fijación. El ángulo de convergencia es el ángulo formado por estas líneas con vértice en el punto
de fijación. Su tamaño varía en función de la distancia a la q está el punto de fijación. Si el objeto se aproxima a nosotros,
el ángulo de convergencia tiende a hacerse mayor, y si el objeto se aleja, el ángulo tiende a disminuir.
La convergencia binocular, al igual que la acomodación, es una clave fisiológica porque el tipo de inf que proporciona se
refiere a los ajustes oculomotores que controlan la posición de los ojos.
Figura 4.9 ayuda a entender la forma en que la desviación de los ojos necesaria para producir
la convergencia binocular puede proporcionar inf sobre la distancia a la q está un objeto.
En la fig, el punto de fijación está en el punto P donde convergen las líneas de visión del ojo
derecho D e izquierdo I. La distancia a la que se encuentra el objeto está representada por la
línea discontinua (d), mientras que la distancia I- D corresponde a la distancia interpupilar q
en el adulto medio es de unos 65 milímetros. Sobre la base de las relaciones angulares que
aparecen en la figura puede calcularse la distancia a la que está el objeto. De forma sencilla,
puede considerarse la distancia interpupilar como el arco de un círculo y la distancia (d) como
su radio, con lo cual resulta que el valor del ángulo C: C = 65 / d
cuando C se expresa en radianes. El valor de C en esa ecuación puede conocerse ya que es
igual a la suma de los ángulos Ci + Cd que son los ángulos correspondientes a la desviación
de cada ojo al converger sobre el punto de fijación.
La ecuación muestra que el ángulo de convergencia puede ser usado por el sistema visual
para determinar la distancia al punto de fijación. Ahora cabe preguntarse si de hecho el
sistema visual utiliza esa inf. La respuesta es afirmativa pero solamente para distancias cortas.
porque la variación en el ángulo de convergencia sólo tiene lugar en distan- cias no superiores
a uno o dos metros. Más allá de los tres metros de distancia la posición de los ojos no cambia
por mucho que el objeto se aleje.
Normalmente la convergencia binocular actúa conjuntamente con la acomodación. A medida que un objeto se aleja, tanto
la convergencia como la acomodación varían por eso resulta difícil estudiar el papel de una de las claves y mantener
constante la otra. Podría parecer q tapando un ojo al observador anularíamos la influencia de la convergencia y aislaríamos
el efecto de la acomodación pero incluso en una situación así continúa funcionando el mecanismo de convergencia. Al
parecer, la inf proporcionada por la acomodación del cristalino del ojo no tapado es suficiente para guiar al mec de
convergencia. En conclusión, tanto la convergencia como la acomodación son claves útiles en distancias cortas y dan inf
sobre la distancia absoluta a la que se encuentra un objeto, cosa que pocas claves de distancia proporcionan.
1.2.2. La estereoscopia
La estereoscopia es una clave que nos proporciona información acerca de la distancia relativa de los objetos sobre la base
del desplazamiento lateral que la proyección de un objeto experimenta en las retinas de los dos ojos. En este apartado,
primero explicaremos los conceptos que nos ayudarán a caracte- rizar esta clave, posteriormente expondremos los
procedimientos utilizados en su estudio y terminaremos con una aproximación a los mecanismos que la producen. La
estereoscopia ha sido una de las claves cuyo estudio ha atraído en mayor medida el interés de los investigadores, por ello
merece la pena que le dediquemos una atención especial.
- conceptos fundamentales:
En la Figura 4.9 la imagen del punto de fijación (P) se proyecta en el centro de la fóvea de cada una de las dos retinas, la
derecha y la izquierda. Los puntos de cada retina sobre los que cae la proyección se llaman puntos correspondientes
porque, si superpusiéramos la retina de un ojo sobre la retina del otro, los puntos coincidirían. En general, un punto a en la
retina derecha y un punto b en la retina izquierda son puntos correspondientes cuando ambos tienen la misma posición en
su respectiva retina. No sólo son puntos corres- pondientes los que, situados en las fóveas, reciben estimulación del punto
de fijación, cada punto de una retina tiene su correspondiente punto en la otra. La estimulación de puntos correspondientes
en las dos retinas provoca fusión binocular puesto que el objeto es visto como un único objeto en el espacio a pesar de ser
dos los puntos estimulados en las retinas.
Horópter. Recibe este nombre el conjunto de puntos en el espacio visual que, dada una determinada fijación ocular,
proyectan su imagen en puntos correspondientes de las dos retinas. Hay que notar que el horópter se define en relación al
punto de fijación y por lo tanto cambia cuando cambia el punto de fijación. Aún así, desde el siglo diecisiete los
investigadores han tratado de estudiar la forma que tiene.
Desde una aproximación teórica, basada en la óptica geométrica, supo- niendo que los ojos son esferas perfectas y que
rotan en torno a ejes que solamente pasan por el punto nodal de cada ojo5, el horópter longitudinal, que se define en el
plano horizontal, está constituido por una circunferencia que pasa por el punto de fijación y por el punto nodal de cada ojo.
Esta cir- cunferencia suele conocerse como circunferencia de Vieth-Müller en honor de quienes la propusieron por primera
vez. En el plano vertical, el horópter vertical está definido por la recta perpendicular al plano de visión.
Cuando se determina empíricamente el conjunto de puntos del espacio visual que, para una determinada fijación ocular,
proyectan su imagen en puntos correspondientes de las dos retinas, los resultados muestran desviaciones sistemáticas
respecto a la posición de los puntos determinada teóricamente. La Figura
4.10 muestra con líneas discontinuas las desviaciones tanto para el
horópter longitudinal como para el vertical.
Como puede verse, el horópter vertical tiende a estar inclinado en la di-
rección de la línea de visión, alejándose del observador por encima del
punto de fijación y acercándose a él por debajo del punto de fijación. El
horópter longitudinal tampoco se ajusta a la predicción sino que tiende a
quedarse en una posición próxima a la circunferencia de Vieth-Muller
pero desviada en dirección a la línea que pasa por el punto de fijación y
es paralela a la distancia interocular6 •
Disparidad Binocular. Cuando un punto en el espacio visual no
proyecta su imagen en puntos correspondientes de las dos retinas, las imágenes del ob- jeto en cada uno de los dos ojos
resultan tanto más diferentes cuanto mayor es el desplazamiento lateral de una proyección respecto de la otra. Este des-
plazamiento relativo de las dos proyecciones recibe el nombre de disparidad binocular. El fenómeno puede hacerse
patente si repetimos el ejercicio que realizamos al estudiar el fenómeno de paralaje de movimiento. De nuevo po- demos
alinear nuestros dos pulgares con un tercer objeto más lejano que nos
sirva de punto de fijación pero esta vez lo hacemos cerrando el ojo izquierdo y apuntando con el ojo derecho. En estas
condiciones, cuando los dedos y el objeto están bien alineados, cerramos el ojo derecho y abrimos el izquierdo. Veremos
que los tres objetos han dejado de estar alineados y que los dedos se han desplazado hacia la derecha de la línea de visión,
siendo el desplazamiento del dedo más cercano mayor que el del dedo en posición intermedia. La ligera diferencia entre la
visión de la escena proporcionada por el ojo derecho y por el izquierdo está ocasionada por las distintas proyecciones que
reciben debido a la separación existente entre ellos. Si repetimos el ejercicio pero situando el punto de fijación en el dedo
más próximo a nosotros veremos que al cerrar el ojo derecho y abrir el izquierdo tanto el dedo en posición intermedia
como el objeto lejano se desplazan a la izquierda de la línea de visión y en este caso el des- plazamiento del objeto lejano
es mayor que el del dedo en posición intermedia.
El fenómeno de la disparidad binocular es parecido al fenómeno de paralaje de movimiento; de hecho fue denominado
paralaje binocular en los comienzos de la psicología experimental. No obstante se diferencian en que el desplazamiento
de la imagen en la disparidad binocular está fijado por la distancia interocular, mientras que en la clave de paralaje de
movimiento el des- plazamiento de la imagen depende de la amplitud del movimiento lateral que realice el observador.
Además, en la disparidad binocular el desplazamiento de las imágenes es simultáneo mientras que en la clave de paralaje
de movimiento el desplazamiento de las imágenes es sucesivo. Obsérvese, por tanto, que el ejemplo que estamos utilizando
de alineamiento de los dedos pulgares con un objeto alejado es, en sentido estricto, un ejemplo de paralaje de movimiento
que produce sucesivamente un desplazamiento de la imagen igual al desplaza- miento simultáneo producido por la
disparidad binocular.
La disparidad binocular puede proporcionarnos información respecto a la posición de los objetos en el espacio
tridimensional, tanto por medio del sentido del desplazamiento que produce, como por la magnitud del mismo. El sentido
de la disparidad nos informa de la posición del objeto respecto al punto de fijación. Si repetimos el ejercicio que hemos
realizado anterior- mente, de alineación de los dedos con un objeto alejado, apuntado ahora la mirada hacia el dedo situado
en posición intermedia, veremos que al cerrar el ojo derecho y abrir el izquierdo el objeto lejano se desplaza a la izquierda
de la línea de visión mientras que el dedo más cercano se desplaza a la derecha. En general, el desplazamiento de los
objetos más próximos que el punto de fijación se produce en sentido contrario al desplazamiento de las imágenes
producido por nuestro abrir y cerrar de ojos, y por ello se le da el nombre de disparidad cruzada. Por el contrario, los
objetos más alejados de nosotros que el punto de fijación se desplazan en el mismo sentido que el del desplaza- miento de
las imágenes y por ello la disparidad que producen se denomina no cruzada. La Figura 4.11 presenta la situación de
desplazamiento simultáneo de la imagen propia de la disparidad binocular.
En la figura, el punto de fijación está situado en P. Los puntos más cerca- nos al observador
que el punto de fijación, que dan origen a una disparidad cruzada, como es el caso del punto
C, producen el desplazamiento de sus pro- yecciones hacia la zona lateral de las retinas. Por
otra parte, los puntos más alejados del observador que el punto de fijación, que dan origen a
disparidad
no cruzada, como es el caso del punto F, producen el desplazamiento de sus proyecciones
hacia la zona nasal de las retinas.
Finalmente, la magnitud del desplazamiento es un indicador cuantitativo de la distancia a la
que se encuentra un objeto: a medida que un objeto se ale- ja del punto de fijación
aproximándose al observador, su disparidad cruzada aumenta, y a medida que un objeto se
aleja del punto de fijación alejándose también del observador, su disparidad no cruzada
aumenta. El aumento de la disparidad cruzada está, por tanto, asociado con una
aproximación del objeto al observador y el aumento de la disparidad no cruzada está
asociado con un alejamiento del objeto respecto al observador. Y, a la inversa, la
disminución de la disparidad cruzada está asociada con un alejamiento del objeto respecto
al observador mientras que la disminución de la disparidad no cruzada está asociada con un acercamiento del objeto al
observador.
La disparidad binocular puede producir dos efectos perceptivos diferentes dependiendo de su magnitud. Puede producir
estereoscopia o puede producir imágenes dobles que ponen en marcha un proceso de rivalidad binocular. Cuando la
disparidad es pequeña, las imágenes de los dos ojos se fusionan en una sola pero situada a una distancia del observador
diferente de la distancia que corresponde al horópter. Esta diferencia en profundidad es lo que se denomina estereoscopia.
En pocas palabras, podemos definir estereoscopia como la percepción de la profundidad producida por la disparidad
binocular. Dependiendo de la dirección de la disparidad los objetos aparecen por delan- te o por detrás del horópter
longitudinal. La disparidad cruzada produce la
percepción del objeto por delante del horópter mientras que la disparidad no cruzada produce la percepción del objeto por
detrás del horópter. En ambos casos, la dirección de la línea de visión al objeto fusionado es el promedio de las direcciones
visuales predichas a partir de las dos imágenes monoculares.
- Procedimientos estereoscópicos: La investigación de la estereoscopia ha estado relacionada con la invención y
utilización de estereogramas, que son pares de imágenes prácticamente iguales pero que difieren en el des- plazamiento
lateral de sus elementos. Cada imagen del par recibe el nombre de media-imagen. Cuando cada media-imagen estimula un
ojo diferente al mismo tiempo, la imagen fusionada produce una ineludible sensación de pro- fundidad. Los estereogramas
fueron inventados hacia 1838 por Wheatstone, que también inventó el estereoscopio, aparato que permitía la presentación a
cada ojo por separado de los componentes de un estereograma. La Figura 4.12 presenta un
ejemplo de estereograma tradicional en el que las dos me- dias-imágenes están desplazadas hacia
el exterior.
Si cada media-imagen es presentada simultáneamente a un ojo diferente8, se producirá la
segregación de la imagen fusionada en tres planos diferentes de profundidad. Los pequeños
cuadrados aparecerán por delante de los cír- culos y estos, a su vez, por delante de los cuadrados
grandes. Esta posición relativa de las figuras geométricas se debe a que el desplazamiento de las
imágenes del estereograma se ha realizado hacia el exterior (disparidad cruzada). Si el
desplazamiento hubiera sido hacia el interior, en sentido nasal (dispari- dad no cruzada), entonces
el orden de aparición de las figuras hubiera sido el inverso; primero los cuadrados grandes,
después los círculos y más alejados los cuadrados pequeños.
Hasta los años 60, se utilizaron estereogramas tradicionales como el de la Fig 4.12. Hasta
entonces se pensaba q la percepción estereoscópica de la profundidad era la consecuencia de la
disparidad retiniana del contorno y de los bordes de cada media-imagen. En consecuencia, se
pensaba tb q la percepción monocular de la forma era un requisito previo para q tuviera lugar la
fusión binocular. Para el sistema visual, el problema fundamental a resolver, q es el llamado
problema de la correspondencia, quedaba así muy simplificado.
- El problema de la correspondencia. uno de los problemas principales q tiene que resolver el sistema visual para poder
fusionar las dos imágenes monoculares es determinar qué puntos o partes de la imagen de un ojo corresponden a qué
puntos o partes de la imagen del otro ojo. Este es el llamado problema de la correspondencia. Para la concepción trad de la
estereoscopia este problema estaba relativamente simplificado pq -se suponía- la forma y los bordes de la imagen
monocular podían guiar el proceso de fusión de la imagen estereoscópica. La revolución en el estudio de la estereoscopia
se produjo cuando Julesz demostró q se podía producir estereoscopia usando estereogramas de puntos aleatorios.
- Estereogramas de puntos aleatorios. consiste en una pareja de medias-imágenes, cada una de las cuales consiste en
miles de puntos colocados aleatoriamente, cuyo desplazamiento lateral produce una fuerte sensación de profundidad
cuando las dos medias-imágenes se ven estereoscópicamente. Julesz construyó sus primeros estereogramas generando por
medio de un ordenador un patrón de puntos en una matriz bidimensional de 100 x 100. Cada celda de la matriz estaba
ennegrecida (esto generaba un punto) o se dejaba en blanco de acuerdo con una secuencia puramente aleatoria. Esta matriz
era la media-imagen de uno de los ojos, supongamos que el derecho. La correspondiente al otro ojo era idéntica a la
anterior excepto que los puntos correspondientes a una pequeña submatriz rectangular situada en el centro habían sido
desplazados una columna en sentido lateral. Este proced tiene la virtud de mantener las propiedades relacionales de los
puntos de la matriz grande inalterados mientras q proporciona a los puntos de la submatriz una disparidad retiniana
correspondiente a una columna. La visión estereoscópica de este estereograma provoca la percepción de una superficie
rectangular (la submatriz) situada a distinto nivel de profundidad q la matriz grande.
Fig 4.13 estereograma de puntos aleatorios construido en la forma que
acabamos de describir. Si se utiliza un proced de convergencia ocular
cruzada para conseguir la fusión de las imágenes, se verá un cuadrado
pequeño que se destaca por delante de un fondo formado por el resto de
puntos.
Los estereogramas de puntos aleatorios demostraron q la forma y los
bordes de la imagen monocular no son necesarios para guiar la
resolución del problema de la correspondencia. Es suficiente una mera
disparidad de puntos para que se produzca la segregación de una imagen
o de una escena en diferentes planos de profundidad. Por otra parte, estos estereogramas tb ponen de manifiesto que la
estereoscopia no es un resultado tardío en el procesa- miento de información visual, que necesite un procesamiento previo
de la forma de las imágenes monoculares. Más bien, la estereoscopia, al menos en sus primeras fases, aparece como un
proceso que tiene lugar relativamente pronto y que incluso proporciona información sobre la forma de los objetos.
- Características de la estereoscopia humana. La sensibilidad estereoscópica de nuestro sistema visual es muy grande.
La investigación experimental coincide en afirmar que, bajo las mejores condiciones perceptivas, la agudeza
estereoscópica se encuentra en el rango de los dos a los seis segundos de ángulo. También se ha encontrado que la
sensibilidad es mayor para la disparidad cruzada que para la no cruzada. Con todo, la sensibilidad estereoscópica depende
de factores espaciales tales como la excentricidad de los estímulos y la distancia entre los estímulos y el punto de fijación.
Para las dos variables, excentricidad y distancia, la sensibilidad disminuye cuando aumentan sus valores.
En el otro extremo, la magnitud de disparidad dentro de la cual se produce estereoscopia está limitada a un área en torno al
horópter que se conoce con el nombre de área de fusión de Panum. El tamaño de esta área de fusión no es igual para todo
el horópter sino que es menor en el entorno del punto de fijación que en la periferia. Es de algo menos de 10’ de ángulo
para la visión central y alcanza valores por encima de los 30’ de ángulo a partir de una distancia de unos 15º en la periferia.
Fig 4.14 muestra el área de fusión de Panum y su relación con el horópter.
Tb muestra las proyecciones de dos puntos en el horópter, uno (F) corresponde al
punto de fijación y el otro (A) se encuentra en el horópter pero proyecta fuera de la
fóvea_ Obsérvese que las proyecciones de A, que son a y a', proyectan sobre
puntos correspondientes en las dos retinas. No ocurre así con el punto B cuyas
proyecciones (by b') muestran una considerable disparidad cruzada.
La interpretación clásica del área de Panum ha considerado, siguiendo a este autor,
que el área representaba propiedades fijas de una región det de la retina. Hoy
sabemos q esta concepción es errónea pues tanto el tamaño como la forma del área
de Panum dependen tanto de las características del estímulo como del proced
utilizado para medirla. Ej: Schor, Word y Ogawa encontraron q los objetos grandes
tenían áreas mayores q los pequeños y lo mismo ocurría con las imágenes borrosas
comparadas con las más nítidas. El área de Panum presenta unas características dinámicas considerables y depende de
mecanismos perceptivos de considerable complejidad. Por tanto, las cifras que hemos dado anteriormente sobre sus
dimensiones deben tomarse sólo como una orientación referida a condiciones típicas de medición.
- Mecanismos fisiológicos de la estereoscopia. El hallazgo de neuronas en la corteza visual primaria (V1) que respondían
de forma selectiva a la disparidad binocular tuvo lugar en 1967 y se debió a las invests de Barlow, Blakemore, y Pettigrew.
Con posterioridad se han encontrado células selectivas a la disparidad en otras áreas de la corteza cerebral como V2 y V3.
Como su mismo nombre indica, estas neuronas muestran alta tasa de disparo cuando un determinado estímulo incide en
puntos de las dos retinas que no son correspondientes. Unas células responden preferentemente a niveles de disparidad
bajos, mientras que otras lo hacen a niveles de disparidad altos. De forma parecida unas responden preferentemente a la
disparidad cruzada mientras que otras lo hacen a la no cruzada. De entre las múltiples invests psicofisiológicas sobre la
estereoscopia merece la pena destacar, por su cuidadoso carácter cuantitativo, las realizadas recientemente por DeAngelis,
Cumming y Newsome en el área temporal medial (MT) de monos. Descubrieron que en esta zona existía una clara org
funcional de la estereoscopia que presentaba 3 características funds:
l. Las neuronas selectivas a la disparidad estaban organizadas en columnas de acuerdo con valores particulares de
disparidad, de forma que las neuronas que mostraban preferencia para una det disparidad binocular formaban parte de la
misma columna.
2. Las neuronas selectivas a la disparidad estaban agrupadas a lo largo de MT formando como una especie de parches
intercalados con otros que no mostraban selectividad a la disparidad.
3. Finalmente, en los parches con buena selectividad a la disparidad, la disparidad preferida variaba de forma gradual y
continua de columna a columna a lo largo de la superficie de MT
Estos resultados indicaban que el área MT contenía un mapa de disparidad binocular, pero DeAngelis y cols quisieron
comprobar que efectivamente las neuronas pertenecientes a este mapa estaban implicadas en la percepción de la
profundidad y para ello estimularon eléctricamente grupos de neuronas mientras los monos realizaban una tarea de
discriminación de la profundidad utilizando estereogramas de puntos aleatorios estáticos. El uso de estereogramas estáticos
era importante porque MT es un área que tb contiene neuronas especializadas en el procesamiento del mov. Los resultados
mostraron q la microestimulación provocaba un sesgo sistemático en los juicios perceptivos de los monos en la dirección
de la disparidad preferida por las neuronas que eran estimuladas. Por tanto, en el área MT se originan señales relevantes
para la percepción de la profundidad estereoscópica.
1.2.3. Rivalidad binocular
Hemos visto que la disparidad binocular, siempre que no sobrepase la magnitud indicada por el área de Panum, produce
estereoscopia. Cuando la disparidad es grande y sobrepasa los valores de dicha área se producen imágenes dobles aunque
por lo general la experiencia consciente de las dos imágenes, fenómeno que se denomina diplopía, no llega a producirse.
La razón de que no se produzca se debe a que las imágenes dobles provocan un fenómeno de rivalidad binocular en el que
ambas imagen parecen competir por acceder a la consciencia. Cuando los estímulos son pequeños, produciendo un ángulo
visual igual o menor a un grado, la rivalidad es total de forma que una imagen domina sobre la otra durante un periodo de
tiempo que oscila entre 1 y 4 segundos y durante ese periodo es la única imagen percibida conscientemente. Después la
experiencia consciente cambia y la imagen que antes estaba suprimida accede a la consciencia y la que se percibía es
suprimida. Así se produce una continua alternancia entre las dos imágenes que se debe probablemente a la fatiga de las
neuronas responsables de su respectiva percepción consciente. Cuando los estímulos son grandes, la rivalidad binocular
produce una imagen consciente compuesta de trozos o partes pertenecientes a cada una de las dos imágenes.
La visión binocular normal implica tanto estereoscopia como rivalidad binocular. Si en nuestra experiencia visual habitual
consciente el campo visual aparece bien unificado, es debido a la acción conjunta de los mecanismos que subyacen a estos
dos fenómenos. La estereoscopia fusiona los puntos que se encuentran dentro del área de Panum y la rivalidad binocular
resuelve la competición entre imágenes dobles.
1.3 relación entre las claves de profundiad
Hasta este momento en la exposición de este capítulo, hemos estudiado la aportación de las distintas claves de profundidad
considerando cada una de ellas de forma aislada. Obviamente en la percepción ordinaria, todas estas claves actúan de
forma conjunta integrando la información que cada una de ellas aporta para lograr una percepción consistente del espacio
tridimensional. La percepción de la profundidad está sobredeterminada por el conjunto de factores que hemos estudiado de
forma que la ausencia de una clave no es un obstáculo para que el sistema visual pueda obtener una adecuada adapta· ción
a la situación estimular tridimensional. Esta sobredeterminación es tb un indicador de la importancia que la percepción de
la tercera dimensión tiene para la supervivencia del organismo.
Cómo se lleva a cabo la integración de las distintas claves para producir la percepción de la profundidad es un tema poco
investigado aún. Las investigaciones de laboratorio han tratado de comparar unas claves con otras con el fin de observar el
resultado que las distintas manipulaciones experimentales producen en la percepción visual. Los resultados de estas
investigaciones han puesto de manifiesto que las distintas claves pueden relacionarse entre sí de tres formas diferentes:
dominancia, compromiso e interacción.
- Dominancia. Se produce dominancia de una clave sobre otra cuando el sistema visual ignora la información
proporcionada por una clave en favor de la proporcionada por otra clave de profundidad. Un ejemplo conocido que muestra
este efecto es la habitación de Ames. En esta habitación, Ames opone la información proporcionada por la perspectiva y
la proporcionada por el tamaño familiar. Se trata de una habitación distorsionada de forma trapezoidal como aparece en el
esquema de la Figura 4.15.b.
El observador sólo puede mirar dentro de la habitación a través de un orificio situado estratégicamente en una de las
paredes de la habitación. Desde ese punto de vista, la habitación parece rectangular a pesar de que no lo es. Cuando
personas de la misma estatura se colocan en distintas posiciones a lo largo de la pared del fondo, el observador
inevitablemente percibe a las personas como si estuvieran a la misma distancia y tuvieran estaturas muy diferentes (Fig
4.15.a). En el caso de esta ilusión, la percepción del observador está dominada por la información que proporciona la
perspectiva, que desde el punto de observación predeterminado hace parecer la habitación como rectangular. A pesar de
que el tamaño familiar debería igualar el tamaño de las personas, esta información es ignorada y el tamaño de las personas
queda determinado por el tamaño de la imagen proyectada en la retina, provocando así la ilusión de tamaño que caracteriza
a la habitación de Ames.
- Compromiso. No siempre se produce el predominio de una clave respecto de otra. A veces, la resultante del conflicto
entre las informaciones proporcionadas por las distintas claves es un valor intermedio entre los valores de profundidad
proporcionados por cada clave. Por ejemplo, Bruno y Cutting manipularon valores de cuatro claves diferentes: tamaño
relativo, posición respecto al horizonte, oclusión y paralaje de movimiento. Construyeron diferentes estímulos que
combinaban los valores de esas claves y solicitaron a los participantes que para cada estímulo evaluaran en una escala de O
a 99 la magnitud de la profundidad percibida. Encontraron que el grado de profundidad percibida era el resultado de sumar
la información proporcionada por cada una de las claves. En este caso, por tanto, los observadores no se guiaban por una
clave ignorando las otras, como ocurre en los casos de dominancia, sino que integraban la inf de las claves de acuerdo con
una simple regla aditiva. Parece como si la inf proporcionada por cada clave fuera independiente de la información
proporcionada por las otras y el resultado final se produjera sin ningún tipo de interacción entre las claves.
- Interacción. aunq el compromiso actúa en algunas ocasiones, no puede descartarse la existencia de interacciones entre la
inf proporcionada por las distintas claves. En el caso de las claves que solamente producen inf relativa sobre la
profundidad, parece lógico pensar que necesitan interactuar con alguna clave que proporcione información absoluta sobre
la distancia a la que se encuentran los objetos para poder dar lugar a un mapa métrico de profundidad. Ej: piénsese en la
disparidad binocular que es una potente clave de profundidad pero solamente de profundidad relativa respecto al punto de
fijación. Considerada de forma aislada la disparidad binocular no proporciona información absoluta de la distancia a los
objetos sino que informa sobre las proporciones entre las distancias de los objetos situados en diferentes planos de
profundidad. Piénsese también en la convergencia que proporciona información sobre la distancia absoluta pero
únicamente de la distancia al objeto que se encuentra en el punto de fijación. La interacción de estas dos claves permite
generar un mapa métrico de la profundidad de los objetos en la escena ya que la convergencia binocular proporciona el
valor de distancia real a que se encuentra el objeto en el que se fija la vista, y a partir de esta medida se pueden escalar las
proporciones de disparidad de profundidad relativa. De esta forma el sistema visual puede conseguir las distancias
absolutas a todos los objetos de la escena.
La invest de la integración entre claves de profundidad casi se ha limitado a constatar q existen los 3 tipos de procesos q
hemos visto. Aún sabemos muy poco sobre las condiciones q determinan el predominio de un proceso sobre los otros
2. TEORÍAS DE LA PERCEPCIÓN ESPACIAL
2 aproxs teóricas han determinado la invest sobre percepción espacial en psicología. Las diferencias responden a
discrepancias profundas respecto a los procesos perceptivos en general, su confrontación más clara está en el terreno de la
percepción espacial. Son la de aproximación constructivista y la aproximación ecológica. Estudiaremos el modo en que
cada una de ellas aborda la explicación de un fenómeno relacionado con la percepción de la distancia como es la
constancia del tamaño.
2.1 La aproximación constructivista
Es la más antigua de las dos y, aunque hunde sus raíces en el empirismo filosófico, suele considerarse a Helmholtz como
padre de la primera formulación científica de la misma. Dp otros investigadores, como Boring, Epstein, Hochberg y Rack
entre otros, han contribuido a reformular las ideas centrales que caracterizan esta concepción. Aquí nos centraremos en el
estudio de estas ideas centrales sin prestar especial atención a los matices q diferencian a los distintos autores.
Una idea central de la aprox constructivista es que la percepción tiene lugar por fases que se complementan unas a otras y
que de forma conjunta contribuyen a proporcionar la información necesaria. Inicialmente, la inf proporcionada por la
imagen retiniana o estímulo próximo no es adecuada para determinar por sí sola la percepción. El estímulo próximo es
ambiguo y necesita la aportación de información por parte de otros procesos psicológicos, tales como el aprendizaje y la
memoria, para resolver esa ambigüedad y proporcionar una percepción adecuada al estímulo distante. En el caso del
espacio tridimensional, como la retina es una superficie bidimensional, la percepción de un espacio tridimensional no
puede ser un fenómeno perceptivo primario sino derivado a partir de la imagen retiniana bidimensional. De ahí la
importancia que para la aprox constructivista tiene el análisis de las claves de profundidad que hemos estudiado. Las claves
de profundidad actúan como un contexto interpretativo que nos permite recuperar las caracs tridimensionales del E distante
a partir del núcleo de información proporcionado por la imagen retiniana bidimensional. La forma en q la concepción
constructivista explica la constancia del tamaño, nos ayudará a concretar el conocimiento de esta forma de pensar.
- La constancia del tamaño
Recordemos las relaciones geométricas que se han explicado en la Fig 3.8 entre el tamaño de los objetos, su distancia
respecto al observador, el ángulo visual y el tamaño de la imagen retiniana. Allí veíamos que el ángulo visual, y por
consiguiente el tamaño de la imagen retiniana, varía directamente con el tamaño del objeto e inversamente con la distancia
a la que se encuentra el objeto. A igual distancia, cuanto mayor es un objeto mayor es el ángulo visual que su imagen
proyecta en la retina. Por otra parte, el ángulo visual proyectado por un objeto disminuye a medida que el objeto se aleja
del observador.
Si la percepción del tamaño de un objeto estuviera determinada por el tamaño del ángulo visual, los objetos variarían en
tamaño percibido cuando variase su distancia al observador. Esto es lo que ocurre cuando la distancia respecto a los objetos
percibidos es muy grande. Por ejemplo, si contempla- mos el tráfico de una ciudad desde un edificio muy alto, podemos
tener la impresión de que el tamaño de los coches es el equivalente al de coches de juguete. Sin embargo, cuando la
distancia de los objetos al observador no es muy grande, el desplazamiento en profundidad de los objetos no provoca un
cambio en su tamaño percibido a pesar de que el ángulo visual que proyectan disminuye. Por ejemplo, si el lector está en
una habitación, puede observar que el tamaño percibido de un objeto cercano no varía al trasladarlo al extremo más alejado
de la habitación a pesar de la innegable reducción que el aL ángulo visual experimenta. Este fenómeno es el que se conoce
con el nombre dis de constancia del tamaño. De alguna forma el sistema visual compensa la disminución del ángulo
visual de forma que la consciencia visual del observador la mantiene una experiencia constante del tamaño del objeto.
Para estudiar la constancia del tamaño de una forma controlada, se han realizado muchos experimentos en los que los
participantes tienen que comparar el tamaño de objetos a diferentes distancias. La Fig 4.16 presenta de forma esquemática
los resultados típicos de este tipo de experimentos. En la figura se representa el tamaño percibido en función de la distancia
a la que se sitúa el objeto variable. Como puede verse, el tamaño aparente no disminuye en función de la distancia de
acuerdo con la variación que experimenta el tamaño de la imagen retiniana, sino que se aproxima mucho más a la curva
teórica de constancia.
- Tomar en consideración la distancia
La explicación constructivista de la constancia del tamaño ha puesto siempre el énfasis en que el sistema visual evalúa el
tamaño de un objeto basándose no sólo en el tamaño del ángulo visual o tamaño de la imagen retiniana sino también en la
distancia a que el objeto se encuentra situado. Helmholtz fue el primero en postular que el sistema visual tomaba en
consideración la distancia a la que se encontraba un objeto por medio de una inferencia inconsciente. Según Helmholtz, el
sistema visual primero registra el tamaño de la imagen retiniana y después modifica esta información de acuerdo con la
información disponible acerca de la distancia a la que se encuentra el objeto. Para Helmholtz esta operación tenía lugar de
forma inconsciente, sin que el observador cayera en la cuenta de la misma.
La formulación moderna de esta misma idea se conoce con el nombre de hipótesis de la invarianza tamaño-distancia,
que se limita a suponer que la imagen retiniana guarda la misma relación con el tamaño y la distancia percibidos que con el
tamaño y la distancia fisicos. Si el ángulo visual (a) proyectado por un objeto sobre la retina es directamente proporcional
al tamaño del objeto (h) e inversamente proporcional a la distancia (d) a la que el objeto está, podemos establecer q:
La hipótesis de la invarianza tamaño-distancia supone que la imagen retiniana guarda la misma relación
con el tamaño percibido (hP) y la distancia percibida (dP) de modo que:

De lo que se deduce que:

Es decir, el tamaño percibido es igual a la distancia percibida multiplicada por la tangente del ángulo visual. Dicho en otros
términos, el tamaño percibido es igual al producto de la distancia percibida por el tamaño de la imagen retiniana. En una
situación cotidiana, a medida que un objeto se aleja del observador, el ángulo visual producido por el objeto disminuye
pero el tamaño percibido permanece constante debido a la relación expresada en la ecuación
- evidencia a favor de la hipótesis de la invarianza tamaño-distancia:
la ley de eEmmert: La relación que acabamos de ver entre tamaño y distancia percibidos y tama- ño de la imagen retiniana
predice que, si el tamaño de la imagen retiniana permanece constante, entonces el tamaño percibido es proporcional a la
dis- tancia percibida. La comprobación de esta predicción no es fácil porque todo cambio en la distancia a la que se
encuentra un objeto conlleva un cambio en ángulo visual y por tanto en el tamaño de la imagen retiniana. Sin embargo
existe un fenómeno perceptivo que permite mantener constante el tamaño de la imagen retiniana y cambiar la distancia a la
que se percibe un objeto. Se trata del fenómeno de las posimágenes que ya hemos visto en capítulos anteriores.
Observe la Fig 4.17 y fije su vista en el círculo negro del marco izquierdo
durante 30’’. Dp cambie su vista al cuadrado de la derecha, fije su vista en
el punto central y percibirá un círculo del mismo tamaño que el anterior
pero de color blanco intenso. Debido a la prolongada exposición al
estímulo negro, su visión ha perdido sensibilidad a ese color y ha
aumentado la sensibilidad para el color oponente, el blanco. Repita ahora
la observación del círculo negro de la izquierda y, después de 30’’, fije su
mirada en alguna superficie blanca lejana como puede ser una pared de la
habitación en que se encuentra. Observará que sobre esa superficie se proyecta un círculo blanco de mayor tamaño que el
que vio anteriormen- te en la parte derecha de la Fig 4.17. Si tiene la oportunidad de repetir la experiencia con superficies
de proyección situadas en distintos planos de profundidad desde su posición de observación, comprobará que el tamaño del
círculo proyectado en la posimagen aumenta a medida que la superficie sobre la que se proyecta está más alejada de usted.
Esta experiencia ilustra la ley enunciada por Emmert en 1881 que establece que el tamaño aparente de una posimagen es
directamente proporcional a su distancia percibida desde el observador.
La ley de Emmert expresa un hecho que se refiere a la variación en tamaño percibido con el cambio de la distancia. Es el
fenómeno opuesto a la situación normal en la que un cambio en distancia va acompañado de una constancia en el tamaño
percibido. Sin embargo, ambas experiencias son la expresión de un mismo principio. Si el sistema visual se comporta
como una calculadora que multiplica el tamaño retiniano por la distancia percibida para producir el tamaño percibido,
entonces cuando el ángulo visual decrece al aumentar la distancia el producto resultará en la constancia del tamaño. Sin
embargo, cuando el ángulo visual permanece constante y se aumenta la distancia, el tamaño aparente aumentará como
indica la ley de Emmert para las posimágenes.
percepción del tamaño e indicadores de profundiad: Una forma de estudiar el papel que la distancia aparente juega en la
percepción del tamaño consiste en estudiar la relación entre esta percepción y los indicadores de profundidad que hemos
estudiado. Holway y Boring realizaron una serie de experimentos, que aún hoy se consideran clásicos en este tema, y que
proporcionaron interesante información sobre esa relación. En la situación experimental ideada por Holway y Boring, el
observador estaba situado en la intersección de dos largos pasillos que se extendían en forma de L. En uno de los pasillos
había un disco de luz que era ajustable en tamaño y que se colocaba a una distancia fija del observador (unos tres metros).
El observador tenía el control del tamaño de este disco. En el segundo pasillo se colocaba otro disco de referencia y, en
cada ensayo, se variaba la distancia, entre 3 y 36,5m, a la que era presentado. Lo peculiar respecto a este segundo disco
consistía en que su tamaño era elegido por el experimentador en cada ocasión de forma que el ángulo visual q proyectaba
sobre la retina fuera siempre de un grado de ángulo visual. Así el E próximo en todas las condiciones experimentales era el
mismo. La tarea del observador consistía en ajustar el tamaño del primer círculo hasta q le pareciese igual al círculo de
referencia. Holway y Boring estudiaron la ejecución de los sujetos bajo las siguientes condiciones de observación visual:
a) visión binocular normal; b) visión monocular; e) utilizando una pantalla de reducción, que es simplemente una pantalla
opaca con una apertura por la que el observador mira con un solo ojo, y d) en una condición similar a la anterior pero
eliminando aún más los posibles puntos de ref mediante la utilización de telas y colgantes oscuros a lo largo del pasillo.
Obsérvese que en esta situación experimental las relaciónes entre ángulo visual, tamaño aparente y distancia son
semejantes a las de la posimagen que hemos comentado al hablar de la ley de Emmert. En el experimento de Holway y
Boring el ángulo visual proyectado por el estímulo de referencia, y
por tanto la imagen retiniana, se mantenía constante. En
consecuencia, si los sujetos percibían constancia en el tamaño,
hubieran tenido que aumentar el disco de ajuste de la misma forma
que los experimentadores aumentaban el tamaño del disco de ref.
Por otra parte, si la degradación de los indicadores de distancia era
perfecta, y la única información que los observadores recibían era la
proporcionada por el ángulo visual, su ajuste hubiera debido
mantenerse constante a lo largo del experimento. Cualquier
condición de degradación de las claves que no fuera perfecta pero
deteriorase la estimación de la distancia, hubiera tenido que
producir ajustes intermedios entre los dos anteriores.
Fig 4.18 muestra los resultados experimentales de Holway y
Boring. Como puede observarse, bajo las condiciones de observación a) y b) el ajuste efectuado estaba próximo al
necesario para mantener la constancia en el tamaño aparente, e incluso la condición a) tendía a exagerar ligeramente el
ajuste. En la condición e) el aumento del disco de ajuste, a medida que aumentaba la distancia del disco de referencia, era
mucho menor que en las condiciones a) y b). En la condición d), en la que la degradación de las claves de distancia era
mayor, la tendencia presente en e) se acentuaba aún más y la función se aproximaba a la constancia típica de una situación
en la q el único indicio disponible para el observador era el ángulo visual.
En otros experimentos q se realizaron dp de los de Holway y Boring, en los q se controló más cuidadosamente la supresión
de los indicadores de distancia producidos por la pantalla de reducción, se llegó a obtener una función constante de acuerdo
con el tamaño del ángulo visual.
Aunq los resultados experimentales q acabamos de comentar ponen de manifiesto la importancia que tiene la consideración
de la distancia en la percepción del tamaño, otros experimentos han mostrado también que, a la hora de juzgar el tamaño de
los objetos, las personas pueden tomar en consideración varios factores diferentes. Por ejemplo, se ha puesto de manifiesto
que las instrucciones respecto al punto de referencia que el observador debe adoptar para emitir sus juicios, pueden influir
en la percepción del tamaño. Gilinsky realizó un experimento en el que presentó a los participantes un triángulo de
referencia a diferentes distancias. Les pidió que ajustaran el tamaño de otro triángulo de acuerdo con el tamaño percibido.
La manipulación fundamental que Gilinsky introdujo fue las instrucciones bajo las que los observadores realizaron la tarea.
Unas instrucciones, que llamaremos objetivas, solicitaban el ajuste del triángulo variable de forma que igualara el tamaño
del triángulo de referencia como si ambos fueran medidos con una regla. Otras instrucciones, que llamaremos retinianas,
pedían a los observadores imaginar que se tomaban fotografías de los dos triángulos y, por lo tanto, si un triángulo era más
distante que otro, produciría una imagen más pequeña. Los resultados mostraron que bajo instrucciones retinianas, el
tamaño del triángulo variable disminuía a medida que aumentaba la distancia del triángulo de referencia. Sin embargo, bajo
instrucciones objetivas tendían a exagerar la constancia del tamaño. Este fenómeno, que también Holway y Boring
encontraron en el experimento expuesto anteriormente, se ha denominado sobreconstancia y ha sido replicado en
numerosas ocasiones. Una explicación general bastante aceptada de este fenómeno es que bajo instrucciones objetivas la
respuesta del observador está mediada por procesos cognitivos de cálculo e inferencia que llevan a sobreestimar la
constancia, mientras que bajo instrucciones retinianas el juicio no está influido por estos factores cognitivos sino que es de
naturaleza más directamente perceptiva. Lo expuesto hasta ahora ilustra de forma bastante extensa cómo se ha llevado a
cabo la investigación de la constancia del tamaño desde una perspectiva constructivista y el valor de una explicación de
esta constancia mediante la toma en consideración de la distancia percibida.
2.2. La aproximación ecológica
o también percepción directa. Formulado por Gibson y entiende la percepción en oposición a la postura constructivista.
Para Gibson, el planteamiento clásico del problema de la percepción tridimensional, consistente en buscar claves de
profundidad en la superficie bidimensional de la retina, está equivocado. La investigación perceptiva debe tomar en
consideración el patrón total de estimulación, no la proyección geométrica de aspectos parciales del estímulo en la retina.
La ambigüedad del estímulo, que es para los constructivistas un supuesto fundamental, es fruto de un análisis inadecuado
del patrón total de estimulación y no de una insuficiencia del patrón para determinar la percepción.
Gibson pensaba q la óptica geométrica no era el instrumento adecuado para describir el estímulo y las rels entre medio
ambiente y patrón de estimulación. En su lugar, trató de crear una óptica ecológica cuyo principio fundamental es que la
luz del medio ambiente transmite, no sólo energía, sino tb información, que es más importante. La luz puede dar inf porque
está estructurada de una forma det en cada uno de los múltiples puntos de vista q el medio ambiente ofrece al observador.
Para Gibson el concepto de información está íntimamente ligado al de estructura. La estructuración de la luz en un punto
de vista concreto consiste en el conjunto de perspectivas de los objetos que el observador es capaz de captar desde ese
punto de vista, incluyendo también las perspectivas cambiantes de los objetos que se mueven. Gibson siempre pensó que la
estimulación que continuamente llega a nuestros sentidos es muy rica en inf y proporciona continuamente de forma
suficiente todo lo necesario para que se produzca la percepción.
Para Gibson, por tanto, el estímulo carece de ambigüedad. Toda la inf está presente en la estimulación o, como Gibson
prefiere llamarla, la conformación óptica (optic array). En consecuencia, no es necesario recurrir a procesos constructivos
de carácter no perceptivo, tales como memoria o aprendizaje, para entender o explicar la percepción. La percepción para
Gibson es directa en cuanto q consiste sencillamente en captar la inf disponible en la conformación óptica. Ninguna
secuencia de procesos es necesaría para construir una representación de los objetos. Lo único necesario para percibir es
atender a la información que está en el medio ambiente.
En resumen, la teoría de Gibson es ecológica en cuanto que pone el acento en la riqueza informativa de la estimulación
ordinaria por oposición a la estimulación propia de las situaciones experimentales que, por lo general, restringen la inf. En
una situación estimular propia de la vida cotidiana la totalidad del patrón de estimulación especifica de forma necesaria y
suficiente lo q un observador percibe. La teoría de Gibson es una teoría de la percepción directa porque refiere todo lo
percibido a la inf proporcionada por la estimulación. Evita toda ref a procesos no perceptivos que puedan completar o
interpretar un posible estímulo ambiguo. La inf presente en los estímulos nunca es ambigua. Por eso, la tarea de los
psicólogos que estudian la percepción debe ser analizar a fondo la estimulación hasta dar con la inf particular que
determina un fenómeno perceptivo.
La constancia del tamaño desde una perspectiva ecológica
Para Gibson, explicar las constancias perceptivas no es otra cosa que descubrir en la estimulación la inf invariante que
determina la percepción de esa constancia. No acepta ningún tipo de inferencia inconsciente o proceso mental llevado a
cabo por el observador que complemente la inf proporcionada por la estimulación.
En el caso de la constancia del tamaño, no considera necesario que el observador tome en consideración la distancia
percibida, sino que es el gradiente de densidad de textura el que proporciona la escala absoluta de distancia que va a
explicar la constancia. Para Gibson, la percepción del tamaño de los objetos es una función de la cantidad de textura que el
objeto oculta al observador. Los elementos de la textura de una superficie que son ocultados por los objetos, proporcionan
una escala efectiva de tamaños con respecto a la cual puede percibirse el tamaño de un objeto. Siempre que dos objetos
oculten la misma cantidad de elementos de la textura de una superficie, se percibirán como iguales en tamaño. La Fig 4.19
puede ilustrar la idea central de la explicación de Gibson.
El suelo, y su correspondiente gradiente de textura, que se hace más denso a medida que aumenta la distancia, es la escala
respecto a la cual se valora el tamaño de los objetos. Los objetos se perciben como iguales en tamaño, a pesar de la
distancia, porque cada uno de ellos oculta la misma cantidad de textura. La relación entre el tamaño del objeto y la cantidad
de elementos de textura ocultados por el objeto no cambia y es este invariante el responsable de la constancia del tamaño.
- resultados experimentales El tipo de experimentación que Gibson aduce en favor de su teoría ha consistido en
demostrar la constancia del tamaño en situaciones fuera del laboratorio y poco propicias a facilitar los cálculos que supone
la teoría constructivista. Ej: en uno de sus experimentos colocó estacas a distintas distancias del observador en un campo
de unos 800m de largo. La altura de las estacas podía variar entre 39 y 257 cm. La tarea de los observadores consistía en
escoger, de entre un conjunto de estacas graduadas que tenía detrás, aquella que más se aproximara a la que en cada ensayo
tenía que estimar. En estas condiciones, y sobre todo para las distancias más alejadas, el tamaño de la imagen retiniana es
tan pequeño que el cálculo del tamaño percibido, tal como propone la teoría constructivista, resulta prácticamente
imposible. A pesar de ello, Gibson encontró que los observadores mantenían la constancia del tamaño incluso en los casos
en que las estacas estaban más alejadas. A partir de datos como estos, Gibson concluyó que la explicación de la constancia
del tamaño no necesita complicados cálculos basados en la distancia percibida sino que es mucho más simple suponer que
los observadores prestan atención a la cantidad de elementos de la textura del terreno que cada objeto cubre y que
responden directamente a esta característica.
Aunque no cabe duda de que la explicación de la constancia del tamaño que Gibson propone, resalta un aspecto importante
del problema, no parece que pueda adoptarse como una explicación general del fenómeno. Para que la oclusión de la
textura pueda informar sobre el tamaño relativo de los objetos, se necesitan unas condiciones bastantes restrictivas que por
lo general no se dan en la percepción ordinaria. Ej: es necesario que los objetos cuyos tamaños se van a comparar se
presenten sobre la textura de la misma superficie. Si no es así, o si la superficie no presenta una marcada textura, no es
posible establecer una comparación entre los objetos. Además, los elementos que componen la textura de la superficie
sobre la que están situados los objetos, deben ser del mismo tamaño. Si la textura es irregular, con unos elementos mayores
que otros, no es posible percibir constancia del tamaño sobre la base del número de elementos que los objetos ocultan. En
la percepción ordinaria es frecuente que estas condiciones no se cumplan, sin embargo el fenómeno de constancia del
tamaño sigue produciéndose.
En resumen, no parece que las relaciones q Gibson descubrió entre el tamaño de los objetos y la oclusión de la textura de la
superficie sobre la q los objetos aparecen, sea una explicación general del fenómeno de constancia del tamaño. Hay q
considerar otros fs entre los q probablemente están la distancia percibida que tanto ha interesado a los constructivistas.
En esta sección del capítulo, no pretendemos estudiar a fondo todos los problemas relacionados con la constancia del
tamaño. Más bien, hemos uti- lizado la polémica suscitada en torno a la constancia del tamaño como un ejemplo concreto
que nos ha permitido entender la forma en que las dos prin- cipales teorías de la percepción del espacio tratan de explicar
un fenómeno perceptivo. De este modo es posible entender mejor las teorías mismas. Ahora nos interesa volver sobre esas
teorías para preguntarnos si son necesariamente tan antagónicas como a veces son presentadas en los textos de psicología
de la percepción.
3. POSIBLE RECONCILIACIÓN
Son muchos los investigadores de la percepción que han considerado muy importante conseguir armonizar las dos posturas
que acabamos de exponer. Neisser propuso la existencia de tres sistemas perceptivos diferentes. Un sistema especialmente
dedicado al control de la acción del organismo en el medio ambiente. Un segundo sistema especializado en la
discriminación e identificación de objetos y situaciones familiares. Y un tercer sistema encargado de la percepción
interpersonal, de las situaciones de interacción social con otros seres humanos.
El primero de los sistemas propuestos por Neisser presenta unas caracte- rísticas similares a las que Gibson propuso para el
sistema perceptivo visual en general. Y el segundo tiene unas características similares a las que los cons tructivistas han
propuesto como propias de la percepción visual. Si la propuesta de Neisser fuera correcta nos encontraríamos con que las
dos teorías, q estamos estudiando en este capítulo, podrían tener razón, en cuanto que cada una de ellas estaría acentuando
las características propias de uno de los sistemas de percepción visual. Ambas teorías, a su vez, estarían equivocadas en
cuanto q pretenden generalizar para un único sistema de percepción visual las caracs propias de uno de los subsistemas.
Obsérvese que la propuesta de Neisser no carece de antecedentes en la historia de la investigación perceptiva. En el
capítulo sobre el color veíamos que durante casi un siglo la teoría tricromática y la teoría de los procesos oponentes
pugnaron por prevalecer en la explicación de la percepción del color. Durante ese tiempo todos los investigadores se veían
más o menos impelidos a elegir entre una u otra teoría. Hoy existe un acuerdo general sobre la validez de ambas teorías. El
problema se resolvió cuando se pudo establecer que en el procesamiento del color había varias fases y que, mientras que la
teoría tricromática tenía razón al describir el procesamiento en el nivel de los receptores, la teoría de los procesos
oponentes la tenía si se tomaba en consideración el tipo de procesamiento que tenía lugar en las células ganglionares y en
el núcleo geniculado del tálamo. ¿Hay razones para pensar que en el caso de la percepción del espacio podemos estar en
una sit semejante? ¿Hay razones para pensar que el sistema visual procesa la inf espacial de forma diferente dependiendo
de que el acto perceptivo vaya dirigido al control de la acción o a la discriminación e identificación de los objetos?
Joel Norman, de la Universidad de Haifa en Israel, ha propuesto recientemente (2002) que las vías visuales dorsal y
ventral, que la fisiología ha descrito, corresponden a dos sistemas visuales con características similares a los postulados por
Neisser, de forma que la vía dorsal formaría un sistema especializado en el control visual de la conducta motora, mientras
que la vía ventral sería un sistema preferentemen- te dedicado al reconocimiento e identificación de los objetos. Norman ha
elaborado también de forma articulada el paralelismo entre la aproximación ecológica y el funcionamiento del sistema
visual dorsal, por una parte, y, por otra parte, el de la aproximación constructivista y el funcionamiento del sistema visual
ventral. En la última parte de este capítulo nos detendremos a exponer con un poco más de detalle la propuesta de Norman.
3.1. Los sistemas visuales dorsal y ventral
Ungerleider y Mishkin (1982) fueron los primeros investigadores que pre- sentaron evidencia experimental a favor de la
existencia de dos vías funcio- nalmente diferenciadas en la corteza visual del mono. La vía ventral que pro- yectaba desde
la corteza occipital hasta la corteza temporal inferior, y la vía dorsal que proyectaba también desde la corteza occipital
hasta la corteza pa- rietal posterior. La lesión de la corteza temporal inferior izquierda del mono, le incapacitaba para
discriminar entre objetos sobre la base de la forma. Por otra parte, la lesión de la corteza parietal posterior izquierda
impedía que los animales discriminaran sobre la base de la posición. Ungerleider y Mis- hkin sugirieron que la vía ventral
era una vía preferentemente dedicada a la discriminación e identificación de objetos, mientras que la vía dorsal estaba
especializada en la localización de los mismos. A partir de entonces ha sido frecuente llamar a las dos vías visuales la vía
del <<que» y la vía del <<donde» para referirse a la vía ventral y a la dorsal respectivamente.
Desde la propuesta inicial de Ungerleider y Mishkin, la investigación tan- to con personas como con monos ha obligado a
reinterpretar la función de las dos vías. Una de las reinterpretaciones que mayor influencia tiene en la actualidad es la
propuesta por Milner y Goodale (1995). Para estos autores, tanto la vía ventral como la vía dorsal procesan información
sobre las caracte- rísticas de los objetos y sobre sus relaciones espaciales. Lo que diferencia a las dos vías es el uso que
hacen de esa información. La vía ventral se especializa en el procesamiento de las características permanentes de los
objetos y de sus relaciones, permitiendo así la formación de representaciones perceptivas a largo plazo. Estas
representaciones cumplen una función básica para poder identificar los objetos y para poder clasificarlos. La finalidad
primaria del procesamiento que tiene lugar por esta vía es la acumulación de conocimiento acerca de los objetos que nos
rodean.
A su vez, el procesamiento que tiene lugar en la vía dorsal tiene que ver preferentemente con la inf cambiante momento a
momento acerca de la localización y de la disposición de los objetos con respecto a los efectores que el sujeto utiliza. Su
función básica tiene que ver con el control visual online de las habilidades motoras, como pueden ser, por ejemplo, los mo-
vimientos de la mano a la hora de alcanzar o coger un objeto. Este sistema dorsal puede considerarse como una extensión
cortical de los módulos que controlan los movimientos guiados visualmente en los vertebrados y que im- plican estructuras
subcorticales tales como los colículos superiores y el núcleo pulvinar del tálamo.
La Figura 4.20 presenta un esquema de las estructuras
corticales princi- palmente implicadas en cada una de las
dos vías en el cerebro del mono. A partir de V1, la vía
ventral incorpora a V4 y termina en las zonas temporales
TE y TEO, mientras que la vía dorsal se encamina hacia la
corteza parietal implicando zonas temporales mediales
como MT y MST y las zonas parietales posteriores.
Milner y Goodale han proporcionado gran cantidad de
información expe- rimental a favor de la diferenciación
funcional de estos sistemas. Experimentos con ratas y
monos han mostrado una clara disociación entre los dos
sistemas.
Sin embargo, nos vamos a detener en la exposición de
ejemplos tomados de la neuropsicología humana q nos
permitirán entender la forma en que la disociación de los
sistemas que ahora estudiamos se manifiesta en las
personas.
3.2. Las disociaciones neuropsicológicas
En la investigación neuropsicológica, a la hora de hacer inferencias sobre los mecanismos responsables de una determinada
disfunción, es conveniente dis- tinguir entre dos tipos de disociaciones funcionales posibles. En el caso de la disociación
simple, lo que se observa en los pacientes18 con un daño cerebral concreto es una deficiencia en un tipo de tarea
determinada cuando su ejecu- ción se compara con un grupo de control formado por personas sin ese daño cerebral.
Además, para establecer la existencia de una disociación simple es necesario utilizar una tarea de control en la que el grupo
de pacientes y el de control no difieran. Este requisito es el mínimo requerido para asegurar que la disfunción es específica
al daño y no el resultado de una deficiencia generalizada producida por el mismo. Por ejemplo, la Figura 4.2l.A ilustra el
caso que ahora estamos tratando. En ella se compara un paciente o grupo de pacientes con daño en la zona occipito-
parietal, con un grupo de control en dos tareas, una de carácter perceptivo y otra de coordinación visomotora. Los
resultados probablemente mostrarán que los grupos no difieren en la tarea perceptiva pero sí en la tarea de coordinación, en
la que el grupo de pacientes será inferior al grupo de control.
Las disociaciones simples nos pueden poner en la pista de una
determi- nada asociación entre un área determinada del cerebro y una
función psico- lógica concreta. Sin embargo, la disociación simple no
puede establecer de forma clara la existencia de esa asociación. La
razón fundamental para ello es que tiene problemas de interpretación
inevitables. Uno de los más impor- tantes radica en el supuesto de que
las dos tareas son igualmente sensibles a las diferencias entre el grupo
de pacientes y el grupo de control. Este supues- to suele fallar en
muchas ocasiones porque no es fácil igualar las tareas en nivel de
dificultad o en grado de sensibilidad para los dos grupos. Por ejem-
plo, la tarea de coordinación visomotora puede requerir mayor
capacidad de concentración que la perceptiva. Si el daño en la zona
parietal posterior produce una deficiencia en concentración, los
pacientes pueden mostrar un patrón de ejecución semejante al de la
Figura 4.2l.A, pero no debido a un problema específico de
coordinación sino debido a un problema más general de
concentración.
Los problemas interpretativos que presenta la disociación simple
quedan prácticamente resueltos si se logra establecer una disociación
doble. En el caso de la disociación doble es necesario encontrar un paciente o grupo de pacientes que presente un patrón de
disociación opuesto al encontrado en el primer grupo de pacientes. La Figura 4.2l.B ilustra el caso de disociación doble que
ahora nos interesa tratar. En la figura vemos que el nuevo grupo de pacientes con lesiones en la zona occipito-temporal, no
difiere de los con- troles en la tarea de coordinación pero sí en la perceptiva. En resumen, en un caso de disociación doble,
la comparación de los dos grupos de pacientes añade evidencia a favor de la especificidad de la disfunción ya que en la
tarea en la que el primer grupo fracasa, el otro no difiere de los controles y, al revés, donde fracasa el segundo grupo, el
primero no presenta deficiencia alguna.
Ahora podemos preguntarnos si de hecho existe una doble disociación entre grupos de pacientes con lesiones en la vía
ventral, pero no en la vía dor- sal, y pacientes con lesiones en la vía dorsal, pero no en la vía ventral, cuando comparamos
su ejecución en tareas perceptivas y en tareas de coordinación visomotora. La respuesta es afirmativa.
- Percepción sin coordinación visomotora
Es un hecho bien conocido en la literatura clínica neuropsicológica que los pacientes con daño en la corteza parietal
posterior pueden presentar proble- mas para dirigir visualmente acciones tales como coger un objeto o dirigir un
movimiento hacia una posición determinada del espacio. El término ataxia óptica es el utilizado para describir este tipo de
deficiencia. Los pacientes con problemas de ataxia óptica, sin embargo, no suelen presentar problemas para describir la
posición relativa de los objetos en el espacio. Por eso, no parece que la deficiencia tenga que ver con la percepción del
espacio en sí misma sino con la interacción visomotora.
Algunos de estos pacientes son también incapaces de girar sus manos para alcanzar un objeto o de acertar con la apertura
adecuada de sus dedos cuan- do tratan de coger un objeto. A pesar de ello, son perfectamente capaces de describir el
tamaño de esos objetos o su orientación. De nuevo, el problema no reside en describir el tamaño o la orientación sino en
utilizar de forma adecuada la información. Estos síntomas también muestran que el problema no está exclusivamente
ligado al espacio sino que afecta a otras características de los objetos como son su tamaño, forma y orientación.
Además de presentar una clara disociación entre una percepción preserva- da y una coordinación alterada, los problemas de
coordinación, que pueden presentar los pacientes con daño parietal posterior, también presentan un alto grado de
disociación entre sí. Algunos pacientes son incapaces de utilizar información visual para controlar la postura de sus manos
pero no presentan problema alguno a la hora de controlar la dirección en que inician un movi- miento de alcance de un
objeto. Otros pacientes presentan el patrón opuesto. Algunos pacientes no son capaces de dirigir la mirada hacia un objeto
de forma precisa pero no tienen problema en calibrar la apertura de sus dedos al intentar cogerlo. Otros pueden no tener
problemas oculomotores concretos pero son incapaces de guiar visualmente su mano hacia un objeto. En general, existen
buenas razones para pensar que los mecanismos de control motor están altamente especializados Qeannerod, 1997) pero
ahora nos basta con acentuar la fuerte disociación que estos pacientes muestran entre el daño de una coordinación
visomotora determinada y la preservación de la percepción visual de la información que debería guiar la acción.
- Coordinación visomotora sin percepción
El lado contrario de la doble disociación ha tardado más en ser detectado pero está hoy bien documentado gracias a las
investigaciones de Milner, Goodale y colaboradores. Particularmente interesante es el caso de la paciente DF que vamos a
analizar con más detalle.
DF es una mujer que, a la edad de 34 años, sufrió un daño cerebral irrever- sible como consecuencia de un casi total
envenenamiento por inhalación de monóxido de carbono. Después de recobrar el conocimiento, DF era incapaz de
reconocer las caras de sus familiares y amigos, y tampoco podía reconocer la forma de objetos familiares. Era incluso
incapaz de percibir la diferencia entre un cuadrado y un triángulo. Al mismo tiempo, no tenía problemas para reconocer a
las personas por la voz o los objetos mediante el tacto. Su proble- ma era exclusivamente visual.
El diagnóstico de agnosia perceptiva visual en el caso de DF está refor- zado por características adicionales. No es capaz de
dibujar un objeto que se le presenta visualmente pero puede hacerlo si se le pide que lo dibuje de memoria. Que no se trata
de un problema sensorial, lo demuestra el hecho de que DF puede discriminar colores, y puede detectar objetivos definidos
por cambios en luminancia que aparezcan incluso a una distancia de 30 grados en la periferia visual. Una característica
básica que DF ha perdido es la capacidad para detectar la orientación de los objetos. Ante una prueba de discrimina- ción
de enrejados no es capaz de diferenciar su orientación aunque sí es capaz de discriminar su frecuencia espacial; de hecho,
su función de sensibilidad al contraste es normal por encima de los 5 c/gav aunque es ligeramente inferior a la sensibilidad
normal para las bajas frecuencias. El problema con la orien- tación no parece tener su origen en la corteza visual primaria
porque todas las pruebas que se le han hecho mediante el uso de potenciales corticales mues- tran que el procesamiento en
esta área permanece intacto.
Las primeras pruebas neuroanatómicas que se hicieron a DF mostraron que el daño cerebral que padecía era bastante
difuso, característica bastante frecuente en casos de anoxia. No obstante, estudios posteriores que utilizaron resonancia
magnética mostraron que las zonas ventrolaterales de la corteza occipital estaban particularmente afectadas mientras que la
corteza visual pri- maria estaba bien preservada. Parece, por tanto, que el problema fundamen- tal de DF es de naturaleza
perceptiva y está preferentemente relacionado con la percepción de la forma. A pesar de que es capaz de procesar la
luminancia y el color, no es capaz de percibir formas cuyos contornos estén definidos por diferencias en luminancia o en
color. Lo mismo ocurre si los contornos están definidos por diferencias en la dirección del movimiento o en los planos de
profundidad. Los principios gestálticos fundamentales de proximidad o se- mejanza tampoco están operativos en el sistema
visual de DF.
Lo más notable en el comportamiento visual de DF es que, a pesar de su profunda deficiencia en la visión de la forma, es
capaz de utilizar la informa- ción basada en el tamaño, la forma y la orientación de los objetos para con- trolar una amplia
gama de movimientos guiados visualmente. DF es capaz de elevar la mano para estrechar la de la persona a la que es
presentada. Muestra una aptitud perfecta para alcanzar la manilla de la puerta que quiere abrir, aunque se trate de una
situación nueva. Puede andar fácilmente sin ayuda por una habitación o un patio sorteando los obstáculos que encuentra en
su cami- no. Más aún, puede alcanzar y agarrar con gran precisión un objeto situado delante de ella, a pesar de que poco
antes era incapaz de identificar ese objeto. En una prueba tipificada a la que fue sometida, DF se situó a una distancia des-
de la que una persona sin daño cerebral podía ver perfectamente una ranura grande, parecida a la de un buzón de correos,
cuya orientación podía variar. El examinador dio a DF una tarjeta grande y le pidió que, desde el lugar donde se
encontraba, girara la tarjeta hasta hacerla coincidir con la orientación de la ranura. DF no pudo llevar a cabo esta tarea. A
continuación, el examinador le pidió que insertara la tarjeta por la ranura y DF lo realizó sin problema alguno.
Otras muchas pruebas, parecidas a la que se acaba de exponer, han de- mostrado claramente que DF puede utilizar
información para controlar su comportamiento a pesar de que no es capaz de discriminar o identificar esa información
cuando se le pide que la describa.
En resumen, casos como el de DF y casos como los de ataxia óptica mues- tran entre sí las características propias de una
doble disociación. DF, cuyas lesiones se centran en la zona ventrolateral de la corteza occipital, muestra claros problemas
perceptivos mientras que su capacidad para utilizar la in- formación visual para controlar sus acciones permanece intacta.
En el caso contrario, las personas con ataxia óptica, y de forma general los pacientes con daño en la corteza parietal
posterior, no muestran problemas perceptivos cuando tienen que describir los objetos que se les presentan, pero tienen gra-
ves problemas para actuar sobre esos objetos guiados por la información que parecen percibir.
Sobre la base del estudio de casos clínicos como los que acabamos de ver, y de experimentos con animales que han
producido disociaciones similares, Milner y Goodale han propuesto la existencia de vías visuales especializadas que
ofrecen un serio apoyo a las propuestas de Neisser y de Norman.
3.3. La propuesta de Norman
A partir de los trabajos de Milner y Goodale, Norman ha dado un paso más proponiendo una diferenciación más explícita
de los dos sistemas de per- cepción visual y relacionando los dos sistemas con las teorías constructivista y ecológica.
- características de los dos sistemas
Norman ha enumerado una serie de características que permiten contrastar
las diferencias de los dos sistemas perceptivos. Son las siguientes:
a) Función. Aunque los dos sistemas analizan la estimulación visual, difie- ren en el objetivo de sus respectivos análisis.
Mientras el sistema ventral analiza la información para reconocer e identificar los estímulos, el sistema dorsal lo hace para
guiar visualmente el comportamiento del organismo.
b) Sensibilidad. Los dos sistemas muestran una sensibilidad diferente para las frecuencias espaciales y temporales. El
sistema ventral es más sensi- ble a las frecuencias espaciales altas, mientras que el sistema dorsal lo es a las frecuencias
temporales altas. Dicho de otra forma, el sistema ventral está más preparado para procesar los detalles de una escena
mientras que el dorsal es más sensible a los aspectos globales que pro- porcionan las frecuencias espaciales bajas. En
compensación, el siste- ma dorsal es mejor a la hora de percibir el movimiento.
e) Memoria. El sistema ventral mantiene una estrecha relación con el sis- tema de memoria con el fin de poder llevar a
cabo el reconocimiento y la identificación de los objetos y de los acontecimientos. El sistema dorsal no dispone de una
memoria a largo plazo, simplemente necesita una memoria de corta duración que permita la integración de la inf on line.
d) Velocidad. El sistema dorsal es más rápido. Este hecho es debido a que este sistema recibe preferentemente
proyecciones del sistema magno- celular, mientras que el sistema ventral recibe preferentemente proyec- ciones
parvocelulares que son de conducción más lenta.
e) Consciencia. El sistema ventral está más directamente reldo con la toma de consciencia de la inf que el sistema dorsal.
Como hemos visto, la paciente DF es capaz de utilizar para con trolar sus actos información visual q no es capaz de
percibir de forma consciente. Parece, por tanto, que el sistema dorsal puede funcionar con bastante precisión de forma
inconsciente, mientras q la identificación y la discriminación requieren un nivel de consciencia más alto.
f) Marco de referencia y métrica. Para reconocer e identificar objetos el sistema ventral necesita un marco de referencia
alocéntrico. El procesamiento de la inf que lleva a cabo este sistema necesita, por tanto, alcanzar una representación del
objeto centrada en el objeto mismo. Sin embargo, para alcanzar, agarrar y, en general, interactuar con los objetos,
necesitamos marcos de referencia centrados en el sujeto que nos permitan calcular, por ej, cuanto tenemos que alargar el
brazo, o cual debe ser la separación entre los dedos pulgar e índice si queremos alcanzar una taza, etc. Por eso, el sistema
visual dorsal necesita marcos de referencia egocéntricos. De forma parecida, el sistema dorsal necesita tener información
sobre la distancia absoluta a la que se encuentran los objetos, mientras que al sistema ventral le es suficiente con tener
información relativa de las posiciones de los objetos.
g) Input visual. Norman incluye otros dos aspectos que diferencian a los dos sistemas. Por una parte, el sistema ventral
está especializado en la visión central controlada por la fóvea, mientras que el sistema dorsal lo está para la visión
periférica. Estas características están ligadas a las proyecciones magno y parvo celulares mencionadas anteriormente. Por
otra parte, los dos sistemas también difieren en su grado de depen- dencia respecto a distintas claves a la hora de procesar
la profundidad. Mientras que el sistema dorsal sufre considerablemente cuando se ve obligado a trabajar exclusivamente
con claves monoculares, el sistema ventral no se ve tan disminuido por este hecho.
A pesar de las diferencias q acabamos de enumerar, debe tenerse en cuenta que ambos sistemas llevan a cabo operaciones
semejantes en el sentido de que ambos operan con formas, tamaños y distancias de los objetos. Lo importante es caer en la
cuenta de que la finalidad de los respectivos procesamientos es diferente, de ahí que la primera diferencia enumerada, la
que hace referencia a la función es la más determinante de todas. Obviamente en las personas en las que la visión funciona
normalmente, estos dos sistemas actúan de forma integrada e intercambian continuamente la información entre sí. S Son
las situaciones experimentales o clínicas, que nos permiten observar la r disociación de los dos sistemas, las que
proporcionan información acerca de S la especialización característica de cada uno de ellos.
- Relación entre los dos sistemas y las teorías perceptivas
Después de haber explicitado las caracs de los dos sistemas visuales, entenderemos mejor la propuesta de Joel Norman.
La propuesta fundamental que hace es que una teoría completa de la percepción visual necesita una aproximación dual que
incorpore las características diferenciales tanto del sistema ventral como del sistema dorsal. Para Norman, el problema de
las aproximaciones constructivista y ecológica es que han to- mado la parte por el todo. El constructivismo ha entendido la
percepción como un proceso de construcción progresiva de una representación encaminada a reconocer e identificar
objetos. Como acabamos de ver, estas parecen ser funciones especializadas del sistema ventral. Por otra parte, la postura
eco- lógica de Gibson ha entendido la percepción como un proceso de extracción directa de la información que
proporciona el medio con el fin de dirigir la actividad del organismo. También hemos visto que estas parecen ser las fun-
ciones especializadas del sistema dorsal. Otras características de los sistemas que hemos enumerado anteriormente también
encajan con los principales supuestos de cada una de las teorías. Por ejemplo, la teoría de Gibson trata de evitar a la hora de
explicar los fenómenos perceptivos, la implicación de la memoria y de otros procesos cognitivos, mientras que para los
constructivis- tas el papel de la memoria es esencial para subsanar la pobreza del estímulo. También en este punto ambas
posiciones pueden tener razón si tenemos en cuenta que el reconocimiento e identificación de objetos que lleva a cabo el
sistema ventral exige una activa participación de la memoria, mientras que el control on-line de la acción que caracteriza al
sistema dorsal no necesita la implicación de la memoria.
A la luz de la información proporcionada por casos neuropsicológicos como el de la paciente DF, merece la pena señalar la
verosimilitud que el concepto de propiedad funcional (affordance) propuesto por Gibson, adquiere como realidad
estimular. Como vimos en el Capítulo 1, según Gibson, las propiedades funcionales de los objetos del medio ambiente son
propiedades que el sistema visual extrae directamente de la estimulación para controlar su comportamiento. Para Gibson la
captación de esas propiedades funcionales no requiere la categorización previa de un objeto sino que es independiente de
ella. En el caso de DF hemos visto que su sistema dorsal intacto le permitía actuar adecuadamente respecto a objetos que
su sistema ventral dañado era incapaz de reconocer.
No podemos analizar en detalle todas las implicaciones de la propuesta de Norman. Sí creemos que su propuesta es muy
interesante y que merece una seria consideración. La propuesta de Norman no sólo da un posible marco de unificación de
teorías fuertes pero aparentemente irreconciliables, sino q sugiere interesantes hipótesis que pueden guiar la investigación
futura. Terminaremos este capítulo considerando en mayor detalle su aportación concreta a los problemas que hemos
tratado en este capítulo, las claves de profundidad y la constancia del tamaño.
las claves de la profunidad: Para Norman, tanto el sistema ventral como el dorsal son capaces de procesar la estructura
tridimensional del espacio. Sin embargo, mientras que el sistema ventral lo hace preferentemente a través de claves
monoculares de naturaleza pictórica, el sistema dorsal lo realiza a través de la captación de invariantes y la utilización de
claves binoculares tales como la estereoscopia. Norman ha propuesto que se reserve el término clave para clasificar a los
indicadores utilizados por el sistema ventral y que se utilice el término invariante para clasificar a los utilizados por el
sistema dorsal. Las principales diferencias entre claves e invariantes serían, según Norman, las siguientes:
a) Son procesadas por distintos centros cerebrales, las vías ventral y dor- sal como ya hemos explicado.
b) La extracción de información invariante está incorporada en la confi- guración física (hardwired) del sistema dorsal,
mientras que las claves son de carácter algorítmico y, por tanto, más susceptibles de cambio en el grado de inf que
proporcionan para el análisis del medio ambiente visual.
e) Los invariantes son extraídos directamente, sin recurso a procesos adicionales. Por el contrario, las claves sirven de base
a procesos de inferencia más o menos consciente.
d) Los invariantes son probablemente innatos mientras que las claves son probablemente aprendidas.
Norman apoya su propuesta en abundantes observaciones que sólo po- demos apuntar brevemente. Por un lado aduce
numerosas observaciones con pacientes neuropsicológicos con lesiones en la vía ventral, como por ejemplo el de la
paciente DF que hemos descrito anteriormente. Al parecer, para el control de las acciones que los pacientes con lesiones en
la vía ventral llevan a cabo sin problema alguno, es crucial la utilización de invariantes binoculares, tales como la
estereoscopia, y de invariantes de movimiento. Por otro lado, su propuesta también se apoya en experimentos realizados
con personas sin daño cerebral en los que se ha comprobado que existe una disociación entre las respuestas que los
observadores dan a una misma estimulación, depen- diendo del sistema utilizado para responder. Por ejemplo, Aglioti, De
Souza y Goodale demostraron que ante una estimulación ilusoria como la provocada por la llamada ilusión de
Ebbinghaus19, que puede observarse en la Fig 4.22, los observadores mostraban una clara
influencia de la ilusión cuando se les pedía que juzgaran el tamaño de los dos círculos
centrales. Sin embargo, si se les pedía que cogieran los círculos centrales, y se medía la
amplitud de la apertura de los dedos al cogerlos, se podía comprobar que la ilusión de
tamaño no producía efecto alguno. Mientras que la emisión del juicio de tamaño estaba
probablemente mediada por la inf consciente proporcionada por el sistema ventral, el control
de la acción de coger lo estaba por la información no consciente proporcionada por el
sistema dorsal. Era como si la ilusión pudiera engañar al ojo pero no a la mano.
la percepción del tamaño: El experimento que acabamos de mencionar ilustra también el hecho de que los factores que
determinan la percepción del tamaño pueden ser diferentes según intervenga en su percepción el sistema ventral o el dorsal.
Aunque no se conocen bien los factores que determinan una ilusión como la de Ebbinghaus, es probable que se deba a
procesos de inferencia que toman en consideración diferentes aspectos de la escena visual tal como postulan los
constructivistas. En la medida en que el sistema dorsal no se ve afectado por estos factores, la ilusión tampoco tiene efecto
sobre la acción de coger los círculos.
Norman ha puesto mayor énfasis en la importancia que tiene una concepción dual como la que él propone para explicar el
fenómeno de sobreconstancia que expusimos. Vimos que un factor importante en la producción de este fenómeno eran las
instrucciones objetivas dadas al observador, que ponen en juego mayor cantidad de procesos cognitivos de inferencia,
estimación y familiaridad. Cuanto mayor es la influencia de estos procesos, mayor es la implicación del sistema visual
ventral. Sin embargo, bajo instrucciones retinianas, más directamente reldas con lo percibido y con menos implicación
cognitiva, es probable que la estimación del tamaño dependa de la información más directamente proporcionada por los
invarian- tes. En este caso, la constancia es más precisa y no se produce un efecto de sobreconstancia.
Aún es pronto para poder valorar una propuesta como la de Norman. Sin embargo hemos visto que hay razones para
tomarla en consideración e inves- tigar su alcance. Como ya dijimos anteriormente no sería la primera vez que teorías
aparentemente opuestas cuando son propuestas como teorías genera- les de un determinado campo de investigación
perceptual, resultan compati- bles cuando se acierta a delimitar el campo de aplicación de cada teoría. En lo referente a la
percepción visual del espacio, la propuesta de Norman aparece como una corriente de aire fresco que puede ayudar a
integrar posiciones vividas durante décadas como irreconciliables.
T.5 PERCEPCIÓN DEL MOVIMIENTO
Tb podemos percibir movimiento en dets condiciones aunq no haya desplazamiento físico de los objetos ni del observador.
La percepción del movimiento es particularmente importante para el desenvolvimiento y supervivencia de los organismos
en el entorno. Coren, Ward y Enns señalan otras funciones importantes de la percepción del movimiento reldas con:
1) la posibilidad de seguir la trayectoria de los objetos mediante movimientos oculares apropiados.
2) la formación de objetos mediante la separación de la figura y el fondo, por ejemplo, agrupando las partes que se mueven
en una misma dirección y segregando el objeto del fondo inmóvil mediante el principio de destino común que ya se verá.
3) la extracción de la forma del objeto y su estructura tridimensional a partir del patrón de movimiento de la imagen.
obteniendo diversas perspectivas del objeto proporcionadas por el mov del objeto o el mov del observador.
4) la identificación del objeto a partir del movimiento como, por ej, la identificación de un ave a partir del mov de sus alas.
Quizás por esta importante razón de adaptación, el sistema visual es extraordinariamente sensible a la percepción del
movimiento; y la invest sobre percepción del mov ha sido una de las áreas que más desarrollo ha alcanzado en el campo de
la percepción visual en los últimos años y en la q se ha producido una mayor integración desde las diversas perspectivas.
1. MOVIMIENTO REAL
movimiento real: cuando se percibe mov como consecuencia del desplazamiento de un objeto o un punto en el espacio.
Existen muchos desplazamientos de los objetos q no podemos percibir porque están por debajo de nuestro umbral de
detección del mov. Ej: el movimiento de la luna, son tan lentos que no los podemos percibir; sólo podemos inferir q dichos
objetos se han movido cuando después de transcurrido un tiempo observamos q han cambiado de posición en el espacio.
1.1. Umbrales de detección del movimiento
La invest clásica se centró en determinar los umbrales de detección del mov utilizando como Es puntos q se desplazaban
vertical u horizontalmente en el campo visual. Umbral de detección del movimiento: la magnitud mínima de distancia
(para el umbral de desplazamiento) o de velocidad (para el umbral de velocidad) que puede detectar un observador cuando
examina un objeto en mov continuo. Las invests en este campo se deben a Aubert, quien usó como Es en sus experimentos,
puntos o líneas luminosos q se desplazaban horizontalmente a una velocidad constante sobre un fondo q consistía en un
dispositivo que giraba. Los resultados mostraron q el umbral de detección del mov variaba, según se tratara de:
- un movimiento absoluto (desplazamiento de un punto luminoso sobre un fondo uniforme)
- o de un mov relativo (desplazamiento sobre un fondo que proporcionaba puntos de referencia estacionarios: ej, líneas
inmóviles perpendiculares o paralelas a la trayectoria del punto luminoo (fig 5.1)).
El umbral era aprox de 0.03º de ángulo visual por segundo (q equivale a unos 0.25 mm por segundo) cuando los
observadores dijaban su vista sobre el objeto q se movía (un punto luminoso situado a una distancia de 50cm) y se
proporcionaba además un marco de ref, un fondo con textura en el q se podían percibir líneas inmóviles. Bajo estas
condiciones, el mov mínimo que se puede detectar es de 0.25mm por segundo. Cuando se eliminaba el marco de referencia
y el punto se desplazaba sobre un fondo oscuro, el umbral aumentaba. El efecto del marco de referencia (fondo de líneas)
indicaría que el sistema visual es más sensible al mov relativo, que al movimiento absoluto. Este efecto del marco de ref
(fondo de líneas) indicaría q el sistema visual es más sensible al mov relativo q al absoluto. Este efecto no se produce
cuando la exposición de los estímulos es muy corta (menos de 4 seg) y se produce cuando los estímulos se exponen al
menos durante 12’’. Éstos serían los umbrales de movimiento para una sit en la q el observador fija su vista en el objeto
que se mueve. En ambos casos el mov se capta en la fóvea, donde la sensibilidad al mismo es máxima.
Tb se puede percibir el movimiento cuando el observador fija la vista en un punto
inmóvil y no en el objeto q se mueve. En este caso el mov se capta en zonas de la
retina distintas a la fóvea, en la parafóvea o la periferia visual, en las que la
sensibilidad al mov decrece. El umbral de detección del mov aumenta, y en
consecuencia la sensibilidad decrece, a medida q la imagen en mov se desplaza desde la fóvea hacia la periferia visual,
siendo el umbral de detección mayor en la periferia que en la fóvea. Por tanto la zona retiniana en la que se capta el mov es
otro fr importante en al determinación del umbral de detección. Cuando el mov se capta en la periferia visual se pueden
observar fenómenos paradójicos, q parecen ir en contra de lo esperado. Uno de estos: la “paradoja de Aubert-Fleisch”:
consiste en la impresión de que un objeto se mueve más lentamente cuando se fija la vista en él y se capta en la fóvea, que
cuando se fija la vista en un objeto inmóvil y el objeto en mov se percibe en la periferia visual. Si la sensibilidad al mov es
máxima en la fóvea y decrece a medida q el mov se capta en la parafóvea y la periferia, sería de esperar el resultado
contrario, es decir la percepción de q un objeto se mueve más rápido cuando se fija la vista en él. Lo q se produce en este
caso es una infravaloración de la velocidad.
Demostraciones de efectos paradójicos
Resalte de la percepción del movimiento en la periferia visual
Los efectos paradójicos se producen pq aunq la sensibilidad al mov es mayor en la fóvea. sin embargo el mov captado en la periferia
visual «resalta» más q el que se capta en la fóvea. Para comprobar esta afirmación observe los dedos de la mano justo por delante del
libro; a continuación, estire el brazo hacia la derecha e intente mirar de lado los dedos. Observará que casi no puede percibirlos
mientras permanecen quietos. Sin embargo, si los mueve no tendrá ninguna dificultad en percibir el movimiento.
Paradoja de Aubert-Fieischl
Una demostración aproximada sobre este fenómeno sería la siguiente. Sitúese frente a una pared, y extienda un brazo. A continuación,
cierre los ojos y mueva varias veces el brazo hacia la derecha y la izquierda a una velocidad moderada. Tras unos minutos. abra los ojos
y mire a la pared. Intente determinar la velocidad a la que se mueve la mano y la trayectoria que sigue el brazo {la distancia que
recorre). A continuación, coja un bolígrafo y realice los mismos movimientos que antes pero fíjese exclusivamente en el bolígrafo e
intente seguirlo con la vista (visión en la fóvea). Advertirá que el movimiento de la mano parece que se mueve de forma más lenta
ahora y que la trayectoria es más corta que cuando se miraba a la pared (visión periférica).
2. ILUSIONES DE MOVIMIENTO distintos tipos de mov percibido en ausencia de desplazamiento físico del objeto.
Posefectos de movimiento: se producen tras la observación prolongada de un mov continuo y constante, en los q la
dirección del mov percibido inicialmente cambia y se percibe en sentido contrario, y su velocidad decae gradual. Ejs:
-Ilusión de la cascada: si se observa una cascada fijando la vista en un punto que sobresalgan del agua, durante un 1’ o más
y dp se dirige la mirada hacia el paisaje q la rodea o cualquier objeto inmóvil, se percibe un mov en dirección hacia arriba,
es decir, en dirección contraria a la dirección del mov del agua de la cascada al caer.
- Posefecto de la espiral o ilusión de la espiral de Plateau: si se fija la vista durante un 1’ o más, en una espiral dando
vueltas (ej sobre una peonza) y dp se fija en un objeto inmóvil, el mov percibido inicialmente se percibirá en sentido
contrario. Esta experiencia se puede realizar dibujando una espiral sobre una cartulina y colocándola sobre un tocadiscos.
Dp de observarla 1’ o más se fija la vista sobre un objeto inmóvil y se puede percibir el mov en dirección contraria.
-Movimiento paradójico: se llama así pq se percibe el posefecto de mov, pero no se percibe un cambio en la posición
percibida de los objetos que se mueven. Se puede producir observando la lista de créditos de una película mientras se fija la
vista en un objeto sin mov del fondo de la pantalla del tv. Si después de esta observación, se cambia la mirada a un objeto
inmóvil se percibe el mov hacia abajo; es decir, en dirección contraria al mov de la lista de créditos.
La explicación más aceptada sobre los posefectos de mov es q están causados por la adaptación de los detectores de mov
sintonizados a la dirección del mov que se está observando. Si se está observando un mov en dirección hacia abajo como el
del agua en una cascada, durante un tiempo det, los detectores específicos de esa dirección (hacia abajo) se llegan a adaptar
como consecuencia de la exposición a una estimulación continua y continuada y la sensibilidad decrece. Por eso, cuando
dp se fija la vista en otro objeto, se pueden activar los detectores específicos de otras direcciones de mov, dando la
impresión de q se produce un mov en dirección contraria.
La evidencia procede de estudios q indican que las células del área V1 que responden a una dirección específica del mov tb
se adaptan mejor a esa dirección que a otras; o q los posefectos no se producen cuando se provoca rivalidad binocular
presentando a cada ojo movs en direcciones distintas. Según esto, las áreas del cortex implicadas en la percepción del mov
serían las responsables de los posefectos de mov.
Movimiento auto-cinético: ilusión de mov q se produce en ausencia total de desplazamiento del objeto. Consiste en la
percepción del desplazamiento lento y continuo de un punto luminoso estacionario, cuando se observa en total oscuridad
durante un período de tiempo prolongado (más de 2’). El mov cambia de dirección aprox 10’’. La ilusión no se produce
cuando se observa bajo condiciones que permiten observar que el punto luminoso es inmóvil, por ej cuando se ilumina
parte de la sala donde se observa el punto. El efecto disminuye cuando se coloca algún objeto cercano al punto de luz,
posiblemente porque da un marco de ref que permite percibir que el punto luminoso permanece inmóvil.
En condiciones naturales se puede observar la ilusión si se fija la vista en una única estrella sobre un cielo homogéneo. El
mov auto-cinético se percibe con mayor claridad cuando el foco de la luz es de baja intensidad, se observa con un sólo ojo
o existe fatiga o somnolencia. Se observa si se sitúa en una habitación oscura y coloca una luz muy tenue, ej, una linterna,
a una distancia de unos 2m. Dp de un periodo temporal, observará q la luz se desplaza en una dirección det.
Movimiento inducido: ilusión de mov en un objeto inmóvil consecuencia d la presencia simultánea de otro objeto en mov,
q generalmente es de mayor tamaño y circunda al primero. Ejs: la percepción de desplazamiento en la luna a través de las
nubes cuando hay viento, cuando lo que realmente se mueve son las nubes, ya que el sistema visual humano no es capaz de
detectar el mov de la luna por ser demasiado lento. Otros ejs serían la sensación de q nuestro tren se mueve cuando en
realidad se está moviendo el tren de al lado, o la impresión de que un edificio alto se tambalea cuando se observa desde
abajo en un día de viento en el que las nubes se desplazan con rapidez.
Para que se perciba mov inducido es necesaria la presencia de al menos dos objetos en el campo visual y uno de ellos tiene
que estar en mov. El desplazamiento del objeto en mov en relación con el objeto q permanece estacionario es el origen del
movimiento inducido. La ilusión se percibe más fácilmente cuando los objetos se presentan sobre un fondo homogéneo.
El movimiento inducido fue descubierto por Duncker. Presentó como E un punto luminoso rodeado por un rectángulo tb
luminoso sobre un fondo homogéneo, una habitación oscura. Observó q si el rectángulo se desplazaba en una dirección det,
por ej hacia la izquierda, se percibía el punto desplazándose en la dirección contraria (hacia la derecha) y viceversa.
Es posible inducir movimiento utilizando diversos proceds:
a) El ej más simple de mov inducido se produce cuando se presentan en el campo visual sólo
dos puntos, uno en reposo y el otro en mov. En esta sit se puede percibir desplazamiento en un
único punto o en los dos. Según Duncker, se percibe mov en los dos puntos únicamente cuando
el mov real del punto que se desplaza está por encima del umbral (no es demasiado lento); en el
caso contrario, es decir cuando el mov real no se detecta, sólo se percibe el mov inducido.
b) Cuando se presentan simultáneamente dos objetos en el campo visual, uno de mayor tamaño y rodea al otro, con
independencia de cual de los dos objetos se desplace y siempre q el mov real esté cercano o por debajo del umbral de
detección, se percibirá únicamente el movimiento del objeto situado en el centro hacia el exterior. Si el movimiento está
por encima del umbral y el objeto en movimiento es el circundante, se percibirá el movimiento de los dos objetos. El
objeto circundante y de mayor tamaño actúa como marco de referencia para el otro objeto. Explicaciones:
Duncker, podría deberse a consecuencia del desplazamiento relativo de los objetos en el campo visual. Si uno de los
objetos rodea al otro, tiene mayor tamaño, etc., actuaría como el fondo sobre el cuál se percibe el mov. Si este objeto se
mueve, inducirá q el objeto estacionario se perciba en mov debido a q se produce un cambio relativo en las posiciones de
los dos objetos.
Wallach: podría deberse a q el sistema visual es más sensible al mov relativo entre dos objetos q al mov de un único objeto.
Rock: cuando el mov relativo entre dos objetos está por encima del umbral, (cuando se puede detectar la mayoría de las
veces), y el mov absoluto de cada objeto está por debajo del umbral (cuando el mov de cada uno de los objetos es
demasiado lento para que detectarlo), el sistema visual asume que el objeto más grande y que rodea al más pequeño es un
objeto inmóvil, y asigna el mov al objeto más pequeño y que está rodeado por el otro. Esta afirmación se apoya en que el
mov inducido desaparece o no se produce bajo las siguientes condiciones:
a) cuando el mov del objeto circundante está por encima del umbral, en este caso se percibe el mov de ambos objetos y
b) cuando se introduce alguna condición q permite observar el mov del objeto circundante (se ilumina la habitación), en
este caso no se observa mov inducido en el objeto más pequeño, sino sólo el desplazamiento del objeto circundante.
Movimiento aparente: En 1912, Wertheimer publicó un artículo sobre el movimiento aparente o estroboscópico que los
historiadores consideran como el inicio de la P de la Gestalt. En su experimento, que tuvo como sujetos experimentales a
Kohler y Koffka, Wertheimer presentaba como estímulos dos líneas paralelas verticales separadas por una distancia de un
centímetro. Se observaron distintos fenómenos que dependían fundamen- talmente del intervalo temporal entre la
presentación de las líneas (Fig 5.3). Cuando el intervalo era largo (200 milisegundos o más) se percibía una sucesión de
líneas sin ningún tipo de movimiento (primero una y después la otra).
Si el intervalo temporal era muy corto (menos de 30 milisegundos), las
dos líneas se percibían simultáneamente. En ninguno de los dos casos
se percibía movimiento. Cuando el intervalo temporal de presentaoon
entre las dos líneas era intermedio, entre 30 y 60 milisegundos, se
observaba un movimiento parcial, la primera línea parecía trasladarse
hasta aprox la mitad de la distancia que la separaba de la otra línea, y
la segunda línea parecía recorrer el resto de la trayectoria. Finalmente,
alrededor de los 60 milisegundos, se percibía movimiento, como si
realmente cada línea se desplazara hacia la posición que ocupaba la
otra. A este fenómeno de percep- ción del movimiento en ausencia de
un desplazamiento físico del objeto, se le denominó movimiento
aparente o movimiento óptimo. También se descubrió en estos
experimentos el movimiento <<FÍ>> o <movimiento puro>>, que
aparecía en el intervalo temporal entre 60 y 200 milisegundos y que
tenía como consecuencia la percepción de movimiento sin que se viera
el objeto que se movía, de aquí el nombre de movimiento puro.
- condiciones que determinan la percepción del movimiento aparente
El descubrimiento del movimiento aparente no sólo tuvo importancia en el de- sarrollo de la Teoría de la Gestalt, sino que
tuvo una enorme repercusión en la Psicología Experimental y numerosos investigadores se dedicaron a analizar el
fenómeno. Ej: Korte analizó detalladamente las condiciones que permiten la aparición del movimiento aparente, variando
la intensidad de los estímulos (1), la distancia entre estímulos (DEE) y el intervalo temporal entre los mismos (lEE). Sus
resultados pusieron de manifiesto las siguientes relaciones entre estas tres condiciones que producen movimiento aparente
y se conocen como las “leyes de Korte”, aunque algunos autores no las consideran como verdaderas leyes.
- Si se mantiene constante el intervalo temporal entre estímulos (lEE), la distancia óptima
para obtener mov aparente varía directamente con la intensidad de los estímulos, una mayor
distancia requeriría una intensidad mayor y viceversa.
- S i se mantiene constante la distancia entre estímulos (DEE), el valor óptimo del intervalo
temporal entre estímulos (lEE) para que se produzca mov aparente varía inversamente con
la intensidad de los Es, un mayor lEE requeriría una intensidad menor y viceversa.
- Si se mantiene constante la intensidad de los estímulos (1), el valor óptimo de la distancia
entre estímulos (DEE) varía directamente con el intervalo entre estímulos (lEE), una mayor
distancia requeriría un lEE mayor y viCeversa.
Pero ¿qué ocurre cuando se presentan más de dos estímulos y se aplica la alternancia de
encendido que daba lugar a la percepción de mov aparente? Figura 5.4. A ejemplifica una
disposición estimular más compleja en la que simultáneamente se presentan varias luces que
se encenderían en dos tiempos diferentes T1 y T2 con una tasa de alternancia adecuada para
que se observara mov aparente. Cuando se presenta esta sit se percibe el mov indicado en B,
es decir un movimiento en línea recta de izquierda a derecha. Sin embargo, ésta no es la
única trayectoria posible. En C, se presentan las posibles trayectorias de movimiento, que
además podrían aumentar a medida que aumenta el número de estímulos. ¿Por qué se
percibe la trayectoria descrita en B y no las representadas en C o cualquier combinación de éstas?. Esta situación
representa el problema de la correspondencia, en movimiento aparente, y parece que se debe a la adopción por parte del
sistema visual de determinadas reglas fijas como la proximidad espacial y temporal entre estímulos. Es decir, se percibe
mov entre los Es q presentan distancias más cortas o entre trayectorias q requieren menos tiempo.
Aunque la experimentación sobre movimiento aparente se ha realizado utilizando Es muy simples. Ej: los anuncios
luminosos que presentan figuras en mov, las imágenes del cine, tv o pantalla del ordenador son fenómenos de movimiento
aparente. En todas estas situaciones percibimos movimiento, pero lo que en realidad se está presentando como estímulo es
una escena inmóvil que es sustituida por otra después de un período de tiempo det. La tasa de cambio de la escena es de
aprox 24 veces por segundo en el cine, treinta veces por segundo en la tv y sesenta en la pantalla del ordenador.
- tipos de movimiento aparente
Braddick diferencia dos tipos de movimiento aparente:
1) Movimiento de corto alcance: se percibe cuando se observan películas en el cine, vídeos o en la pantalla del ordenador.
Se caracteriza por desplazamientos cortos (menos de .25° de ángulo visual) y tasas de alternancia rápidas (de 20 a 80
milisegundos). Se percibe monocularmente (con un sólo ojo) y con anterioridad a la integración de la inf procedente de los
dos ojos y al análisis de la forma y el color. En el laboratorio, este tipo de mov se estudia mediante la técnica
cinematograma de puntos aleatorios: consiste en colocar puntos al azar en cada una de las escenas q componen una
determinada secuencia, y analizar - a través de la manipulación de distintas variables (ej: el desplazamiento vertical u
horizontal de los puntos en escenas sucesivas)- qué intervalos espacio-temporales dan lugar a la percepción del mov.
2) Movimiento de largo alcance. Es el mov que se percibe en los experimentos descritos en la Teoría de la Gestalt y en los
anuncios luminosos. Se puede observar cuando las distancias son largas (más de 20° de ángulo visual) y el período
temporal de alternancia entre estímulos mayor de 200 milisegundos. Se da en etapas de procesamiento más tardías, es
binocular y requiere la integración de la inf de los dos ojos, la formación de unidades perceptivas por medio de la
organización perceptiva así como un análisis de la forma y el color.
La propuesta teórica de Braddick ha sido puesta en cuestión posterior- mente mediante sugerencias que indican que el
análisis del movimiento podría ser más complejo. En primer lugar, algunos autores señalan que, dado que los estímulos
utilizados en los experimentos sobre movimiento de corto y largo alcance son tan diferentes, es posible que lo que reflejen
las diferen- cias entre los dos tipos de movimiento sean respuestas diferentes de un único proceso a la estimulación
diferente, en lugar de la actuación de dos procesos distintos. Por otra parte, los resultados de estudios psicofísicos
posteriores in- dican que el sistema visual podría realizar tres tipos diferentes de análisis del mov. Los dos primeros, que
realizarían un procesamiento de abajo-arriba se corresponderían con el movimiento de corto alcance. En los dos sistemas,
el sistema de primer orden, cuya informa- ción básica es la luminancia y el sistema de segundo orden, cuya información
básica es la textura, se detectaría el movimiento a través de circuitos simples de detección del movimiento. Los sistemas de
análisis del movimiento de primer y segundo orden se caracterizan además por ser monoculares, sensi- bles y rápidos. El
tercer tipo de sistema de análisis del movimiento, que se correspondería con el movimiento de largo alcance propuesto por
Braddick, se caracteriza por ser binocular, poco sensible y lento, pero es más versátil que los sistemas de primer y segundo
orden y puede analizar cualquier tipo de estimulación. De acuerdo con Lu y Sperling, este sistema utilizaría tanto procesos
de abajo-arriba como de arriba-abajo en los que intervendría la aten- ción, que puede determinar el que se perciba o no
movimiento así como la dirección del mismo.
3. MECANISMOS FISIOLÓGICOS
3.1 Detectores del movimiento
Todavía no se conocen con exactitud los mecanismos fisiológicos que subya- cen a la percepción del movimiento; sin
embargo, dado el notable desarrollo que han alcanzado estos estudios examinaremos algunas de las aportaciones realizadas
hasta el momento. Una de las primeras preguntas, en relación con los mecanismos neuronales que subyacen a la percepción
del movimiento, es si existen neuronas especializadas en la detección de la dirección del mov. A partir de los años 60,
utilizando la técnica de registros unicelulares, se identificaron neuronas sensibles al movimiento en una determinada
dirección en los sistemas nerviosos de distintos organismos: ranas, palomas, conejos, ardillas, gatos y monos. Además, la
ubicación de las neuronas sensibles al mov es diferente según la escala filogenética. En organismos más inferiores en la
escala (ej: los conejos), aparecen en las células ganglionares de la retina, indicando que el procesamiento del movimiento
sería fundamentalmente periférico, mientras que en organismos más evolucionados como los gatos, únicamente un 1% de
las células ganglionares son sensibles al mov y no se han encontrado neuronas ganglionares sensibles al movimiento en los
monos, lo que indicaría q en los organismos superiores en la escala filogenética, el mov se procesa a un nivel más central.
La evidencia sobre la existencia de detectores de la dirección específica del mov en humanos procede de estudios
psicofísicos sobre posefectos de mov. El posefecto de mov de la cascada sugiere q, como consecuencia de una exposición
continuada a una estimulación, dets neuronas llegan a fatigarse y la fatiga puede sesgar el sistema hacia el mov contrario.
El posefecto de la cascada se estudió experimentalmente mediante una técnica denominada “adaptación selectiva”.
Mediante esta técnica se expone a los sujetos durante un período de tiempo prolongado a un E en mov; por ej, un patrón de
líneas que se desplaza en una det dirección. La exposición prolongada al E produce una disminución en la sensibilidad a la
dirección del movimiento observado bajo estas condiciones. Pero el declive en la sensibilidad no se generaliza a otras
direcciones o velocidades distintas de las observadas bajo condiciones de exposición prolongada. Los datos obtenidos con
la aplicación de esta técnica apoyan la existencia de neuronas sensibles al movimiento y sintonizadas a una dirección y/o
velocidad específica.
Los estudios realizados para determinar la ubicación de los detectores de la dirección del movimiento en humanos indican
que éstos no son periféricos y que se encuentran en el córtex visual. Mitchell et al presentaron un estímulo adaptador (mov
en una det dirección) a los observadores en un sólo ojo y obtuvieron posefecto de movimiento a una dirección específica.
El supuesto básico del que partían era que si los detectores de la dirección del mov estaban ubicados en la retina no debería
producirse transferencia del posefecto de movimiento al ojo que no había sido estimulado; es decir, el posefecto de
movimiento debía aparecer exclusivamente en el ojo en el que se había producido fatiga mediante la presentación
prolongada del estímulo adaptador. Sin embargo, los resultados mostraron que se producía el posefecto en los dos ojos.
Este resultado indicaría una transferencia del posefecto de mov de un ojo al otro, que únicamente se explicaría si los
detectores estuvieran situados en el córtex visual, en donde se combina la inf sensorial de los dos ojos. A su vez, esta
interpretación se ve reforzada por el hecho de q para q se produzca transferencia de los posefectos de mov binocular entre
los ojos es necesaria una buena visión binocular, ya q la transferencia no se produce en observadores con visión binocular
deficiente posiblemente debido a la falta de detectores de este tipo; y también por la necesidad de que exista fusión
binocular para q se produzcan posefectos de mov ya q cuando cada ojo observa mov en direcciones distintas no se produce
el posefecto de mov.
3.2 Análisis cortical del movimiento
Otros investigadores han examinado si se produce un análisis cortical del movimiento. En relación con este problema se
conoce que la mayoría de las células del área V1 son sensibles al mov de barras y bordes. Esto se ha determinado
examinando si son sensibles a una dirección específica. Si es así, su tasa de disparo será mayor ante esa dirección
específica q ante otras direcciones. Además, el grado de especificidad de las neuronas suele ser grande y algunas de ellas
responden de forma selectiva no sólo a una det dirección del mov sino tb a una det velocidad.
Sin embargo, en el área V1 parece que únicamente se responde a un desplazamiento de la imagen en la retina; el
procesamiento de aspectos más complejos del movimiento se realiza en zonas más especializadas, fundamen- talmente las
áreas MT y MST del lóbulo temporal que sepueden observar en la Figura 4.20. La evidencia sobre el papel desempeñado
por estas dos áreas en la percepción del movimiento procede de dos campos: los estudios sobre el efecto de lesiones
experimentales producidas en los primates y algunos estudios clínicos en humanos. En los estudios realizados con primates
se produce una lesión experi- mental inyectando sustancias que destruyen determinados centros nerviosos y se analiza el
efecto en la ejecución en tareas de detección del movimiento y otras funciones perceptivas (forma, color contraste, etc.).
Los resultados de estos estudios muestran que la ejecución en una tarea de detección de la dirección del movimiento se
deteriora sensiblemente cuando se produce una lesión en una pequeña parte del área MT como consecuencia de la
inyección de una toxina. Sin embargo, si el estímulo se presentaba en una parte distinta a la lesionada, la ejecución era
normal. Por otra parte, la lesión no afectaba a la ejecución en tareas distintas a la detección del movimiento como podía ser
la percepción del color. La importancia de estas áreas en la percepción del movimiento se ha puesto de manifiesto también
en estudios clínicos procedentes de la Neuropsicología, que indican cómo las lesiones en esta parte del cerebro dejan
intactas la percepción de la forma o el color pero dificultan o impiden totalmente la percepción del mov. En lugar de
percibir movimiento, estos pacientes perciben instantáneas en las que los objetos cambian bruscamente de posición,
perciben que el objeto cambia de posición pero no el desplazamiento de una posición a otra distinta.
4. MODELOS DE DETECCIÓN DEL MOVIMIENTO
Aunque se conoce que algunas células del cortex visual responden de manera selectiva a la dirección del movimiento, el
mecanismo por el que se responde de esa forma es desconocido. Para analizar este problema se han desarrollado modelos
de detección del movimiento; a continuación y a modo de ejemplo examinaremos dos de ellos.
Algunos modelos proponen básicamente un tipo de detectores que comparan la percepción de un estímulo (por ej un borde)
visto en una posición det (A) y en un tiempo (t1), con ese mismo E en una posición distinta (B) y en otro tiempo (t2). La
única diferencia entre estos modelos radica en la forma en que se establece la comparación.
Reichardt desarrolló el primer modelo sobre la disposición y fun- cionamiento de las neuronas sensibles a la dirección y
velocidad del mov en insectos. Un esquema del modelo se presenta en la Figura 5.5.
El modelo propone la intervención de varias unidades neuronales: a) las neuronas
representadas por A y B son receptores visuales contiguos, que se comportarían como
células corticales simples, células que responden a líneas o bordes que presentan una
determinada orientación y posición; b) las neu- ronas representadas en C realizan la función
de comparar las señales que provienen de A y de B.
El supuesto básico del modelo es el siguiente: cuando un estímulo (por ejemplo, una luz o
un borde) se desplaza a lo largo de una serie de receptores contiguos, por ejemplo de
izquierda a derecha, éste se detectará en el primer receptor visual (en este caso A) de la
misma forma que en el segundo (B) pero con una demora temporal (dt) que está
determinada por la distancia entre los receptores A y B, y por la velocidad de
desplazamiento del objeto. En la uni- dad C, se comparan las señales neuronales que
provienen de A y de B. Si las dos señales llegan al mismo tiempo, la unidad de
comparación e responderá, señalando movimiento del estímulo. Cada sistema (A y B) está
sintonizado a una dirección específica del movimiento. El sistema representado en la Figu-
ra 5.5, señalará la presencia de movimiento hacia la derecha (de A hacia B) porque el movimiento en dirección contraria
(de B hacia A) producirá señales que no llegan al mismo tiempo, es decir, señales que no están sincronizadas. Además de
la sintonización a una determinada dirección, las unidades neuro- nales A y B están sintonizadas a una determinada
velocidad que puede influir en la sincronización. Es decir, la velocidad puede determinar que las señalesprocedentes de A y
B lleguen o no al mismo tiempo. Dado que la coincidencia temporal entre ambas señales depende de la cantidad de demora
temporal de la señal de la célula A, cuando el estímulo presenta mayor velocidad, se nece- sitarán demoras temporales más
cortas para sincronizar las señales.
Adelson y Movshon propusieron un modelo en dos etapas para
explicar el mov en patrones complejos formados por enrejados, como
los que se han visto en el apartado dedicado al análisis de la frecuencia
espacial en el cap 3, que se desplazan en direcciones distintas (Fig
5.6). Según esta propuesta teórica, las unidades de la primera etapa
computarían la dirección del movimiento de cada enrejado
componente, es decir computarían movimiento local. Las unidades que
actúan en la segunda etapa combinarían la información de los
enrejados componentes para extraer la dirección del patrón compuesto;
es decir, computarían movimiento global. La evidencia a favor de este
modelo procede de un estudio realizado por De- rrington y Suero
(1991). Por otra parte, los estudios realizados por Movshon et al.
(1986) muestran que, cuando se presenta este tipo de estímulos, deter-
minadas células del área V1 responden a la dirección de los
componentes, al movimiento local, pero no responden a la dirección
del patrón compuesto, al movimiento global; mientras que las células del área MT responden a ambos tipos de movimiento
global y local. Los resultados parecen indicar que el pro- cesamiento en la primera etapa se desarrollaría en el área V1
mientras que, en la segunda etapa, el procesamiento se llevaría a cabo en el área MT.
5. PERCEPCIÓN DE ACONTECIMIENTOS
Los estudios sobre percepción de acontecimientos o sucesos analizan los cam- bios percibidos en la estructura del estímulo
a través del tiempo Qohansson, 1978). Los estímulos en este contexto son mucho más complejos que los ana- lizados hasta
ahora y consisten en secuencias de movimiento.
5.1. Percepción de la causalidad
La investigación pionera en este campo fue realizada por Michotte (1946) en sus trabajos sobre percepción de la causalidad
y se centró en el examen de las condiciones que determinan que un acontecimiento se perciba como causa de otro
acontecimiento. Un ejemplo ilustrativo es el que se puede observar en el movimiento de las bolas de billar; cuando una
bola golpea a otra y la segunda se mueve, se percibe que el movimiento de la primera bola es la causa del desplazamiento
de la segunda. Lo mismo ocurre con la percepción de aconte- cimientos, si un objeto en movimiento colisiona con un
objeto inmóvil y éste comienza a moverse en la misma dirección del primero, se percibirá que el movimiento del primer
objeto es causa del movimiento del segundo.
El planteamiento básico de Michotte parte de la consideración de que se puede percibir directamente la conexión causal
entre determinados tipos de acontecimientos sin necesidad de recurrir a la intervención de experiencias previas. Para que
esto se produzca es necesario que se cumplan las siguientes condiciones: 1) la presencia de dos objetos, A y B; 2) que el
movimiento de uno de los objetos se perciba en primer lugar; 3) que el impacto del objeto A sobre el objeto B se perciba en
la fóvea, para lo cual es conveniente que el observador fije su vista en el objeto B; 4) que no existan discontinuidades
pronunciadas entre tiempo, espacio y dirección del movimiento. En gene- ral, las condiciones límite para percibir la
causalidad serían las siguientes: a) cuando el tiempo transcurrido entre el impacto de A sobre B y el comienzo del
movimiento deBes menor que 100 milisegundos; b) cuando A no alcanza completamente a B sino que quedan separados
por una distancia mínima y e) cuando la dirección del movimiento deBes algo diferente de la del movi- miento de A. Sin
embargo cuando estas discontinuidades se acentúan no se percibe la causalidad.
Michotte, utilizando como estímulos unos cuadraditos que se observaban a través de una ranura en una pantalla, identificó
una serie de condiciones que permiten la percepción de distintos tipos de causalidad dependiendo de la dirección del
movimiento, su velocidad y el tiempo transcurrido desde la colisión de los dos objetos y el comienzo del movimiento del
segundo. Los tres tipos de efecto identificados por Michotte se pueden observar en la Figura 5.7.
En 1, se muestra el efecto de lanzamiento: A y B se presentan inmóviles,
movimiento de A hacia B, colisión de A y B, parada de A y mov de B. Para
q se perciba este efecto se requieren estas condiciones: la dirección del
movimiento de B debe ser aprox igual a la de A y la velocidad de
desplazamiento de B, debe ser menor o aprox igual a la de A.
En 2 se presenta el efecto de arrastre cuya secuencia es: desplazamiento de
A hacia B, colisión de A y B y desplazamiento de A y B unidos. Las
condiciones necesarias para que se pueda percibir el efecto de arrastre son
que se perciba previamente el movimiento de A y la percepción del
movimiento conjunto de A y B.
En 3, se presenta el efecto de disparo, que se produce cuando la velocidad
de desplazamiento de B, dp de la colisión, es superior a la q presenta A, y la
“impresión”, en términos de Michotte, es que el objeto B sale disparado como resultado de su colisión con A.
A pesar de la afirmación de Michotte de que la percepción de eventos era directa y posiblemente innata, los resultados de
estudios posteriores, en los que se utilizaron los mismos estímulos y condiciones experimentales, revelaron la existencia de
diferencias individuales en la percepción de los efectos de lanzamiento, arrastre y disparo, lo que sugiere que la percepción
de la causalidad podría estar influida por experiencias anteriores de los observadores (Boyle).
5.2. Movimiento biológico
La línea de invest sobre percepción del mov biológico, o mov de los organismos, desarrollada x Johansson quien diseñó un
proced para estudiar el mov del cuerpo humano: consistió en vestir a unos actores completamente de negro y colocar unos
discos luminosos en sus articulaciones (hombros, codos, muñecas, caderas, ingles, rodillas y tobillos); véase la Fig 5.8. El
actor o actores, permanecían inmóviles y realizaban una serie de movimientos, como correr, andar, hacer flexiones, bailar,
etc. en una habitación completamente oscura. Estos movs fueron filmados en una película que se presentó posteriormente a
unos observadores para examinar si eran capaces de distinguir los distintos movimientos realizados por los actores, a partir
de la observación de los focos luminosos situados en las articulaciones. Los resultados mostraron q los observadores
podían distinguir perfectamente los movs (andar, flexionar, bailar, etc.) Sin embargo, no podían distinguir la forma (el
cuerpo humano) cuando el actor permanecía inmóvil en distintas posturas; en este caso percibían un conjunto de luces
colocadas más o menos al azar sobre un fondo oscuro.
En la misma línea, Runeson y Fryckholm analizaron la estimación de levantamiento de pesos a partir de los movimientos
que realizaban los actores. El proced consistió en la observación de una secuencia de conductas en la que unos actores
simulaban un levantamiento de pesos o lanzaban sacos de arena, utilizando la técnica ideada por Johansson. La tarea de los
observadores consistió en estimar el peso a partir de los movimientos que realizaban los actores. Los resultados obtenidos
con este proced, proporcionaron un índice fiable de la estimación del peso.
La evidencia sobre la percepción del movimiento biológico procede de estudios posteriores utilizando
técnicas similares que han permitido la identificación del sexo del actor en función de la forma de caminar,
la forma de caminar propia o la de personas conocidas. Las investigaciones en las que se ha empleado esta
técnica muestran que los bebes de cuatro meses son capaces de percibir el movimiento biológico. Por
último, estudios recientes han identificado neuronas selectivas al movimiento biológico en monos y un
aumento en la actividad del surco temporal en humanos ante la observación de estímulos similares a los
descritos en las investigaciones sobre percepción del movimiento biológico.
5.3. Movimiento propio y flujo óptico
El estudio del movimiento propio se ha desarrollado en el marco de la teoría de la percepción directa, propuesta por Gibson
que constituye un acercamiento teórico muy diferente, por lo que examinaremos algunos aspectos generales de la teoría de
la percepción directa que son relevantes para el análisis de la percepción del movimiento propio.
Desde el punto de vista de Gibson, lo importante en percepción es descubrir las estructuras de inf presentes en el medio
ambiente (la conformación óptica en el caso de la modalidad visual). En su opinión, y a diferencia de la mayor parte de las
teorías perceptivas, el análisis de los mecs de proces no es importante ya que si se conoce bien la inf real q pueden usar los
observadores, los modelos de procesamiento de la inf son innecesarios. Uno de los supuestos básicos de la teoría de la
percepción directa es que el factor determinante en la percepción es la interacción directa del observador y el objeto físico
observado. Por ello, cualquier tipo de discusión sobre atributos del estímulo próximo, transformación de la estimulación o
codificación sensorial, carece de sentido. En base a lo anterior, el modelo propuesto por Gibson, en relación con la
percepción visual, constituye un intento para determinar la forma en que la luz reflejada en los objetos físicos transmite
información acerca del medio ambiente.
El estímulo para Gibson es la conformación óptica, conjunto de rayos de luz que incide sobre el observador en un punto de
observación det. Admás, considera que en la generación del percepto, el factor casi exclusivamente determinante es el
estímulo. Por ello, en la teoría de la percepción directa, el observador atiende a la conformación óptica pero no le otorga un
significado. El significado viene determinado por el estímulo, por la escena ambiental. La conformación óptica, contiene
además información invariante sobre los cam- bios de intensidad que proporcionan información acerca del ambiente del
que procede la luz, delimitando contornos o bordes, que permitirán la percepción. Los invariantes consisten en
características relativamente permanentes de la si- tuación a pesar de los movimientos del observador.
Por otra parte, los movs del sujeto cambian el punto de vista desde el q se observan los objetos y, en consecuencia, tb se
produce un cambio en la conformación óptica. El cambio en el patrón estimular, producido como consecuencia del
desplazamiento de los observadores o del movimiento de la cabeza o los ojos, denominado flujo óptico, que se ha visto en
el capítulo 4, es el que proporciona información acerca de la naturaleza del movimiento. El flujo óptico proporciona dos
tipos de inf: sobre la distancia o perspectiva del movimiento y sobre el movimiento propio. Esta inf permite el control
visual de la locomoción, la postura y la dirección, la evitación de obstáculos, etcétera.
La percepción del movimiento propio depende del análisis del cambio continuo en la imagen retiniana a medida que nos
desplazamos en el espacio o movemos la cabeza o los ojos. Figura 5.9: ej de la sit más simple de flujo óptico, en la que el
observador fija la vista en un punto (punto de fijación) en el que está situado un objeto det y se desplaza para aproximarse
al objeto o retrocede. En el primer caso, cuando se camina hacia adelante y se fija la vista en un objeto situado al frente, el
patrón estimular característico es el q se representa en la Fig 5.9.A, en el q la flechas representan un patrón de flujo óptico
de expansión a medida que el observador se acerca al objeto. En B: ej de patrón de flujo óptico de contracción; este cambio
en el patrón estimular se produciría cuando el movimiento es de retroceso. Patrones de flujo óptico mucho más complejos
se generarían cuando el observador mueve los ojos o la cabeza al mismo tiempo que se desplaza.
Según Gibson, en la sit de la Fig 5.9, la dirección del mov vendría indicada por el denominado foco de expansión óptica q
se sitúa en el centro del patrón de flujo. Por otra parte, el foco de expansión también puede aportar inf acerca de la
distancia a la que se encuentra el objeto. Debido a la expansión, cuando nos dirigimos hacia un lugar det a una velocidad
constante, el tamaño de la imagen retiniana del objeto aumenta rápidamente a medida que nos acercamos; esto permite
determinar el “tiempo de impacto” con el objeto y evitar colisiones. El estudio de este efecto tiene importantes aplicaciones
en distintos campos, tales como la conducción de automóviles, seguridad vial, deportes, etc.
Las invests q permitieron el descubrimiento del patrón de flujo óptico se realizaron durante la 2GM cuando Gibson
diseñaba pruebas para pilotos. Observó que cuando una película filmada desde la cabina de un avión mientras aterrizaba, se
proyectaba después en una pantalla plana, se producía una deformación sistemática de la imagen de la superficie del suelo.
Sin embargo, cuando presentó la película a observadores ajenos a la investigación, éstos indicaron q no observaban
ninguna deformación sino q percibían su propio movimiento en una dirección det.
Estudios posteriores intentaron demostrar el uso del flujo óptico por parte de los observadores en rel con diversos aspectos
del mov propio. Ej: Warren, Morris y Kalish presentaron a los observadores una serie de películas en las q mediante puntos
q se desplazaban en el espacio, se simulaban los distintos patrones de flujo óptico que se generarían al caminar en distintas
direcciones. La tarea del observador consistía en proporcionar un juicio de dirección, indicando si se dirigía hacia la
derecha o hacia la izquierda de un objetivo situado en distintos lugares de la línea del horizonte. Los resultados mostraron
q los observadores fueron muy precisos en sus respuestas, incluso cuando los patrones de flujo estaban formados por muy
pocos puntos, lo que indicaría q el sistema visual puede determinar la dirección a partir del flujo óptico.
También se ha examinado si los mecanismos de expansión óptica informan de la aproximación a un objeto o posición dets.
Algunas invests realizadas con pilotos muestran que los más eficaces al realizar una tarea de simulación de aterrizajes, es
decir, los que necesitaban realizar menos maniobras y menos correcciones para aterrizar, eran aquellos que presentaban
mayor sensibilidad a los cambios de tamaño.
Por otra parte, los resultados de diversos trabajos han aportado otras características importantes como son: la percepción de
trayectorias curvas a partir del flujo óptico; que la percepción de la dirección a partir del flujo óptico es independiente de la
posición retiniana (con la excepción de una ligera ventaja en la fóvea) y que la información efectiva no es el foco de
expansión per se sino el patrón de flujo global que lo define (Warren, 1998).
Finalmente, los resultados de investigaciones sobre mecanismos fisiológicos indican que las células del área MST
responden ante sits estimulares características del flujo óptico como desplazamientos en el área frontal, rotaciones, y
patrones de expansión y contracción.
RESUMEN: La percepción del movimiento es extraordinariamente importante para una interacción adecuada del
organismo con los objetos de su entorno. Se puede percibir movimiento bajo distintas circunstancias. Cuando la percepción
del movimiento es causada por el desplazamiento del objeto se denomina movi- miento real. Las investigaciones clásicas
sobre movimiento real se han centra- do fundamentalmente en la determinación de los umbrales de movimiento. Por otra
parte, bajo el término <<ilusiones de movimiento>> se hace referencia a la percepción del movimiento bajo distintas
condiciones en las que no exis- te desplazamiento del objeto. Los posefectos de movimiento, el movimiento auto-cinético,
el movimiento inducido y el movimiento aparente, constitu- yen ejemplos de ilusiones de movimiento. La percepción de
acontecimientos, hace referencia a la percepción de movimientos complejos y encadenados, como la que se experimenta en
la percepción de la causalidad, el movimiento biológico y el movimiento propio. Finalmente, los estudios realizados sobre
mecanismos neuronales implicados en la percepción del movimiento indican por una parte, la existencia de detectores
especializados en la dirección del movimiento y, por otra parte, a nivel cortical, la intervención de las áreas MT y MST del
lóbulo temporal en la percepción del movimiento.
T.6 PERCEPCIÓN DE LA FORMA I. ORGANIZACIÓN PERCEPTIVA
Habitualmente no percibimos un mundo formado por bordes, rayas, puntos, etc., a no ser que hayamos sido entrenados, o a
menos que en alguna sit experimental se nos proporcionen instrucciones para hacer esto. Lo q percibimos es un mundo
formado por objetos estructurados, es decir, escenas mucho más complejas que las características o rasgos simples.
La percepción de objetos constituye un nivel superior a la simple detección de características en el proceso perceptivo.
La percepción de objetos del mundo real nos parece obvia y no nos plantea problemas a no ser q padezcamos deficiencias
visuales o neurológicas, pero es un proceso complejo y de difícil explicación. La estimulación que incide en los millones
de fotorreceptores de la retina es energía electromagnética, luz reflejada desde los objetos reales del medio ambiente. Esta
energía forma una imagen en la retina, imagen retiniana, q consiste en una distribución bidimensional (un mosaico) de luz
de diferentes intensidades y longitudes de onda. La inf contenida en la imagen retiniana es ambigua y no está organizada,
es decir, no contiene objetos tal y como los percibimos. ¿Cómo es posible, que podamos tener en los objetos percibidos un
reflejo tan exacto de los objetos del mundo real a partir de la inf contenida en la imagen retiniana? Este es el problema
básico en la percepción de la forma y su objetivo de estudio es comprender los procesos por medio de los cuales el sistema
visual genera la experiencia perceptiva de un objeto a partir de la inf contenida en la imagen retiniana.
Pero los procesos que subyacen a la experiencia perceptiva no se pueden identificar con los fenómenos de la percepción de
la forma. Los fenómenos de los que se ocupa la percepción de la forma, son el resultado del proceso perceptivo, incluyen
tanto la experiencia perceptiva del observador como los datos obtenidos mediante la utilización de tareas experimentales en
el agrupamiento, segregación de la textura, discriminación de formas, etc. En los capítulos dedicados a percepción de la
forma se examinarán algunos ejs de fenómenos que constituyen el resultado de los procesos perceptivos y, a partir de los
cuales, se puede inferir la actuación de una serie de mecs y procesos q el sistema visual utiliza para extraer, interpretar y
dar significado a la información sobre los objetos del entorno. Uno de estos mecanismos, la organización perceptiva,
facilita la extracción de regularidades presentes en los objetos naturales, permitiendo así la segregación y agrupamiento de
la estimulación necesarias para la percepción del objeto. Otros procesos nos facilitan el desenvolvimiento en el entorno.
Entre estos, los procesos de detección, nos permiten descubrir la presencia de uno o varios objetos en el entorno (ej: si
caminamos en la oscuridad es importante que podamos descubrir la presencia de obstáculos en nuestro camino). Un
proceso más complejo que el anterior es el de discriminación que nos permite diferenciar un objeto de otro y, de este
modo, seleccionar la información relevante en un momento determinado o para realizar una acción específica. Ej: si
estamos conduciendo es necesario discriminar las señales que indican un peligro de aquellas otras señales que indican solo
una información, esto puede realizarse simplemente discriminando la forma o el color de las señales. Finalmente, los
procesos más complejos, identificación y reconocimiento, permiten determinar con exactitud el objeto en cuestión; ej:
para abrir la puerta es imprescindible no sólo distinguir unas llaves de otras sino tb identificar y reconocer la llave
apropiada, e implican la intervención de procesos plógicos como la representación en la memoria de una imagen det.
Los procesos de detección, discriminación y rec están jerarquizados en cuanto a su func y al grado de inf estimular que
requieren. En relación con el func, los procesos más complejos requieren la intervención de los más simples. No podemos
discriminar un objeto de otro si previamente no lo hemos detectado, tampoco reconocer un objeto si previamente no lo
hemos detectado y lo hemos diferenciado de otros objetos presentes en el entorno. En cuanto a la jerarquía en el grado de
inf q requieren los procesos, los más complejos requieren inf estimular más precisa que los procesos más simples.
1. ORGANIZACIÓN PERCEPTIVA La definición de org perceptiva difiere de unos a otros x su posición teórica.
Teoría de la Gestalt: el conjunto de fs o condiciones q permiten la constitución del objeto percibido.
Lo común a todas las posturas teóricas es la preocupación por dar respuesta a dos preguntas básicas que se han planteado
los científicos desde los inicios de la Psicología Experimental en relación con la percepción de la forma:
1) para poder percibir un objeto es necesario distinguirlo del contexto así como de otros objetos presentes ¿cómo se
segregan las unidades estimulares unas de otras para dar lugar a la percepción de objetos distintos y diferenciados?
2) si la inf en la imagen retiniana es ambigua ¿cómo se agrupan los elementos estimulares discretos e inconexos para dar
lugar a unidades perceptivas más amplias como objetos o superficies?
1.1 Principios de organización perceptiva
En rel con estas 2?, la Gestalt desarrolló una serie de principios q describen cómo se llevan a cabo dos mecs básicos de la
org perceptiva: la segregación de objetos, o percepción de la figura y el fondo, y el agrupamiento de elementos
estimulares discretos e inconexos en unidades perceptivas más amplias o agrupamiento perceptivo.
- Principios de segregación de la figura y el fondo: La segregación de objetos consiste en la percepción de una figura que
se destaca sobre un fondo y se considera como el tipo de org perceptiva más elemental. Descubierta x Rubín a partir de sus
trabajos con figuras reversibles como la presentada en la parte superior de la Fig 6.1, en la q se puede percibir una copa o
dos caras_ En esta fig se pueden diferenciar dos regiones, una blanca q corresponde a la fig de la copa, y otra negra, a de
las caras. Las dos regiones están delimitadas por un contorno (límite entre la parte
blanca y la negra). Véase que cualquiera de las dos partes representa en esta fig puede
actuar de figura o de fondo dependiendo de que el sistema visual asigne el contorno a
una de las dos regiones. Si se asigna el contorno a la parte blanca se percibirá la copa
como figura. Por el contrario, si se asigna a la parte negra se percibirán las caras. Sin
embargo, es imposible percibir las dos partes como figura o como fondo a la vez. Si
se percibe la copa como figura no se pueden percibir las caras al mismo tiempo, sino que éstas se perciben como fondo.
Por el contrario, si se perciben las caras como figura, la copa pasa apercibirse inevitablemente como fondo. En la parte
inferior de la figura si se percibe un candelabro se puede percibir a la vez una cara de frente, pero resulta difícil percibir las
dos caras de perfil. A su vez, si se perciben las dos caras de perfil resulta muy difícil percibir el candelabro.
Otros ejs de este principio lo encontramos en algunas obras de arte como las conocidas obras de Escher en las que se
alterna la percepción de figuras (véase Figura 6.2).
Las invests de Rubín consistieron en observaciones y descripciones fenomenológicas sobre las
impresiones de los observadores cuando se les presentaban Es como los descritos antes llamados
figuras reversibles. A partir de aquí desarrolló una serie de descripciones sobre las características
diferenciales de la figura y el fondo según los cuales, la figura y el fondo se diferencian en:
a) la figura tiene carácter de objeto, el fondo no.
b) la figura tiene forma, el fondo no. La forma de la figura procede del contorno que la delimita,
ej en las figuras reversibles presentadas en la parte superior de la Fig1 la asignación del contorno
a la parte blanca o negra determina q esa parte se perciba cm figura.
c) la figura tiene color de superficie mientras que el fondo es menos denso;
d) la figura está localizada frente al fondo.
e) resulta más fácil discriminar figuras entre sí que fondos.
f) la figura se conecta más fácilmente a significados que el fondo.
Rubín y dp otros, establecieron a partir de sus invests, las condiciones estimulares q permiten
predecir qué partes del campo visual se percibirán como figura o como fondo. Estas condiciones
estimulares fueron llamadas x los de la Gestalt “principios de organización de la figura y el fondo” (Cuad 6.1). Ejs Fig 6.3.
CUADRO 6.1. Principios de organización gura-fondo
Áreas envolventes y envueltas. Las áreas envueltas tenderán a percibirse como gura y las
envolventes como fondo.
Simetría. Las áreas que presentan simetría en su eje vertical tenderán a percibirse como
guros con mayor facilidad que las que no la presentan.
Áreas convexas y cóncavas. Las áreas convexas tenderán a percibirse como guros con
mayor probabilidad que las cóncavas.
Orientación. Las áreas orientadas vertical-horizontalmente se perciben como ggros con
mayor facilidad que las oblicuas.
Tamaño relativo. Las áreas de menor tamaño tenderán a percibirse como gu- ra con
prioridad a aquellas que presenten un tamaño mayor.
Contraste. Las áreas que presenten mayor contraste con el contorno global se percibirán
más fácilmente como guros que aquellas que presenten menos contraste.
- Principios de agrupamiento perceptivo: desarrollados por Wertheimer, quien advirtió que, a igualdad de otras
circunstancias, los elementos estimulares discretos e inconexos cuando se presentan simultáneamente tienden a percibirse
como patrones o unidades perceptivas más amplios o distintos, en función de determinadas propiedades. Es decir, se trata
de la reunión de dets elementos estimulares que comparten alguna propiedad común en unidades perceptivas distintas.
Ej: en la parte superior de la Fig 6.4, la organización percibida es ambigua porque en este caso puede percibirse desde un
cuadrado formado por puntos hasta distintas organizaciones alternativas: filas, columnas o diagonales de puntos, aunq la
percepción de estas orgs alternativas requiera un esfuerzo y no sea tan evidente como la primera. Sin embargo los
elementos estimulares discretos se pueden agrupar en función de una serie de principios (Cuadro 6.2). En la fig 6.4 se
presentan algunos ejs de estos principios.
Palmer, ha sugerido una clasificación de los principios de agrupamiento perceptivo:
- principios de agrupamiento intrínseco, se encuadran la mayoría de los principios clásicos de la Gestalt, y según los cuales,
los elementos estimulares discretos se agrupan en unidades perceptivas más amplias o distintas en función de su
proximidad, semejanza en color, forma, tamaño, etc.
- principios de agrupamiento extrínseco, en los q los els estimulares discretos se agrupan y forman unidades perceptivas
distintas en función de la actuación de elementos externos añadidos al E inicial. Ej: el hecho de encerrar los els estimulares
discretos en una figura geométrica, puede determinar q se agrupen (principio de región común), o, el hecho de q se
conecten los distintos elementos, puede producir que se perciban como una unidad (principio de conexión o cohesión de
elementos). Estos 2 principios de agrupamiento extrínseco han sido propuestos por Palmer y Rock (Fig 6.4). Finalmente,
los principios de agrupamiento tb pueden diferenciarse según la cohesión del percepto resultante de su actuación. Ej: en
algunos principios de agrupamiento intrínseco como semejanza y proximidad y en el principio extrínseco de región común,
se forman agregados perceptivos en los q los els se perciben con una relativa independencia, mientras q en el principio
intrínseco de buena continuación y en el extrínseco de conexión se percibe un objeto más cohesionado (Palmer, 1999)
CUADRO 6.2. Principios de agrupamiento perceptivo
Proximidad. Los elementos más próximos tienden a agruparse entre sí forman- do unidades perceptivas distintas.
Semejanza. Los els más semejantes tenderán a agruparse entre sí. La semejanza puede ser de forma, color, tamaño, orientación etc. y la
conjunción de varias dims llevará a un agrupamiento más o menos potente. Cierre. Las formas cerradas tienden a percibirse con
preferencia a las formas abiertas.
Buena continuación. Se tiende a percibir cambios suaves en la estimulación con preferencia a cambios pronunciados.
Destino común. Los elementos q presentan una misma pauta de mov se percibirán como formando una misma unidad perceptiva.
Los principios de org perceptiva propuestos por la Gestalt han sido considerados por algunos autores como regularidades q
usa el sistema visual para organizar la inf ambigua. Estas regularidades, además, constituyen propiedades de los objetos.
Cuando observamos una mesa la distinguimos como figura en un entorno det (figura-fondo), la percibimos cm un objeto
compacto formado x distintos elementos (tablero, patas, travesaños, etc.); a su vez percibimos las uniones de estos
elementos (proximidad), las partes q son similares y diferentes (tablero frente a patas); y seguimos percibiendo la mesa
como un único objeto aun en el caso de q uno de los travesaños esté despegado (cierre).
- Limitaciones de la Teoría de la Gestalt: La principal aportación de la Gestalt a la percepción fue la observación de dets
fenómenos perceptivos y la descripción de las condiciones bajo las cuales se percibe una det org. Limitaciones teóricas:
1) los principios de org perceptiva de los gestaltistas han sido considerados vagos e imprecisos. Consecuencias:
- q los principios no se apliquen siempre de la misma forma ante los mismos fenómenos. Ej: en las figuras reversibles o
ambiguas, el esfuerzo del observador en dirigir la atención hacia una parte det del estímulo puede hacer que se inviertan las
relaciones entre la figura y el fondo percibiéndose lo que en un principio aparecía como figura como fondo y viceversa.
- q se puedan aplicar principios de org perceptiva que presentan una contraposición teórica a un mismo patrón estimular.
Ej: frecuentemente los principios de simetría y convexidad, que intervienen en la segregación de la figura y el fondo,
entran en conflicto, prevaleciendo generalmente el principio de convexidad sobre el de simetría, lo cual iría en contra del
principio teórico de la Gestalt según el cual se percibirá la organización más simple posible.
2) los principios son meramente descriptivos y no se ha desarrollado una teoría general que proporcione una explicación
sobre los mismos. La falta de explicación de los principios se ha atribuido, a la escasa experimentación y a la metodología
q consistió fund en demostraciones fenomenológicas. Este proced consistía en presentar a los observadores un patrón como
el de la parte superior Fig 6.4, q no produce un agrupamiento det, y patrones semejantes a los q se presentan en la misma
fig (A, B, C y D) y en los q se puede percibir una org det, en virtud del agrupamiento de
los els en base a dets propiedades (color, tamaño, forma y proximidad) y los observadores
tenían q informar de la org percibida en cada uno de ellos. Inconveniente del proced: q al
estar basado en la impresión subjetiva no permite determinar objetivamente q una R sea o
no correcta, ni obtener datos numéricos q permitan contrastar las teorías.
Pero en rel con las críticas a la metodología, señalar q algunos autores consideran las
demostraciones de la Gestalt como auténticos experimentos. Según Rock, la
manipulación en los Es puede considerarse cm una VI, y la VD consistiría en el percepto
q se obtiene consecuencia de esta manipulación. Y se han desarrollado métodos de
cuantitativos en el estudio del agrupamiento, q permiten paliar algunas de las dificultades.
Pero algunos de los problemas planteados por la Gestalt siguen siendo problemas funds
en de la percepción. El estudio de las rels entre el todo y las partes, los efectos de
superioridad del objeto y de superioridad configuracional, el proces de aspectos globales
y locales de los patrones visuales jerárquicos, la segregación perceptiva en base a la
textura y las rels entre mecs de selección atencional y org perceptiva, son ejs del interés
actual de los investigadores en los problemas planteados en el seno de la Gestalt.
2. DESARROLLOS POSTERIORES EN EL ESTUDIO DE LA ORGANIZACIÓN PERCEPTIVA
La mayoría de invests posteriores han intentado dar explicaciones teóricas bsadas en la ejecución en tareas experimentales.
2.1. Investigaciones sobre la segregación de la figura y el fondo
han dedicado menos at a las diferencias fenomenológicas entre estas dos regiones del campo visual y se han centrado en el
análisis de los mecs q las diferencian y en encontrar una explicación a este fenómeno basada en el procesamiento de la inf.
- Componentes de frecuencia espacial y segregación de la figura y el fondo Julesz sugirió diferentes sistemas de proces
para la percepción de la figura y el fondo. Partiendo de las descripciones fenomenológicas de la Gestalt q afirman q la
figura está más articulada y tiene carácter de objeto, mientras q el fondo no presenta estas caracs, y de la predicción de q la
región del campo visual q presente más detalles se percibirá como figura, propuso q el proces de la figura se caracterizaría
x un análisis de los detalles de la imagen, y el del fondo por estructuras más globales. Ahora sabemos a través de los
resultados de estudios psicofísicos, q la zona espectral q contiene frecuencias espaciales altas contiene inf sobre los detalles
de la imagen (características de grano fino), mientras q la zona espectral q contiene frecuencias espaciales bajas lleva inf
sobre aspectos globales de la imagen (características de grano grueso).
Algunos investigadores han tratado de analizar si existe una asociación entre los cs de frecuencia espacial de las imágenes
y la percepción de la figura y el fondo. Wong y Weisstein diseñaron una sit experimental en la q presentaban líneas nítidas
(características de grano fino de la imagen) o borrosas (características de grano grueso de la imagen) en las dos regiones de
una figura reversible, en la figura de la copa y las caras de Rubin. La tarea consistía en detectar líneas
nítidas o borrosas cuando se presentaban en el contexto de la figura o en el del fondo. En la parte superior
de la Fig 6.5 se presenta la región del campo visual (A, B o C), en la q se presentaba la línea a detectar.
Cuando se presentaba en A, la copa era la figura, cuando se presentaba en B y C, las caras eran la figura.
Los resultados mostraron q las líneas nítidas, que presentarían cs de alta frecuencia espacial, se detectaban
mejor en el contexto de una figura que en el de un fondo. Por el contrario, cuando la línea era borrosa, es
decir presentaba cs de baja frecuencia espacial, se detectaba mejor en el contexto de un fondo.
Klymenko y Weisstein analizaron la influencia de los cs de frecuencia espacial en la percepción de la figura
y el fondo. Usaron tb figuras reversibles pero además rellenaron las regiones correspondientes a la figura y
el fondo con enrejados sinusoidales de distinta frecuencia espacial (parte inferior de la Fig 6.5). Registraron
el nº de veces q cada región se percibía como figura y como fondo en función de q se hubiera rellenado el
espacio con enrejados de altas o bajas frecuencias espaciales. Los resultados indicaron q la región rellena con enrejados de
alta frecuencia espacial (las caras en el ej presentado aquí) se percibían como figura un mayor nº de veces.
Los resultados anteriores apoyan la hipótesis de una diferencia funcional entre la percepción de la figura y el fondo según
la cual cada proceso sería responsable de un tipo de proces visual y sensible a diferentes tipos de inf. El análisis de la fig se
caracterizaría por una inspección detallada de las áreas más pequeñas del campo visual y la inf relevante en este caso serían
los detalles y los contornos. El análisis del fondo sería responsable de la extracción de la inf global del campo visual.
- Asignación unilateral de bordes Driver y Baylis, intentaron determinar el papel de la asignación de bordes a la región
de la figura o a la del fondo. Como vimos, cuando se observa la figura de la copa y las caras se percibe un único objeto, o
la copa o las caras, pero no las dos figuras a la vez. Los teóricos de la Gestalt lo atribuían a q el sistema perceptivo impone
un orden en la estimulación. Pero Driver y Baylis proponen q los bordes que dividen regiones adyacentes del campo visual
se asignan unilateralmente, es decir, se asignan a un único lado. Este supuesto fue puesto a prueba
en experimentos en los que se presentaban Es similares a los de la Fig 6.6. En estos Es, un borde
(línea quebrada entre la zona clara y oscura) divide el rectángulo en 2 partes, 1 más pequeña y
oscura y 1 más grande y clara. El borde se puede asignar a cualquiera de las dos regiones del E, la
figura o el fondo, y una vez asignado a una de las partes se denomina contorno q delimita la figura,
si se asigna a ésta, o contorno que delimita el fondo, si se asigna al fondo.
Por otra parte, y de acuerdo con los principios de org de la figura y el fondo postulados por la
Teoría de la Gestalt, el tamaño relativo y el contraste determinarían q la parte más pequeña y con más contraste del E
tienda a percibirse como figura y la parte más grande y con menor contraste como fondo. Por tanto, en los Es (A) y (B), de
la fig 6.6, la parte más pequeña se percibirá como figura y la más grande y clara como fondo.
En los exps se presentaba 1º un E similar a los (A) y (B), llamado E previo, y una vez desaparecía el E previo se presentaba
uno de los Es de comparación (C, D, E, ó F). Tarea: comparar si los bordes del E previo y de comparación, eran iguales o
diferentes. Ej: en la Fig 6.6, si el E previo era (A), el E de comparación (C) presentaría un borde igual al asignado a la fig y
el estímulo (E) presentaría un borde diferente; mientras q los bordes presentados en (D) y (F) corresponderían al fondo (D,
presentaría un borde igual al del fondo y F un borde diferente). Lo contrario ocurriría si se presentara (B) como E previo,
puesto q, la parte pequeña situada a la derecha tendería a percibirse como figura, por lo que los Es (D) y (F) serían los Es
de comparación para la figura (D, sería el igual y F el diferente) y los Es (C) y (E) para el fondo (C, igual y E, diferente).
Se dieron instrucciones a los observadores para q atendieran sólo al borde como si se presentara una única línea quebrada
prescindiendo del resto del E, tanto en el E previo como en el de comparación. Pero de acuerdo con la hipótesis de
asignación unilateral de los bordes, se predijo q la at selectiva a la línea quebrada resultaría imposible dado q siempre se
percibiría una figura delimitada por un contorno. Y se predijo q rendirían mejor en la tarea de comparación cuando los Es
de comparación correspondieran a las figuras que cuando correspondieran a fondos. La predicción se basa en que, según
esta hipótesis, el borde se asigna a un único lado y, d acuerdo con la manipulación realizada sobre el E previo, la parte más
pequeña se percibiría como figura desde el principio, x lo q sería más fácil reconocer el contorno que la delimita en la tarea
de comparación. Es decir, se produciría una ventaja en el rec del contorno q delimita la figura desde el momento en q ésta
se presenta como E previo. Esta predicción sólo podría mantenerse en el caso de q los observadores no atendieran sólo a la
línea quebrada q divide el E en dos partes y la asignaran a una de ellas. Si atendieran únicamente a la línea quebrada, la
ejecución en la tarea de comparación de contornos, sería igual en los dos casos, puesto q la ventaja de asignar el borde a la
figura cuando se presenta el ensayo previo desaparecería, y los juicios de comparación de contornos serían iguales.
Resultados: asignaron el borde a un único lado dl campo visual, el correspondiente a la figura. Esta tuvo consecuencias en
la ejecución, los sujetos rendían mejor (en menos tiempo y menos errores) cuando juzgaban si el contorno de la figura era
igual al de comparación, q cuando juzgaban si el contorno correspondiente al fondo y el de comparación eran iguales.
Conclusión: la asignación d los bordes q dividen la figura y el fondo es unilateral y espontánea y no depende d la atención.
- Influencia de los procesos de reconocimiento en la segregación de la figura y el fondo La mayoría de teorías de la
percepción visual han defendido q la segregación de la figura y el fondo son un paso previo al proceso de rec del objeto.
Parece obvio, q para poder reconocer un objeto, es necesario antes segregar ese objeto del fondo o de otros objetos
presentes en el campo visual y, una vez hecho, compararlo con una representación en la memoria. Pero ha sido puesto en
cuestión por Lowe y fund a través de las invests de Peterson y cols. Peterson, Harvey y Weidenbacher presentaron Es
reversibles, en los q se podía invertir la figura y el fondo. Era un rectángulo q contenía una parte central negra rodeada por
unas partes laterales en blanco, parecido al E de la copa y las caras de Rubín. Tarea: observar los Es durante un tiempo det
e informar cada vez q se produjera una inversión (siempre q la región del campo visual q se estaba percibiendo como figura
cambiara a fondo o vs). En una serie de ensayos se instruía para q vieran la parte central como figura; y en otra para q
intentaran ver las partes laterales como figura. Resultados: percibían la parte central como figura un mayor nº de veces.
En otra serie manipularon los Es de manera q las dos partes del mismo estuvieran igualadas en los fs q determinan la
formación de la figura como área, tamaño relativo, etc., pero las zonas correspondientes a la figura (parte oscura del E) y al
fondo (partes laterales blancas del E) en algunas ocasiones se parecían a un objeto familiar y en otras no (F 6.7). Resultado:
las zonas del E q se parecían a objetos familiares se percibían con más frecuencia como figura. Pero al presentar los
mismos Es en una posición invertida (no reconocidos cm familiares), el efecto desaparecía. Interpretación: evidencia de q
el proces de objetos familiares puede empezar antes de q se haya completado la segregación de la figura e influir en ésta.
Con estos resultados propusieron un modelo para los procesos de rec prefigural, según el cual los procesos de rec q
contribuyen a la segregación de la figura y el fondo actuarían sobre los bordes (cambios abruptos en intensidad,
representados por las líneas que separan las partes blanca y negra de los Es presentados en la Fig 6.7) que dividen el campo
visual y no sobre los contornos ya asignados a la figura o el fondo.
Una vez detectados los bordes, los procesos de rec actuarían sobre las zonas situadas a ambos lados de los mismos
influyendo en la segregación de la figura y el fondo. El modelo no supone q el proceso completo de rec de la figura se
complete con anterioridad a la segregación de la figura y el fondo, sino que algunos procesos de rec actúan en paralelo al
proceso de segregación de las dos partes del campo visual. Esto es compatible con la teorías del rec basadas en la detección
de bordes q veremos en el cap de rec visual, la diferencia entre ambas es q estas últimas teorías consideran q la segregación
de la figura y el fondo es un proceso previo al de rec de las formas visuales mientras q la teoría de Peterson es interactiva.
2.2 Investigaciones sobre agrupamiento perceptivo
Las invests experimentales sobre agrupamiento perceptivo se iniciaron en los 50. Nos centraremos en algunos desarrollos
más recientes centrados en el procesamiento de la inf, examinando algunos estudios sobre agrupamiento perceptivo
desarrollados en el ámbito de la Psicología Cognitiva y algunas contribuciones desde la teoría computacional de la visión.
- Agregados perceptivos y configuraciones
El agrupamiento perceptivo de elementos estimulares discretos e inconexos permite la formación de 2 tipos de unidades:
1) Agregados perceptivos, son unidades perceptivas formadas en base al agrupamiento de elementos discretos e
inconexos que presentan una propiedad común (elementos semejantes, próximos, etc.).
2) Configuraciones, son unidades perceptivas distintas a los elementos de que están formadas y en la que se percibe la
relación entre las partes. De la percepción de estas relaciones surgen propiedades emergentes que son distintas a los
elementos componentes, y que no se pueden explicar en base a los mismos. Ej: la percepción de un rostro no es siempre la
misma, aunque todas las caras posean los mismos elementos: dos ojos una boca una nariz, etc.
En la parte superior de la Fig 6.8 se presentan los elementos estimulares discretos, dos
paréntesis abiertos a la derecha o a la izquierda.
En A: ej de agregados perceptivos, en este caso los els estimulares discretos se agrupan por
proximidad.
En B: ejs de configuraciones. el agrupamiento de los els discretos da lugar a unidades
perceptivas distintas y diferenciadas. Además la percepción de rels entre los els discretos da
lugar al surgimiento de propiedades emergentes como la simetría en el estímulo 4 )(,
repetición en 1 ((y 2 )) y la simetría y el cierre en el estímulo 3 ( ).
Se han considerado como propiedades emergentes los siguientes tipos: rels entre los els
componentes de los Es q dan lugar a simetría, cierre, repetición, reflexión, intersección, y
conjunción de elementos; relaciones espaciales entre los contornos, como la intersección de
líneas y los extremos de las mismas; la orientación tridimensional de las superficies; las
claves pictóricas de profundidad; la dirección de la iluminación de la escena; y la percepción
de profundidad estereoscópica. Pero es posible que en futuras invests se descubran algunas
otras no contempladas.
Tomando como punto de partida esta distinción examinaremos las invests de Pomerantz
sobre agrupamiento perceptivo. Del supuesto básico del q parte Pomerantz es considerar el
agrupamiento cm una operación efectuada sobre los Es. En consecuencia, sus efectos pueden
reflejarse en la ejecución en
tareas experimentales y esto
permite obtener una medida dl
agrupamiento a través de la
ejecución en esas tareas.
El primero de los trabajos que
vamos a examinar está en relación con el problema de la
configuración de los estímulos. El supuesto general fue:
cuando en un patrón estimular los elementos componentes se
organizan en una configuración, debería resultar muy difícil o
imposible el procesamiento independiente de los elementos del
patrón estimular por separado. En consecuencia, se predijo que
la atención selectiva a los els componentes de la configuración
sería muy difícil o imposible cuando los elementos
componentes forman una configuración. Los Es usados fueron
los paréntesis presentados en la Fig 6.8. Los Es se dibujaron en
tarjetas y la tarea de los sujetos consistía en clasificarlas en dos
grupos, de acuerdo con las instrucciones que les daba el
experimentador. De igual modo se les indicaba q atendieran
exclusivamente al elemento componente q permitía
discriminar un E de otro y q ignoraran los demás. Las conds
experimentales: en el cuadro 6.3 y F 6.9.
Resultados: los Es se clasificaron más rápidamente en la
condición de control q en la de atención selectiva. Esto refleja q la atención selectiva a los elementos componentes del
estímulo x separado resultó imposible, ya q si se hubiera atendido exclusivamente al elemento componente relevante para
realizar la discriminación, los tiempos de clasificación hubieran sido iguales en las condiciones de control y atención
selectiva. Así, los resultados indican que los Es se agruparon percibiéndose como un todo y no como elementos
componentes del E.
En un 2º estudio transformaron los Es rotando 90° el elemento derecho. Las tareas fueron iguales a las del estudio citado.
Resultados: el tiempo empleado en las dos condiciones (control y atención selectiva) era similar y, en consecuencia, los els
estimulares no se agruparon y se percibían como els separados. Pero Rock da una interpretación alternativa: los Es
presentados en este experimento son agregados perceptivos. En este caso, como hemos señalado, los paréntesis se agrupan
por proximidad y se perciben como una unidad, aunq no forman configuraciones como en el estudio anterior. Por lo tanto,
lo q indican los resultados en este caso, es que se puede atender selectivamente a los elementos estimulares cuando se
agrupan formando agregados perceptivos pero esto no es posible cuando los els estimulares se agrupan formando
configuraciones, como en el 1r experimento citado, q presentan propiedades emergentes y determinan que el E se perciba
como un todo con una forma propia de la que no se pueden aislar los elementos.
- Cuantificación del agrupamiento perceptivo La importancia de los métodos cuantitativos para determinar el
agrupamiento perceptivo es x la posibilidad de obtener una medición precisa de los
efectos del agrupamiento sobre todo en los casos en q la aplicación del método
fenomenológico no permite determinar con claridad los efectos, o cuando existen
contradicciones entre la descripción del E basada exclusivamente en la descripción
fenomenológica y la ejecución en tareas experimentales.
Kubovy y Wagemans determinaron cuantitativamente la potencia de distintos tipos de
agrupamiento midiendo la probabilidad de respuesta a estímulos que presentaban
organizaciones ambiguas como los presentados en la F 6.10.A. En este tipo de
estímulos se pueden percibir distintas orgs como cuadrados, rectángulos rombos,
líneas con distinta orientación, etc. En el E presentado en la Figura 6.10.A, los els
estimulares (puntos) se pueden agrupar y, como consecuencia se percibirían líneas que
presentan distinta orientación como se puede observar en la F 6.10A.B (las líneas
grises indicarían las posibles orientaciones). Realizaron una tarea de elección forzosa
en la que observaban cada uno de los estímulos ambiguos durante un periodo de
exposición relativamente breve (300 milisegundos), y dp elegían una de las 4 posibles
Rs de la F 6.10A.C. Esto permitía calcular, tras elevado nº elevado de ensayos, la prob
de percibir cada tipo de agrupamiento.
Beck y Palmer desarrollaron una tarea para medir el agrupamiento en la q se presenta
una fila de els estimulares formada por els distintos, ej: círculos y cuadrados, que se
alternan con la excepción de uno q se repite para inducir agrupamiento (Fig 6.10.B).
Tarea: identificar el elemento adyacente q se repite presionando una llave de
respuestas si es un cuadrado o una llave distinta si es círculo. La potencia del
agrupamiento se examinó con 3 condiciones: condición de control: los círculos y
cuadrados estaban situados a la misma distancia uno de otro, y, dos experimentales:
los els estimulares se agrupaban x proximidad o dentro de cada grupo, o entre grupos (Fig 6.10.B). Resultados: el elemento
q se repite se identificaba más rápidamente en la condición intragrupo que cuando los els a agrupar estaban situados en
grupos distintos. Resultados semejantes usando principios de agrupamiento distintos como semejanza, color, región común
y conexión de elementos, lo q indica la validez de la tarea para cuantificar el agrupamiento perceptivo.
- Teoría computacional de la visión y agrupamiento perceptivo La actuación de los principios de organización
perceptiva han sido considera- dos en el marco de la teoría computacional de la visión. David Marr diseñó un programa de
ordenador con la finalidad de examinar que es lo que sucede una vez que se ha obtenido la descripción de características de
nivel inferior. A través de una imagen de entrada y la descripción de sus caracterís- ticas simples el programa aplicaba los
principios de agrupamiento perceptivo para identificar las estructuras perceptivas que se obtenían a partir de la reunión de
dets elementos que compartían propiedades comunes. En la Fig 6.11 puede observarse el proced.
En A se presenta la imagen de un oso de peluche q constituye la imagen de entrada,
En B se presentan los niveles de gris de la imagen de entrada,
En C se muestra una versión abreviada de la descripción de características simples, es decir,
se presentan únicamente segmentos en una posición y orientación dets. En esta imagen el
sistema visual detectaría muchas características situadas en posiciones distintas y con una
det orientación. Pero persistiría la ambigüedad en el E. El resultado de la aplicación de los
principios de agrupamiento por el programa se presenta en la parte inferior de la figura.
Como puede verse identifican una serie de estructuras perceptivas diferentes en base al
agrupamiento de características que comparten alguna propiedad común.
En D, la estructura del contorno global del osito presenta un agrupamiento de características
simples basado en el principio de buena continuación.
En E, la estructura correspondiente a ojos y nariz presenta un agrupamiento de
características en base a los principios de semejanza y proximidad;
En F, la estructura correspondiente al hocico muestra la actuación del principio de cierre y
reúne las características simples que forman una figura ovalada. Todas estas estructuras se
obtuvieron sin un conocimiento previo por parte del programa acerca de las estructuras que
estaba buscando con la aplicación de los principios de agrupamiento perceptivo.
Pero hay imágenes q no permiten la extracción de dets estructuras a menos que se le proporcione inf al programa acerca de
lo que se está buscando. En la Fig 6.12, se presenta un ej. La parte superior de la figura muestra la imagen de entrada, y los
niveles de gris de esa imagen. La parte intermedia presenta las estructuras identificadas en base al agrupamiento. Como
puede observarse, el programa no extrajo estructuras diferentes para las dos hojas situadas en el recuadro en la imagen de
niveles de gris, sino que aparecían como un único objeto. Posiblemente esto se debió a que los niveles de gris en esa zona
eran muy homogéneos y no permitían una diferenciación clara de las líneas. Marr resolvió el problema «indicándole» al
programa que los segmentos adyacentes de la imagen pertenecían a dos objetos diferentes, o sea, proporcionándole
información correspondiente a procesos de reconocimiento; de esta forma, el programa extrajo las estructuras
representadas en la parte inferior de la Figura 6.12.
En el ámbito teórico de la visión espacial inicial que se ha examinado en el capítulo 3, los fenómenos de organización
perceptiva se consideran como un resultado natural del funcionamiento del sistema visual humano. Desde esta perspectiva
se ha planteado la cuestión del papel desempeñado por los canales psicofísicos en la percepción visual de la forma. En esta
línea, Gins- burg (1986) mantiene que la percepción visual de la forma se basa en un procesamiento espacial y que los
principios de organización perceptiva son un resultado del filtrado espacial de las imágenes estimulares. Este proceso se
puede observar en la Figura 6.13. La aplicación de un filtro paso-bajo a las imágenes,
que elimina la información sobre altas frecuencias, presen- tadas en la parte izquierda de
la Figura 6.13, produce como resultado las imágenes de la derecha, en las que se percibe
una organización. En la Fig 6.13, la letra R inicial inmersa en un fondo de ruido (puntos
aleatorios) se percibe en la derecha como una letra R con mayor nitidez frente a un
fondo más tenue que en la imagen de la izquierda (principio de segregación
figura-fondo). En B, los cuadrados se organizan en columnas (principio de proximidad).
2.3 Segregación de la textura
En este caso, el contorno se delimita en base a diferencias intensas de color o brillo y define una segregación en el patrón
estimular: la región correspondiente a la figura y la región correspondiente al fondo. La asignación de contornos en base a
diferencias de brillo o color no es la única forma de producir segmentaciones en el patrón estimular. También se puede
lograr esta segregación en base a las diferencias en las texturas de los estímulos.
Texturas son patrones visuales formados por conjuntos de pequeños els repetidos y
distribuidos sobre un área ya sea aleatoriamente o en una posición aproximadamente
regular. En los patrones que se presentan en la Figura 6.14, se perciben pequeñas
figuras que difieren en color (blanco o negro), forma (cuadrado o círculo), tamaño
(grande o pequeño) o distintas combinaciones de estas dimensiones Obsérvese que
aparentemente los dife- rentes grupos de textura establecen un contorno o límite entre
las diferentes regiones del patrón estimular. Este contorno o límite es puramente
subjetivo, no responde a una realidad física presente en la estimulación.
- procedimiento experimental Los trabajos iniciales sobre segregación de texturas trataron de determinar si la
segregación de regiones en los patrones texturados se producía en base a la actuación del principio de agrupamiento por
semejanza. La hipótesis ini- cial establecía que una región del patrón estimular se segregaría más fácil y rápidamente
cuando los elementos locales de que estaba formada fueran muy similares (agrupándose entre sí) y, a la vez, se
diferenciaran del resto de los elementos del patrón.
Como ejemplo vamos a examinar uno de los trabajos clásicos sobre se- gregación de la textura realizados por Beck (1966).
Presentó patrones textu- rados como los de la Figura 6.15, en los que los elementos
diferían sólo en la forma (T vs. L), en la forma y la dirección (T vs. L inclinada),
únicamente en la orientación (T vs. T inclinada) y sólo en la posición horizontal-
vertical (T vs. T invertida). La tarea de los observadores consistía en indicar cuál
era la región que se segregaba del resto del patrón estimular. Los resultados
mostraron que el factor fundamental para la segregación de regiones en base a la
textura era la diferencia en orientación o inclinación más que la diferen- cia en
forma. Estos resultados son comprometedores para la explicación de una
segregación en base al agrupamiento por semejanza, dado que, al menos
conceptualmente, son más semejantes las formas cambiadas de orientación o
inclinación que dos formas diferentes (T vs. L).
Los resultados de estudios posteriores indicaron que la segregación de regiones en
base a la textura se produce más fácil y rápidamente cuando los els q la forman difieren en orientación, tamaño o
luminancia y menos rápidamente cuando difieren únicamente en forma.
- Teorías Una aprox diferente al estudio de la segregación de la textura es la de Julesz quien trató de averiguar cuales eran
los atributos de los patrones texturados que permiten discriminar unas regiones de otras. Propuso la Teoría de los textones:
la segregación rápida y sin esfuerzo (automática) de la textura estaba determinada por una serie de caracs locales funds
llamadas textones, a los que el sistema visual sería especialmente sensible. Aunque la propuesta inicial del número de
textones era más amplia, los resultados de distintas investigaciones han permitido acotar su número a los siguientes: a) los
extremos de las líneas, b) las intersecciones de líneas y e) manchitas alargadas con una longitud, color y orientación dets.
La segregación inmediata de la textura estaría determinada por dos fs: la diferencia en la naturaleza de los textones
(diferencia de textones) y las diferencias en el nº (densidad) de los textones en los patrones texturados (F 6.16).
Posteriormente Julesz y Bergen desarrollaron un modelo en el que
distinguen dos sistemas:
a) un sistema preatencional, en el que la inf se procesaría en paralelo,
rápidamente y sin el concurso de la atención y que se correspondería con
un proces inicial y
b) un sistema atencional, que se correspondería con una etapa de
procesamiento más tardío, en el que la información se procesa en serie,
más lentamente y requiere atención a determinadas características del
patrón estimular. Los textones se-rían los elementos básicos o primitivas perceptivas en el sistema preatencional que
determina la segregación inmediata de la textura. El sistema preatencional detectaría diferencias locales en el número y
naturaleza de los textones y en base a esto se produciría la segregación automática de la textura. Los patrones texturados
que presenten propiedades diferentes a las que definen los textones serían ignorados por el sistema preatencional y
únicamente se detectarían por medio de un examen detallado del patrón estimular y atención a dets características del
mismo para poder percibir los límites de la texturas.
Pero la teoría y el modelo propuestos por Julesz y Bergen no están exentos de problemas. Los resultados de investigaciones
posteriores indican que todos los textones no son igualmente eficaces a la hora de determinar los límites que permiten la
segregación de la textura. Por lo general, las diferencias en color tienen preponderancia sobre las diferencias en forma en la
segregación de la textura. Por otra parte, aunque Julesz considera que las interacciones entre textones contribuirían a la
segregación de la textura, los resultados de Treisman y Gelade revelan que la segregación de la textura es automática y sin
esfuerzo cuando los elementos en las regiones de los patrones texturados difieren en una única dimensión (por ej color o
forma) pero no cuando difieren en una combinación de dimensiones (F 6.17). En este último caso se requiere un mayor
escrutinio para que se puedan percibir los límites de la textura.
La teoría de los textones da una forma de identificar y describir la naturaleza de los elementos discriminables q permitirían
la segregación de la textura pero no explican en base a qué procesos o mecanismos se lleva a cabo la segregación de la
textura. Algunos modelos desarrollados posteriormente establecen que los canales de frecuencia espacial desempeñan un
papelfundamental en la segregación de la textura. Los resultados de los trabajos de Beck y cols son una evidencia q
apoyaría este planteamiento y sugieren que, en dets patrones, la segregación de la textura estaría determinada por la R de
los canales de frecuencia espacial a las diferentes regiones texturadas del patrón estimular.
RESUMEN
En los capítulos dedicados a percepción de la forma se estudian una serie de mecanismos y procesos utilizados por el
sistema visual para extraer, ínter· pretar y otorgar significado a la información sobre los objetos del entorno. Entre estos
mecanismos, en el presente capítulo nos hemos centrado en la organización perceptiva, que facilita la extracción de
regularidades presentes en los objetos naturales. Los psicólogos de la Gestalt desarrollaron una serie de principios en
relación con los mecanismos básicos de la organización per- ceptiva: los procesos de segregación de la figura y el fondo y
el agrupamiento de elementos estimulares discretos en unidades perceptivas más amplias. Los principios relacionados con
la segregación de la figura y el fondo especifican que tenderán a percibirse como figura las áreas envueltas, simétricas,
con- vexas, con orientación horizontal-vertical, las que presenten un menor tama- ño y un contraste mayor con el contorno
global. Por otra parte, los principios de agrupamiento perceptivo postulan que, manteniendo constantes el resto de los
factores, tenderán agruparse los elementos estimulares que estén más próximos; compartan propiedades (forma, color,
tamaño) y compartan direc- ción o movimiento. En la actualidad, los problemas señalados en el contexto de la Teoría de la
Gestalt siguen considerándose importantes en el ámbito de la percepción, aunque la metodología utilizada en el estudio de
la organiza- ción perceptiva ha sufrido importantes cambios.
Los desarrollos posteriores en el estudio de la segregación de la figura y el fondo, más que en la descripción
fenomenológica, se ha centrado en el análisis de los mecanismos que los diferencian y en tratar de encontrar una
explicación en términos de procesamiento de la información. Las investiga- ciones sobre las relaciones de los componentes
de frecuencia espacial con la segregación de la figura y el fondo, asignación unilateral de bordes y la in- fluencia de los
procesos de reconocimiento en la segregación de la figura y el fondo, constituyen ejemplos de líneas de investigación
actuales en este cam- po. Las investigaciones en relación con el agrupamiento perceptivo se han centrado en varios
aspectos como la relación entre agrupamiento perceptivo y atención selectiva; la elaboración de medidas cuantitativas
sobre los efectos del agrupamiento, y la identificación de estructuras perceptivas a partir de ca- racterísticas simples
mediante programas que permiten aplicar los principios de agrupamiento perceptivo.
T.7 PERCEPCIÓN DE LA FORMA II. DETECCIÓN Y DISCRIMINACIÓN DE FORMAS VISUALES
1. DETECCIÓN DE FORMAS VISUALES
Los procesos de detección permiten descubrir la presencia de objetos o propiedades de los estímulos en el entorno.
Proced general en una tarea estándar de detección: se presentan dets formas visuales (patrones formados x puntos, figuras
geométricas, etc.) bajo condiciones de degradación que hacen que la tarea resulte difícil, y se les pide q indiquen la
presencia o ausencia del objeto. Para aumentar la dificultad de la tarea, se usan diversos proceds q permiten degradar los Es
presentados; ej: se reduce el tiempo de exposición de los Es, se reduce el contraste, se enmascaran los Es o se presentan
formas visuales incompletas. La diferenciación del objeto en rel al contexto puede realizarse sobre la base de color,
movimiento, forma, profundidad, etcétera. En este cap nos centraremos sólo en aspectos reldos con las formas visuales.
1.1. Detección de patrones de puntos
Una de las líneas de investigación dedicadas al estudio del proceso de detección de las formas visuales ha sido desarrollada
por Uttal en sus invests desde principios de los años 70.
1.1.1. Procedimiento de enmascaramiento visual
El proced usado consiste básicamente en la presentación de Es (patrones visuales formados por puntos) a los que se
superpone un patrón de ruido, tb formado por puntos pero distribuidos aleatoriamente. Este proced se conoce en Psicología
como “procedimiento de enmascaramiento visual”. La superposición del patrón de ruido al patrón original enmascara el E
original degradándolo de tal forma, que la tarea de detección resulta muy difícil (F 7.1). Cuando se presenta el patrón o
forma visual sin degradar (línea de puntos en la parte A de la Figura 7.1), el E se detecta perfectamente, incluso cuando la
duración de la exposición de los Es es muy breve. Cuando se presenta el patrón degradado (parte B de la F 7.1) resulta
considerablemente más difícil detectar la línea recta de puntos presentada en el patrón original. El grado de degradación en
el E original, cuando se superpone una máscara, depende del nº de els q componen la máscara. En la parte C de la Fig 7.1,
se puede observar cómo el aumento en el nº de puntos en el patrón de ruido q enmascara el patrón original, produce a su
vez un aumento en la dificultad de detección del patrón.
El proced desarrollado por Uttal, es adecuado para el estudio del efecto de la org espacial de los elementos discretos q
forman el patrón sobre la percepción de la forma visual
ya q los patrones pueden considerarse como formas no
familiares. La lógica que subyace al proced radica en la
consideración de q los puntos aislados, o els locales de
la estimulación, no aportan suficiente inf para
determinar la percepción de la forma visual. Únicamente a partir de una configuración de puntos, con una det org espacial,
se puede detectar una forma o patrón visual.
Además, no todas las configuraciones de puntos son igualmente apropiadas a la hora de detectar el patrón visual. Se ha
constatado empíricamente, q algunas se detectan más fácilmente q otras cuando se mantienen constantes otros fs
importantes como el nº de puntos (densidad del patrón) o la distancia entre ellos (espaciamiento del patrón). Es decir, lo
importante para la detección de las formas visuales es la geometría global de la configuración de puntos, mientras q las
características locales son secundarias.
1.1.2. Factores que afectan a la detectabilidad de las formas visuales
El núcleo más importante de estudios sobre el proceso de detección se ha dedicado a determinar los factores que
contribuyen a la detectabilidad de los patrones o formas visuales compuestos por puntos. Se estudiaron dos tipos de
patrones: líneas y figuras geométricas. En la F 7.2 se presentan ejs de algunos Es y manipulaciones realizadas en los
experimentos.
l. Por lo q respecta a las líneas de puntos (parte A de la F 7.2), se analizó el efecto del número de puntos sobre la
detectabilidad del patrón. Los resultados indicaron que las líneas se detectaban mejor cuan- do el patrón estaba formado
por un número determinado de puntos (cinco puntos). Se detectaba peor cuando estaba formado por menos puntos, y no se
obtenía una mejora considerable en la detección cuando el patrón estaba formado por
más de cinco puntos.
Otro de los fs considerados como VI fue la orientación de las líneas. Se presentaron
líneas compuestas por siete puntos en 4 orientaciones diferentes: vertical, horizontal y
oblicuas (inclinadas hacia la derecha y hacia la izquierda). No se encontraron
diferencias en la detección de líneas en función de sus distintas orientaciones, por lo
que los autores concluyeron que la detección es independiente de la orientación de los
patrones. Tb se examinó si la detección dependía del tipo de configuración de puntos
(líneas rectas, curvas, etc.). Por lo general los resultados muestran que se detectan
mejor las líneas rectas que las configuraciones que presentan curvatura o ángulos. Uttal
sugiere que los resultados obtenidos se deben a la actuación de la regla de periodicidad
lineal, según la cual, las líneas rectas formadas por puntos constituyen el estímulo más
potente en la detección de formas visuales ya que el sistema visual es especialmente
sensible a la detección de líneas rectas.
2. Entre los factores que pueden afectar a la detectabilidad de las figuras geométricas
(polígonos formados por puntos, véase parte B de la F 7.2) se han estudiado estos:
a) partes fundamentales en la detección de los polígonos. Para analizar este problema
se produjo una distorsión en distintas partes de un triángulo mediante la eliminación de
puntos en los lados, ángulos o se eliminaron algunos puntos aleatoriamente en la figura
completa (véase Figura 7.2.B) y se examinó en qué condición de las tres citadas se de- tectaba mejor el triángulo. Los
resultados mostraron que la eliminación de puntos en los ángulos del triángulo empeoraba ligeramente la detección del
patrón; además el empeoramiento era más drástico cuando se distorsionaban los lados del triángulo eliminando puntos en
los lados. Este resultado podría deberse a que la distorsión de los lados afecta a la geometría global del patrón dificultando
su detección (Uttal, 1971).
b) Al igual que en la detección de líneas de puntos, otro de los factores examinados fue el efecto de la orientación de las
figuras sobre la detectabilidad. Para comprobar si este factor era importante en la detección de figuras geométricas se
realizaron experimentos con estímulos similares a los presentados en la Figura 7.2.C. Los resultados indicaron que la
detección es independiente de la orientación de las figuras, por lo que este factor no parece tener relevancia en la detección
de patrones visuales formados por puntos en general.
e) Finalmente, una serie de estudios han tratado de determinar el efecto de la organización global del patrón sobre la
detección. La organización del patrón es importante porque afecta directamente a la geometría global de las formas
visuales. Los resultados indican que la detección de los patrones formados por puntos es afectada por la organización de la
figura, se detectan mejor las formas regulares (cuadrados) que las irregulares (paralelogramos); así como por el grado de
organización del patrón, se detectan más fácilmente los patrones más organizados que los menos organizados (Fig 7.2.0).
1.2. Detección de la simetría
Un patrón simétrico hace ref a la invarianza de una configuración de elementos bajo determinadas transformaciones.
Aquí nos centraremos exclusivamente en aquellos tipos de simetría relevantes en el estudio de la percepción:
a) simetría bilateral: patrones simétricos generados por medio de la transformación de reflejo.
b) simetría traslacional: patrones simétricos generados por la transformación de traslación o simetría traslacional;
c) simetría rotacional: patrones simétricos generados por cambio en la orientación. (Figura 7.3).
1.2.1. Patrones estimulares y procedimientos experimentales
La detección de la simetría ha preocupado a los investigadores desde los inicios de la Psicología Experimental. En el
tratado de E. Mach “El análisis de las sensaciones” de 1906, ya encontramos una
descripción de los distintos tipos de simetría y observaciones reldas con la detección
de los mismos. En la F 7.3, se presentan los distintos tipos de patrones simétricos
descritos por Mach, generados por transformaciones de reflejo, traslación y cambio
en la orientación del patrón original. Arriba aparece un objeto. En A, el reflejo en
espejo del objeto original sobre un eje vertical genera simetría bilateral o simetría en
espejo. En B, la repetición del objeto original produce simetría traslacional (generada
por traslación del objeto original). Y por último en C, el objeto original se presenta en
una orientación diferente, generando simetría rotacional. En la parte inferior se presentan los mismos tipos de simetría en
un patrón ornamental.
Mach también observó que los diferentes tipos de simetría se detectan de diferente forma, resultando más fácil la detección
de la simetría bilateral q la obtenida por traslación o rotación de los patrones originales. En la misma línea, Julesz observó
que la simetría bilateral se detectaba automáticamente y sin esfuerzo, mientras que la detección de la simetría en patrones
generados por traslación o rotación requería un escrutinio detallado de los patrones.
Posteriormente, en diversos estudios experimentales se ha tratado de determinar qué tipo de simetría es más saliente. En
estos estudios generalmente se utilizan como estímulos patrones simétricos formados por elementos discretos (puntos,
líneas, etc.) o figuras geométricas que difieren en el tipo de simetría que presentan y el procedimiento experimental
consiste en presentar los estímulos durante un periodo de exposición breve (generalmente menos de 160 milisegundos) y
medir el tiempo empleado en detectarlos.
Por lo general, los resultados confirman que la simetría bilateral se detecta más rápidamente que la simetría obtenida por
rotación o por traslación. Algunos autores sugieren como posible explicación al mayor relieve de la simetría bilateral la
posibilidad de comparar las dos regiones contiguas al eje de simetría. El hecho de que la simetría bilateral sea más saliente
y se detecte más rápidamente, no significa que los otros tipos de simetría no se detecten. No obstante, la mayoría de los
estudios sobre detección de la simetría se han centrado en la simetría bilateral, por lo que, en este apartado examinaremos
únicamente este aspecto.
En los estudios sobre detección de la simetría bilateral se han utilizado Es muy variados, desde patrones no familiares
como figuras, polígonos y patrones texturados aleatorios hasta patrones muy familiares como caras o figuras subrayadas.
En la Fig 7.4 se presentan algunos ejs.
Por lo que respecta a los proceds experimentales se han utilizado también una gran
variedad, entre los más utilizados se encuentran:
a) proceds psicofísicos, como el proced de determinación del umbral de duración de
detección de la simetría en el q se determina el tiempo mínimo necesario xa detectar
la simetría o la tarea de de determinación del umbral de contraste, en el que se
determina el contraste mínimo necesario para detectar la simetría; tareas de tiempo de
reacción, en las que se mide el tiempo empleado en la detección; tareas de precisión
enlas que se observa el porcentaje de detecciones correctas; tareas de discriminación
de la orientación, en las que se mide la precisión en la detección del eje de simetría y
tareas de discriminación de patrones simétricos, en las q se degrada el patrón
superponiendo ruido (es un procedimiento similar al de enmascaramiento visual que
se ha descrito en el apartado de detección de puntos aleatorios).
1.2.2. Factores que influyen en la detección de la simetría
a) la posición q ocupa el patrón en el campo visual. Respecto la presentación central o periférica del patrón (q la posición
del patrón coincida o no con el punto de fijación). Los resultados indican que la influencia de la posición central del patrón
sobre la detección de la simetría depende del tipo de E utilizado. Cuando se usan Es simples como las figuras aleatorias q
contienen frecuencias espaciales bajas, la detección de la simetría no se ve afectada por la posición central del patrón en el
campo visual. Pero cuando se presentan Es complejos, como patrones texturados q contienen frecuencias espaciales altas,
la detección de la simetría se ve facilitada x la posición central del patrón y deteriorada a medida q se aleja desde esta
ubicación hacia posiciones más periféricas. Julesz sugirió la intervención de 2 mecs en la detección de la simetría:
- un mec q extraería globalmente ls rels simétricas en el patrón cuando los Es contienen frecuencias espaciales bajas y
- un mec de comparación punto por punto de todos los els del patrón cuando los Es contienen frecuencias espaciales altas.
b) diferencias en la detección de patrones simétricos respecto patrones con ligeras distorsiones. En estos tipo estudios se
suele presentar 3 tipos de patrones: perfectamente simétricos, con una ligerísima distorsión de la simetría, y aleatorios (no
simétricos) como distractores y los observadores tienen q detectar los patrones simétricos y no simétricos. Resultados: el
mec de detección de la simetría es muy potente ya q se pueden detectar distorsiones mínimas en los patrones. Wagemans
observó el efecto sobre la detección d una distorsión en el patrón simétrico producida x la observación del patrón desde un
punto de vista no frontal como el q se puede ver la F 7.4.F. Resultado: el TR en la tarea d detección de patrones simétricos
aumentaba a medida q la distorsión en el patrón era mayor.
c) el agrupamiento perceptivo de los els estimulares q componen el patrón. La evidencia q apoya esto procede de estudios
en los q se han usado como Es patrones similares a los presentados en la F 7.5. En la parte superior de la F 7.5: 2 patrones
simétricos (A y B) formados x líneas orientadas y 1 patrón simétrico formado x puntos (C).
En la parte inferior: un patrón no simétrico (D) semejante a los anteriores pero en el que
se ha producido una distorsión de la simetría y un patrón aleatorio no simétrico (E).
Para examinar la influencia del agrupamiento perceptivo sobre la detección de la
simetría, Locher y Wagemans usaron patrones similares a los presentados en la F 7.5,
formados por líneas en distintas orientaciones (vertical, horizontal y oblicuas) o
compuestos por puntos. En este tipo de patrones, la orientación de las líneas contribuye
a determinar la org del patrón global; en las figuras formadas por líneas, se percibiría un
patrón global simétrico orientado verticalmente y otro orientado horizontalmente. Sin
embargo, en el patrón formado por puntos, se percibiría agrupamiento pero no se percibiría un patrón orientado ya que los
puntos, al carecer de orientación, no determinan que se perciba una orientación clara del patrón global. El planteamiento
del estudio era q si la orientación de las líneas contribuía a la detección de la simetría en el patrón global, la ejecución en la
tarea de detección de la simetría (tiempo de detección y precisión) sería mejor en los patrones formados por líneas q en los
formados por puntos. Por el contrario, si el mec de detección de la simetría actuaba sobre la base de la comparación de la
inf del patrón agrupada espacialmente, no habría diferencias entre los patrones agrupados formados por líneas o por
puntos. Resultados: la ejecución en la tarea de detección de la simetría se veía facilitada cuando los los els estimulares q
formaban los patrones se agrupaban espacialmente, con independencia de q fueran líneas orientadas o puntos.
d) la orientación del eje de simetría: el fr más estudiado en rel con la detección de la simetría. Como hemos dicho, la
observación de q la simetría reflejada sobre el eje vertical es más potente se debe a E. Mach. El 1r estudio experimental
dedicado a analizar la influencia de la orientación del eje de simetría sobre la detección de la misma se debe a Goldmeier.
En sus exps se presentaba un patrón estimular con simetría bilateral horizontal y vertical, y dp
dos Es de prueba, uno de ellos con simetría sobre el eje vertical, y el otro simétrico sobre el
eje horizontal. Tarea: indicar cuál de los dos Es de prueba se parecía más al patrón presentado
en 1r lugar. Resultados: elegían el patrón de simetría a partir del eje vertical.
En otras exps se ha comparado la detección de la simetría bilateral sobre el eje vertical con
simetría bilateral sobre los ejes horizontal y oblicuos. Un ej de este tipo de exps es de Palmer
y Hemenway. El objetivo de su invest era analizar el efecto de la presentación de figuras con
diversos grados de simetría en varias orientaciones diferentes. Los patrones estimulares
diferían en 2 Vs: grado de simetría y orientación (F 7.6). Respecto al grado de simetría se presentaron patrones con: a)
simetría sobre un único eje (vertical, horizontal u oblicuo), b) simetría doble (sobre 2 ejes), c) simetría cuádruple (sobre 4
ejes) y figuras casi simétricas. Respecto la orientación, los patrones se presentaban en una orientación: a) vertical (0°),
horizontal (90°) y oblicuas (45° y -45°). Tarea: presionar una llave de R si el patrón presentado les parecía simétrico y otra
distinta si les parecía asimétrico. Resultados revelaron q la simetría se detectaba mejor cuando los patrones presentaban
una orientación vertical, en 2º lugar horizontal y por último oblicuas. Tb se manifestó un claro efecto de los grados de
simetría detectándose mejor los patrones con mayor grado de simetría. Los resultados obtenidos x Barlow confirman la
prioridad de detección de la simetría reflejada sobre el eje vertical.
Palmer y Hemenway propusieron un modelo de un proceso que actuaría en dos etapas.
- 1ª: se hace un análisis tosco y se seleccionaría un posible eje de simetría sobre el cual se refleja el patrón.
- 2ª: se compara las dos mitades del patrón y con ello se determinaría si el patrón es o no simétrico.
Jenkins propuso que la detección de la simetría se llevaría a cabo mediante 3 procesos:
- el 1º detecta si la orientación del patrón es uniforme;
- el 2º agrupa los els q forman el patrón alrededor del eje, formando de esta manera una estructura más amplia
- el 3º determina si la estructura obtenida en el proceso anterior es simétrica. El problema de los dos modelos es q son más
estrategias a usar ante dets tareas usadas en exps concretos q teorías q expliquen la detección de la simetría bilateral.
2. DISCRIMINACIÓN DE FORMAS VISUALES
Los procesos de discriminación permiten establecer una diferenciación entre objetos o formas visuales. Son procesos más
complejos que los de detección. Para advertir las diferencias o semejanzas entre dos o más objetos es necesario, 1º
detectarlos y, a continuación establecer una comparación entre los mismos basada en alguna propiedad de los objetos.
Tarea sencilla de discriminación “igual-diferente”: se presentan dos objetos y se les pide q indiquen, verbalmente o
presionando una llave de respuestas, si los objetos presentados son iguales o diferentes. Para realizarlo, tienen q detectar
los objetos presentados, realizar una comparación entre los Es para determinar si presentan alguna propiedad q los
diferencia o no y, por último, emitir un juicio de diferencia o igualdad.
Así, en una tarea tan simple varios procesos interactúan con el de discriminación para producir una R. El proceso de
detección asegura q se perciban los Es; si éstos no se perciben no se podría realizar una discriminación. Una vez
percibidos, el proceso de discriminación permite q los objetos puedan diferenciarse sobre la base de la presencia de dets
propiedades. Además, para realizar la comparación entre los Es se requiere q la inf sobre los objetos se almacene durante
un periodo breve de tiempo. Finalmente, tienen q emitir un juicio sobre la igualdad o desigualdad de los E presentados, en
los q interviene un proceso de decisión.
El punto central para llevar a cabo la discriminación, es la percepción de las propiedades de los Es q permiten establecer
una diferencia o una semejanza entre los mismos. Por esto, la mayoría de las invests sobre discriminación de objetos o
formas visuales se han centrado en la identificación de las propiedades q son relevantes para la diferenciación.
2.1. Propiedades componentes y globales de los estímulos
Veíamos que una característica fund en los procesos de discriminación era la percepción de las propiedades estimulares q
contribuyen a la diferenciación de objetos y formas visuales. Vamos a considerar algunas de estas propiedades.
Garner: teoría de las propiedades estimulares en la q distingue entre propiedades componentes y propiedades globales
de los Es. Las propiedades componentes son los atributos del E, son dims y caracs.
Dimensiones: propiedades del E que se presentan siempre con un nivel
positivo. Además, los niveles de una dim deben ser mutuamente
excluyentes. Es decir, se dan en un grado o en otro, y ese grado o nivel es
lo que define la dimensión en un estímulo det. Ej: F7.7 conjunto de Es
formados a partir de la combinación de dos dims: forma y tamaño.
La dim forma presenta dos niveles: círculo y cuadrado.
La dim tamaño tb tiene dos niveles: grande y pequeño. Un E específico se
define sobre la base de la presencia de dets niveles en cada dim, ej:
cuadrado grande o círculo pequeño. Los niveles q definen los Es son
mutuamente excluyentes, un E específico no puede ser a la vez grande y
pequeño ni círculo y cuadrado.
Características: son las propiedades componentes que se dan en un único
nivel en los Es (es decir se dan o no se dan). Ej: en la F 7.7, se presenta una serie de Es formados por una línea vertical a la
que se le ha añadido la característica (línea horizontal) en el extremo superior, inferior, o en ambos. Las diferencias más
importantes entre dims y características se refieren a la presencia de niveles, las dimensiones poseen niveles, mientras que
las características no los poseen; y a la posibilidad de eliminar o no alguno de estos elementos componentes sin que el E
global quede afectado, la eliminación de una dimensión como la forma o el tamaño tendría como consecuencia la
eliminación del estímulo, mientras que la eliminación de una característica no implica la eliminación del estímulo.
Las propiedades globales se refieren a la figura como un todo y son todos
simples (Es en los que se describen todos sus cs), plantillas (prototipos)) y
propiedades configuracionales (Es definidos por las rels espaciales entre las
propiedades componentes q da lugar al surgimiento de propiedades
emergentes). De las propiedades globales examinaremos únicamente las
configuracionales, por ser las que se han estudiado en rel con el proceso de
discriminación de formas visuales.
Las propiedades componentes y configuracionales están presentes al mismo
tiempo en el estímulo. Ej: parte superior de la F 7.8 se presenta a la izquierda
4 líneas con distintas orientaciones (horizontal, vertical y oblicuas). A la
derecha 4 figuras (cuadrado, rombo, cruz y aspa) q se han generado a partir de
una serie de combinaciones de las líneas anteriores. Las líneas que forman las
figuras son las propiedades componentes del estímulo, las rels espaciales entre
las propiedades componentes (simetría, repetición de líneas, paralelismo,
intersección, cierre), q determinan el que las figuras se configuren de una
determinada manera son las propiedades configuracionales. Ambos tipos de
propiedades pueden contribuir a la discriminabilidad de las figuras presentadas en la parte derecha, como veremos.
La simple descripción de las propiedades de los estímulos no nos da inf sobre los procesos de discriminación ni sobre la
contribución de las distintas propiedades a la diferenciación de formas u objetos visuales. Para conocer esto examinaremos
dos líneas de invest encaminadas a analizar qué papel desempeñan las propiedades del E en el proceso de discriminación.
El estudio de las propiedades de los Es relevantes para determinar su discriminabilidad se ha centrado en 2 aspectos:
1) el análisis de las interacciones entre las propiedades componentes (dimensiones del estímulo) y
2) el examen de qué tipo de propiedades (componentes o configuracionales) domina el proceso de discriminación.
2.1.1. Relaciones entre dimensiones estimulares
El estudio de las rels entre las dims del E se ha centrado en el análisis de la forma en que se combinan dets dims físicas.
Shepard advirtió q algunas dims físicas del E se combinan de tal manera, que tienden a percibirse como una unidad. Ej: la
saturación, la claridad y el matiz que se perciben como un color único. Además el cambio en una de estas dims produciría
un cambio cualitativo en el E q daría lugar a la percepción de un color distinto al original. Por el contrario, otras dims
diferentes como la forma y el tamaño de una figura geométrica cualquiera, se pueden percibir y analizar como dims
separadas aunque las dos contribuyan a la definición de ese estímulo específico. Garner denominó a estas interacciones,
integral y separable respectivamente. También identificó un tercer tipo de interacción, laconfiguracional, cuando las dims
físicas se combinan de forma q se sigue percibiendo la identidad de las dims originales pero, a partir de su combinación,
surgen propiedades cualitativamente diferentes a las de las dims originales; ej, la altura y anchura de un rectángulo se
combinan dando lugar a áreas y formas. La importancia del estudio de las relaciones entre dims para la discriminación de
formas visuales radica en que dichas rels pueden influir en la semejanza percibida de los Es y, por lo tanto, afectar de
manera diferencial a la discriminabilidad.
El proced empleado para analizar las rels entre distintas dims consiste en comparar la ejecución, en diversas condiciones
experimentales y establecer un diagnóstico a partir de la ejecución
en las mismas. En los experimentos, generalmente se presentan
subconjuntos de cuatro Es formados por dos dims y se
proporciona instrucciones a los observadores xa q los clasifiquen
de forma distinta en diversas conds experimentales (ver Fig 7.9).
En la Fig 7.9, se presenta en la parte superior, un conjunto de 4 Es
formados por dos dims: forma y tamaño. Cada una de las dims
presenta dos valores; círculo y cuadrado en la dimensión forma y
grande y pequeño en la dimensión tamaño. Por lo tanto cada
estímulo específico se puede definir a partir de los niveles de cada
dimensión que presenta. El estímulo 1, está definido por el nivel
círculo de la dimensión forma y el nivel pequeño de la dimensión
tamaño, el estímulo 2, por los niveles cuadra- do y pequeño, el
estímulo 3 por los niveles círculo y grande, y el estímulo 4 por los
niveles cuadrado y grande. La tarea de los observadores consiste
en clasificar cada estímulo individual, presionando una llave de
respuestas. La variable dependiente es la latencia. Igualmente, en
la F 7.9, se presentan ejemplos de las distintas clasificaciones que
deben realizar los observadores en las diversas condiciones
experimentales. Los números indican el estímulo específico que se
puede presentar en un ensayo determinado. En A y B, indican el
subconjunto o conjunto de estímulos que se pueden presentar en
cada bloque de ensayos, dependiendo de la condición
experimental (control, variación correlacionada, variación
ortogonal) y del tipo de discriminación q se requiera
(discriminación basada en la forma, el tamaño o a ambos).
En la condición de control, se presentan dos estímulos en cada
bloque de ensayos y el observador debe clasificar cada estímulo
específico presen- tado en cada ensayo en grupos distintos, de
acuerdo con las instrucciones que se le proporcionan, por ejemplo,
en el caso l.l. presionando la llave de respuestas representada
como A en la Figura) cuando se presenta el estímulo 1 y otra
distinta (representada como B) cuando se presenta el estímulo 2.
Los estímulos presentados en esta condición varían únicamente en
un nivel de una dimensión, mientras que la otra dimensión
permanece constante, por lo que la ejecución en esta condición se
considera como línea de base con la cual se compara la ejecución
en las otras condiciones. En la parte l.l. de la Figura se presenta un
ejemplo de clasificación basada en los dos niveles de la dimensión forma, manteniendo constante el tamaño. En la parte
superior se presenta un bloque de ensayos en el que se varía la forma y se mantiene constante el tama- ño pequeño; y la en
la parte inferior, un bloque de ensayos en el que se varía la forma y se mantiene constante el tamaño grande. En ambos
casos, los obser- vadores deben presionar una llave de respuestas cuando se presenta el círculo y otra distinta cuando se
presenta el cuadrado. En 1.2. se presentan ejemplos de clasificación basados en el tamaño, manteniendo constante la forma.
En la condición de variación correlacionada, se presentan igualmente dos estímulo en cada bloque de ensayos. A diferencia
de los estímulos presentados en la condición de control, en esta condición las dos dimensiones varían de forma relacionada.
En 2 la parte izquierda, se requiere discriminar un círculo pequeño de un cuadrado grande; en la parte derecha, se requiere
discriminar un cuadrado pequeño de un círculo grande. La clasificación individual de cada estímulo específico en cada uno
de los bloques de ensayos representados en las partes derecha e izquierda, puede realizarse a partir de la forma, al ta- maño
o a ambos. Si la latencia en esta condición es menor que en la condición de control, o en la de variación ortogonal, se dice
que se ha producido una ganancia debida a la redundancia, es decir, al hecho de que las dos dimensio- nes varíen en la
misma dirección.
Finalmente, en la condición de variación ortogonal, a diferencia, de las anteriores, se presentan los cuatro estímulos en
cada bloque de ensayos y las dos dimensiones varían de forma independiente. En 3.1, la discriminación se realizaría a
partir de la forma, y el tamaño varía. En este caso, los observa-dores tendrían que presionar la misma llave de respuestas
cuando el estímulo que se presenta en cada ensayo es círculo, ya sea grande o pequeño (estímulos 1 y 3), y una llave
distinta cuando se presenta un cuadrado grande o pequeño (estímulos 2 y 4). Cuando la discriminación se realiza con base
en el tamaño como se indica en 3.2, los observadores tendrían que responder con una llave cuando el estímulo presentado
en un ensayo determinado tiene un tamaño pequeño, ya sea círculo o cuadrado (estímulos 1 y 2) y con una llave distinta
cuando el tamaño del estímulo es grande (estímulos 3 y 4). Para realizar la tarea con eficacia en esta condición, los
observadores deben atender exclusi- vamente a la dimensión relevante para realizar la discriminación ignorando la
dimensión irrelevante. Por ejemplo, si se indica en las instrucciones que se discriminen los estímulos a partir de la forma,
los observadores deben atender exclusivamente a la forma e ignorar el tamaño de los estímulos. Si la latencia en esta
condición es mayor que en la condición de control o en la de variación correlacionada, se dice que se ha producido una
interferencia de la dimensión irrelevante en el procesamiento de la dimensión relevante.
El diagnóstico para considerar las dimensiones como integrales o separa- bles, se establece a partir de los resultados en
estas condiciones experimen- tales (la ejecución se mide en tiempo empleado al realizar las tareas). Las dimensiones se
consideran separables cuando en las condiciones de control, variación correlacionada y variación ortogonal se presentan
latencias simila- res. Estos resultados indicarían que es posible la atención selectiva a cada una de las dimensiones por
separado, sin que la variación en la otra dimensión in- terfiera en la ejecución. Las dimensiones se consideran integrales
cuando en la condición de variación correlacionada se presentan latencias más cortas que en la condición de control, y en la
condición de control latencias más cortas que en la de variación ortogonal.
Basándose en la evidencia empírica obtenida utilizando distintas dimen- siones y en modalidades sensoriales diferentes,
algunos autores proponen que los estímulos separables se procesarían analíticamente a partir de sus dimensio- nes,
mientras que los integrales se procesarían como un todo unitario sobre la base de su semejanza global y sólo
posteriormente se analizarían sus dimensiones componentes. Esto implica que en el primer caso la diferenciación
perceptiva entre las dimensiones es posible y en el segundo caso no. Esta afirmación ha sido cuestionada poste- riormente.
Aunque no entraremos aquí en la polémica teórica sobre la dico- tomía procesamiento global/analítico2, si creemos
conveniente señalar una matización que es importante para el proceso de discriminación de la forma. Melara señalan que el
hecho de que diferentes dimensiones presenten una semejanza, bien sea en la percepción o incluso en determinados modos
de respuesta, no implica que no se puedan diferenciar entre sí. Los resultados de sus experimentos indican que presen-
tando estímulos muy similares que sólo diferían mínimamente en una de las dos dimensiones que interactuaban, por
ejemplo, saturación y brillo, los ob- servadores eran capaces de identificar la dimensión que había sido cambiada. Por lo
tanto, el que se perciba semejanza entre dimensiones no excluye que se puedan percibir también sus diferencias.
2.1.2. Contribución de las propiedades componentes y configuracionales en la discriminación
La segunda línea de investigación ha tenido como principal objetivo el estudio de la influencia de las propiedades
componentes y configuracionales de los estímulos sobre la discriminación de formas visuales.
a) para analizar qué tipo de propiedades estimulares es más importante para la discriminación de las formas visuales
Kimchi diseñó los estímulos utilizados en la parte superior de la F 7.8. En un 1r experimento se presentaron las líneas
representadas en la parte superior izquierda de la F 7.8 que difieren exclusivamente en su orientación (vertical, horizontal y
oblicuas). Tarea: discriminar la orientación de las líneas. Las líneas se presentaban por pares, de modo que a lo largo del
experimento aparecían todas las posibles combinaciones dos a dos de estas 4 orientaciones. Resultados: la discriminación
entre líneas q presentaban orientaciones vertical y horizontal era más fácil q cuando presentaban orientaciones oblicuas.
En un 2º experimento se presentaron los estímulos situados en la parte superior derecha de la F 7.8. Estos estímulos se
generaron a partir de la combinación de las líneas presentadas a la izquierda lo que permitía manipular las propiedades
componentes y configuracionales de los estímulos. Ej: el cuadrado y el rombo presentan propiedades componentes
distintas (la orientación vertical-horizontal de las líneas en el cuadrado vs. las oblicuas en el rombo) pero presentan la
misma propiedad configuracional de cierre. Por el contrario, el cuadrado y la cruz presentan idénticas propiedades
componentes (orientaciones horizontales y verticales en ambos casos) y distintas propiedades configuracionales (cierre en
el cuadrado e intersección en la cruz). La tarea era idéntica a la del experimento anterior y tenían que discriminar todas las
posibles combinaciones de las cuatro figuras (cuadrado vs. rombo, cuadrado vs. cruz, etc.). Resultados: los estímulos que
mejor se discriminaban eran los que presentaban propiedades configuracionales distintas y esto con independencia de que
las propiedades componentes de esos estímulos fueran iguales o no. Se discriminaban peor los estímulos que presentaban
propiedades configuracionales iguales.
b) Los efectos de superioridad del objeto y superioridad configuracional se han considerados tb como indicativos de la
predominancia de las propiedades globales de los Es en la discriminación. El efecto de superioridad del objeto fue puesto
de manifiesto en los estudios de Weisstein y Harris. En sus exps usaron como Es figuras semejantes a las presentadas en la
parte intermedia de la F 7.8: líneas en distinta orientación presentadas solas (A) o en el contexto de líneas horizontales y
verticales q formaban un patrón bidimensional (B) o tridimensional (C). Tarea: indicar cual de las 2 líneas oblicuas
aparecía en el estímulo presentado en cada ensayo. Resultados: las líneas oblicuas se discriminaban mejor cuando se
presentaban en el contexto de un objeto (C) q cuando se presentaban incluidas en un patrón bidimensional (B) o solas (A).
El efecto de superioridad configuracional hace referencia a la mejor ejecución en la discriminación de líneas y estímulos
simples cuando se presentan en un contexto estimular que permite la formación de determinadas configuraciones q cuando
se presentan aislados. El efecto se observó en los estudios de Pomerantz, Sager y Stoever en los que se utilizaron estímulos
semejantes a los presentados en la parte inferior de la F 7.8 y en los que los q se presentaban 4 Es tres de ellos en la misma
orientación y uno en distinta orientación. Los estímulos podían ser líneas presentadas solas o formando parte de distintas
configuraciones (en el presente ej flechas o triángulos). Tarea: indicar la posición del estímulo que presentaba distinta
orientación, y que podía presentarse en una de las cuatro esquinas de la pantalla. Resultados: el TR empleado en la tarea de
discriminación era menor cuando las líneas formaban parte de una configuración q cuando se presentaban solas.
Los resultados de estos y otros estudios sugieren que las propiedades configuracionales de los estímulos son más relevantes
para realizar la discriminación que las propiedades componentes.
2.2. Primacía del procesamiento de la información global y local
En la misma línea del apartado anterior, aspectos de los estímulos que influyen en la discriminación de las formas visuales,
en este apartado examinaremos el problema de la primacía de las características globales o locales en patrones visuales
jerárquicos. Este problema se ha analizado experimentalmente a par-tir de los trabajos pioneros de Navon y tuvo su
planteamiento inicial en el marco teórico de la Psicología de la Gestalt, a través del análisis de las relaciones entre el todo y
las partes en percepción visual.
2.2.1. Hipótesis de la primacía global
Navon realizó una serie de investigaciones que consideraremos como experimentos de referencia en el estudio de este
problema. Diseñó unos Es, que permitían la independencia de las características globales y locales así como el control del
relieve y familiaridad de las mismas. Los Es consistían en patrones jerárquicos, letras grandes (nivel global) formadas por
letras pequeñas (nivel local). Los estímulos eran congruentes cuando la identidad de las letras grandes y pequeñas era la
misma (por ej, letras A grandes formadas por letras A pequeñas). Los Es eran incongruentes cuando la identidad de las
letras grandes y pequeñas era diferente (por ej letras A grandes formadas por letras H pequeñas) (Fig 7.10.A)
Usó dos condiciones de atención:
- en la condición de atención selectiva al nivel global, tenían q atender
exclusivamente a las letras grandes, ignorando las pequeñas (ej: tenían que
pulsar una llave de respuestas cuando aparecía la letra global A y otra
distinta cuando aparecía la H);
- en la condición de atención selectiva al nivel local, se instruía para que
atendieran únicamente a las letras pequeñas ignorando las grandes (ej:
tenían q pulsar una llave de respuestas cuando aparecía la letra local A y
otra distinta cuando aparecía la H).
Los resultados revelaron 2 efectos importantes: ventaja global, tiempos de
reacción más cortos ante el nivel global que ante el nivel local e interferencia unidireccional, en la sit de incongruencia
(cuando la identidad de las letras globales y locales es diferente) la identificación del nivel global no se vio interferida por
la presencia de letras locales diferentes, es decir, los tiempos de reacción a los Es congruentes e incongruentes fueron
similares. Por el contrario, la identificación de las letras locales fue interferida por la presencia de letras globales distintas
en la sit de incongruencia (los TR a los Es incongruentes fueron más largos q a los Es congruentes). Estos resultados
fueron interpretados por el autor como apoyo a la hipótesis de primacía global en el procesamiento de las formas visuales.
2.2.2. Factores que afectan a la primacía del procesamiento
Investigaciones posteriores pusieron de manifiesto que el efecto de primacía global podía estar afectado por algunas
variables que limitaban la generalidad de este principio, entre las más relevantes destacaremos las siguientes:
l. Densidad del patrón estimular. Martín, varió la densidad de los elementos locales que formaban el patrón global,
presentando patrones densos (patrón global formado por muchos elementos locales) o poco densos (patrón global formado
por pocos elementos locales). Encontró que cuando el patrón global era denso, se obtenía primacía global. Por el contrario,
cuando el patrón global estaba formado por pocos elementos locales, se producía primacía local.
2. Calidad de la forma. Hoffman manipuló la calidad de las letras globales y locales introduciendo una degradación en los
estímulos (eliminan- do algunos de los trazos que formaban las letras) tanto en las letras globales como en las locales. Los
resultados de este experimento mostraron primacía global cuando se degradaban las letras locales. Sin embargo, cuando se
degra- daban las letras globales se producía un efecto de primacía local.
3. Tamaño de los estímulos. Kinchla y Wolfe examinaron la in- fluencia del tamaño de los estímulos sobre la primacía
global/local del proce- samiento. Utilizaron una tarea de atención dividida y presentaron estímulos de varios tamaños que
oscilaban desde 4.8° a 22° de ángulo visual. Encon- traron primacía global cuando los tamaños de los estímulos eran
pequeños (menos de 7° de ángulo visual), en los tamaños intermedios (entre 7° y 10° deángulo visual) no hubo diferencia
en los tiempos de reacción a los niveles glo- bal y local. Cuando los estímulos eran grandes (más de 10° de ángulo visual)
se producía primacía local. De acuerdo con los autores, estos resultados su- gerirían que el tamaño absoluto de los
estímulos desempeña un papel crucial en la primacía del procesamiento y que determina una transición desde una primacía
global a una local. Sin embargo, en un estudio posterior Lamb y Robertson mostraron que la transición en la primacía del
procesamiento en función del tamaño de los estímulos dependía del contexto (conjunto de tamaños presentados) más que
del tamaño absoluto de los Es. Cuando el conjunto era de tamaños pequeños (de 1.5° a 6°) el cambio de primacía0 global a
primacía local se producía entre 1.5° y J , mientras que cuando el conjunto era de tamaños grandes (de J0 a 8°) la transición
se producía entre J 0 y 6°. Por lo tanto no se podía considerar el tamaño absoluto de los estímu- los como determinante del
cambio en la primacía del procesamiento.
4. Posición retiniana de la información global y local. En opinión de Na- von y Norman (198J), los dos estudios citados
adolecen de un problema que ha podido sesgar los resultados. En ambos se utilizaron como estímulos letras compuestas
(letras H, E y S grandes formadas por las mismas letras pequeñas) presentadas en el centro de la pantalla. En esta
condición, las letras locales situadas en la barra central de las letras globales caen siempre en la fóvea o cerca de lá fóvea,
mientras que las letras globales caen en la parafóvea y se van desplazando hacia la periferia retiniana con el aumento del
tamaño. Es bien conocido, que la agudeza visual es máxima en la fóvea y decrece gradual- mente con el aumento en
excentricidad (distancia a la fóvea). Por lo tanto, la utilización de este tipo de estímulos presentados centralmente ha
podido favorecer el procesamiento del nivel local.
Para obviar este problema, Navon y Norman utilizaron una tarea de aten- ción selectiva y presentaron estímulos grandes y
pequeños en los que la ex- centricidad de las características globales y locales era idéntica (letras C, véase Fig.7.10 B). Sus
resultados revelaron ventaja global (los tiempos de reacción al nivel global fueron más cortos que ante el local) en las dos
condiciones de tamaño. Dado que tanto las tareas como los estímulos utilizados eran distin- tos en los dos tipos de estudio
comentados más arriba, no se podía conocer a qué se debían las diferencias en los resultados. En una serie de trabajos,
Luna y cols usaron una tarea de atención selectiva y presentaron dos tipos de estímulos: estímulos con igual excentricidad
(C's) y estímulos con diferente excentricidad (H's y S's). Los resultados mostraron que el aumento en el tamaño de los
estímulos sólo producía una transición hacia la primacía local cuando la excentricidad estaba desigualada (estímulos Hs y
Ss) pero no cuando la información global y local se presentaba en la misma posi- ción retiniana (estímulos Cs). Este
resultado se encontró tanto con patronesdensos (Luna et al., 1995; como con patrones con pocos elementos locales.
5. Duración de la exposición de los estímulos. Paquet y Merikle examinaron el efecto de la duración de la exposición de
los estímulos sobre la primacía del procesamiento en estímulos que presentaban desigual excentricidad. Presentaron los
estímulos durante 10, 40 y 100 mseg. Los resultados revelaron que se producía interferencia del nivel global sobre el local
única- mente en la duración de la exposición más breve. Por otra parte, la variable duración de la exposición no parece
afectar a la ventaja global cuando se utilizan valores de duración de la exposición moderadamente breves, los re- sultados
de Luna, Merino y Luna y Navon, utilizando estímulos con excentricidad controlada, indican que únicamente el efecto de
interferencia es afectado por la duración de la exposición: a mayor duración de la exposición se obtiene una menor
interferencia entre los dos niveles. Sin embargo, estudios posteriores muestran que el efecto de ventaja puede acen- tuarse
cuando la duración de la exposición es muy breve (10 msec).
En general, parece ser que las variables mencionadas afectan a la primacía del proces global cuando la excentricidad de la
inf global y local es desigual y sesga el proces hacia el nivel local. Estos efectos se eliminan o reducen cuando la
excentricidad de los dos niveles es la misma.
2.2.3. Origen de la primacía del procesamiento
No se ha determinado el origen de la primacía del procesamiento. Los autores sugieren un origen perceptivo y afirman q la
primacía global está mediada por el contenido de los cs de frecuencia espacial de los estímulos. Resultados de diversos
estudios indican q la eliminación de los cs de baja frecuencia espacial mediante distintos tipos de filtrado elimina o reduce
el efecto de primacía global. Pero esto otros resultados indican una disociación entre los dos efectos q determinan la
primacía del procesamiento. Los resultados de algunos estudios tanto en sujetos normales como en pacientes con lesiones
cerebrales que indican q a veces se produce ventaja global y no interferencia o viceversa, sugieren mecs diferentes para
estos dos efectos. La ventaja estaría determinada por un mec perceptivo mientras que la interferencia estaría asociada a un
mec atencional. Posiblemente, los 2 mecs intervienen en este fenómeno, pero se necesita más invest.
2.3. Teoría de integración de características
Cualquier lector habrá experimentado q a veces la localizar un objeto en un contexto det (ej: un det libro en una estantería
repleta de libros), le resulta fácil y rápido, mientras q otras veces, le resulta muy difícil y casi tiene que examinar uno a uno
los objetos hasta encontrarlo. Es decir, algunas discriminaciones son muy fáciles y otras muy difíciles.
La Teoría de integración de características (TIC) desarrollada por A. Treisman y cols desde los años 80 explica estas
diferencias. Nos centraremos en los aspectos más directamente reldas con el proceso de discriminación de formas visuales.
La teoría de integración de características representa una posición teórica diferente a los dos acercamientos descritos hasta
ahora y tiene sus raíces en el estructuralismo. Al igual que en este acercamiento teórico, el punto de partida del
planteamiento de Treisman y cols en la TIC es q, aunq fenomenológicamente percibimos un mundo estructurado en
objetos, el proceso de percepción del objeto parte del análisis de características simples y componentes estimulares. Es
decir, el sistema visual procesa inicialmente caracs aisladas que sólo posteriormente se organizan en formas u objetos
integrados. Uno de los supuestos básicos en la TIC es que las características simples se procesan de forma automática,
mientras que los objetos requieren la focalización de la atención. Hay evidencia fisiológica y comportamental q apoya esta
posición teórica. La evidencia fisiológica en el cap 3 al considerar la aprox teórica del análisis inicial de caracs y los
trabajos de Hubel y Wiesel, la evidencia comportamental se examina a continuación.
2.3.1. Evidencia comportamental
No todas las características físicas funcionan como características simples. Por ello, los autores han tratado de identificar
las características funcionales extraídas por el sistema visual. El proced básico ha consistido en insertar una serie de
características en tareas experimentales y ver si se comportan de acuerdo con una serie de predicciones.
l. Tarea de búsqueda visual: consiste en detectar un det objetivo entre una serie de distractores, por ejemplo, detectar un
círculo negro entre círculos blancos. La TIC predice que, en este tipo de tarea, los objetivos que puedan discriminarse de
los distractores a partir de una característica simple, se detectarán automáticamente sin intervención de la atención, la
búsqueda se llevará a cabo en paralelo y, por último, la detección no se verá afectada por el nº de distractores, es decir la
detección del objetivo será independiente del nº de distractores. En la parte superior de la F 7.11, se presenta un ej de
búsqueda visual de un objetivo (círculo negro) entre una serie de distractores (círculos blancos). El objetivo, en este caso,
se puede discriminar de los distractores a partir de una característica simple (nivel negro de la dimensión color) diferente a
las que presentan los distractores (nivel blanco de la dimensión color). Como puede observarse el objetivo resalta de los
distractores y se discrimina fácilmente tanto en el caso de haya pocos distractores (A) como cuando los distractores son
más numerosos (B).
Por el contrario, cuando el objetivo está definido por una conjunción de características, por ejemplo, cuando el objetivo es
un círculo negro entre una serie de distractores que son triángulos negros y círculos blancos; es decir, que se han unido las
características forma y color para formar el objetivo, la teoría predice que será necesaria la intervención de la atención para
detectar- lo, la búsqueda será serial y el número de distractores afectará a la detección del objetivo. El objetivo, en este
caso, presenta características comunes con los distractores, en consecuencia la discriminación será más difícil que en el
caso anterior, y además, la dificultad en la discriminación aumentará, a medida que aumenta el número de distractores,
como puede observarse en las partes C y D de la F 7.11.
2. Segregación de la textura. En este caso la teoría predice que cuando dos regiones del campo
visual se puedan discriminar en base a una característica simple su segregación será automática.
Por el contrario, cuando las diferentes texturas estén formadas por conjunciones de características
simples, la segregación de las regiones texturadas requerirá más escrutinio (F 6.16 del cap 7).
3. Formación de conjunciones ilusorias. Cuando se presta atención a otros objetos presentes en el
campo visual o la atención esta sobrecargada, la teoría predice que la combinación de las
características simples para formar un objetivo dará lugar a conjunciones ilusorias. Conjunciones
ilusorias son combina- ciones erróneas de características simples. Treisman y Schmid presentaron a los sujetos dos dígitos
y una serie de letras (X roja, T azul y O verde) en una tarea de atención dividida en la que tenían que responder tanto a los
dígitos como a las letras. Al responder los sujetos combinaban erróneamente las caracs de las letras (ej: T roja o X verde).
Los resultados obtenidos con estas y otras tareas han confirmado, en general, las predicciones teóricas. Como un intento de
integrar los resultados se ha desarrollado, a través de varias etapas, el modelo de percepción del objeto.
2.3.2. Modelo de percepción del objeto
El modelo propuesto por Treisman y colaboradores se presenta en la F 7.12. El supuesto básico en este modelo es que las
características se registran y codifican en módulos especializados, de forma automática, en paralelo y sin at localizada.
Cada módulo consta de mapas distintos de características para cada dim y para cada valor de la dim que codifica (es decir,
si se codifica la dimensión forma, un mapa distinto para cada uno de los valores: cuadrado, rombo, círculo, etc.).
Los supuestos de la forma de actuación del modelo aplicados a una tarea de búsqueda visual son los siguientes:
1) Cuando se activa uno de los mapas se detecta automáticamente la
característica.
2) Cuando la búsqueda visual se realiza sobre un objetivo que requiere
la localización y unión de características, la atención juega un papel
fundamental.
La atención selecciona en un “mapa especializado de localizaciones”
la localización de los límites de las características, sin que esto
implique la detección de las mismas. Cuando la atención se focaliza
sobre una posición determinada del mapa de localizaciones, se
recupera de forma automática la inf sobre qué características están
activadas y en qué posición, por medio de las conexiones de las
diferentes localizaciones en los módulos. El nivel más elevado en el
modelo representa la recombinación de las propiedades que se han
extraído a partir de cada módulo especializado y que permiten, en
último término, la percepción de objetos, escenas y eventos.
El modelo puede explicar la mayor parte de la evidencia empírica
obtenida en el laboratorio de Treisman, sin embargo encuentra
dificultades para explicar los resultados obtenidos en contextos
diferentes y sobre todo cuando las características se definen a partir de
posefectos visuales, frecuencia espacial con dirección del contraste y
del color y características espaciales. Por otra parte, resultados de distintos estudios muestran que determinadas
combinaciones de características simples pueden detectarse automáticamente sin la intervención de la atención.
Modificaciones posteriores de la teoría han admitido la detección automática de combinaciones de caracs simples cuando
estas últimas presentan grandes diferencias entre sí y, por lo tanto, se pueden discriminar con facilidad.
Finalmente, y en relación con el supuesto de independencia de los módulos que procesan las características simples,
resultados de estudios recientes indican que algunos módulos interactúan. Kubovy, Cohen y Hollier realizaron una serie de
estudios con el fin de examinar la supuesta independencia de los módulos que procesan las características simples de forma
y co- lor. Desarrollaron un procedimiento experimental denominado “Detección de la Gestalt” en el que se presentaban
como estímulos una serie de patrones texturados utilizando un proced de
presentaciones visuales rápidas (parte inferior de la F 7.13. Los estímulos
se manipularon de forma que el límite que divide las dos regiones
segregadas del patrón estimular estaba determinado a partir de color (A),
forma (B), forma y color (C) conjunción de las características simples de
forma y color (D), o a la relación ortogonal de las características en el
patrón estimular (E), en estos dos último caso se generaban dos límites
distintos una determinado por la forma y otro por el color (véase parte
superior de la Figura 7.13).
La tarea de los sujetos podía consistir en una tarea de detección en la que
tenían que detectar el límite de la textura, indicando si lo percibían o no en
un determinado ensayo; o en una tarea de localización, en la que tenían
que indicar si el límite era horizontal o vertical. Los resultados mostraron
que cuando la información que recibían era consistente, es decir, cuando el
límite entre las dos regiones texturadas estaba definido a la vez por color y
forma (patrón C), se detectaba mejor que cuando la información era
inconsistente como en los patrones D y E, indicando que los módulos que
procesan el color y la forma no eran independientes e interactuaban. Por lo
tanto, uno de los supuestos fundamentales del modelo queda en entredicho
a partir de estos resultados.
No obstante, a pesar de las limitaciones señaladas, que requieren una mo- dificación en determinados aspectos de la teoría,
es innegable la influencia que ha tenido la TIC en el desarrollo de la invest en atención visual y percepción del objeto.
RESUMEN
En el presente capítulo se han examinado algunos ejemplos de fenómenos y procedimientos experimentales de cuyos
resultados se puede inferir la ac- tuación de los procesos de detección y discriminación de formas visuales. En relación con
la detección de formas visuales, se han examinado dos aspectos: la detección de patrones de puntos y la detección de la
simetría; otro aspecto fundamental en relación con este proceso, la detección del contraste se ha examinado en el capítulo
3. Los patrones de puntos, constituyen un estímulo muy idóneo en los estudios sobre detección debido a que son formas no
fami- liares y, por lo tanto, no están contaminados por este factor. Se describe el pa- radigma de enmascaramiento visual,
que es el más utilizado en este contexto y se examinan los factores que afectan a la detectabilidad de las formas visuales
como orientación de las líneas, orientación del patrón, etc. En la detección de la simetría se examinan tres tipos de simetría.
Simetría bilateral, traslacional y rotacional, y se presentan algunos ejemplos de la evidencia empírica en re- lación con qué
tipo de simetría resulta más saliente en percepción, así como los factores que influyen en la detección de la simetría.
En relación con la discriminación de formas visuales, se examinan una serie de aspectos que contribuyen a la
diferenciación de formas visuales como la descripción de las propiedades componentes y globales de los estímulos, el
estudio de las relaciones entre las dimensiones estimulares y el papel desem- peñado por las propiedades componentes y
configuracionales de los estímulos en la discriminación. En la misma línea, se examina en el apartado siguiente la
influencia de las características globales y locales en la discriminación de pa- trones visuales jerárquicos. Finalmente, y
desde una posición teórica distinta a las dos anteriores, se presentan aquellos aspectos de la teoría de integración de
características (TIC) relacionados con la discriminación de formas visua- les, como es la ejecución en tareas de búsqueda
visual y segregación de los límites de la textura en función de que el objetivo o los límites estén definidos en base a
características simples o conjunción de las mismas. En último lugar se presenta el modelo de percepción del objeto y se
señalan algunos problemas en relación con esta propuesta teórica.
T.8 RECONOCIMIENTO VISUAL
Analizaremos el reconocimiento visual centrándonos en el reconocimiento de objetos y caras.
Uttal: reconocimiento: la acción de clasificar o categorizar un det E como miembro de una clase de Es.
El proceso de rec es más complejo q la detección o discriminación. El único requisito en la detección, es advertir la
presencia de un E; en la discriminación, se añadía un requisito de M (una vez atendido el 1r E es necesario recordarlo para
compararlo con el 2º) y el rec requiere el recuerdo de una o varias clases de estímulos y la asignación de significado al
objeto, ya que la acción de clasificar, categorizar o conceptuar depende más del significado que se asigna al objeto que de
las características físicas del mismo, que son prioritarias en la detección y la discriminación.
El rec visual es uno de los problemas más complejos, pero tb de los más cruciales, dado es fund para el desenvolvimiento
de los humanos en su interacción con el medio. Aunq no somos conscientes de hacer un esfuerzo notable xa reconocer.
¿Como es posible q podamos reconocer esta diversidad de estimulación cuando la imagen de q se parte es bidimensional y
estática en la retina, en definitiva, un patrón de luz que incide sobre los órganos sensoriales de la visión? Más aún,
seguimos reconociendo los objetos del mundo real aunq se produzcan desplazamientos por parte del objeto o del
observador, cuando cambia la fuente de iluminación o la orientación del objeto, cuando el objeto es ocultado parcialmente
por otro que se superpone, etc., y, sin embargo, seguimos reconociendo los objetos sin dificultad y con una notable rapidez,
aprox 100 o 200 milisegundos (aunque son necesarios unos 100 milisegundos más para ser conscientes de ello.
Actualmente no hay ningún modelo de rec q sea tan potente y eficaz como el sistema de rec visual de los humanos.
1. RECONOCIMIENTO DE OBJETOS
La mayoría de las teorías: mec básico: comparar la imagen de un objeto con una representación del objeto almacenada en
la memoria. Ej: cuando buscamos nuestro coche en un aparcamiento, tendremos q comparar la imagen que estamos viendo
con una representación almacenada en la memoria de un objeto (nuestro coche) que responde a unas dets características
como forma, color, modelo, matrícula etc., con el fin de obtener el reconocimiento final de nuestro coche frente a todos los
demás. Para comprender cómo se lleva a cabo la comparación, habrá que conocer
- 1º: qué tipo de procesos permiten derivar una descripción adecuada de la imagen.
- 2º: cómo se almacenan esas descripciones y finalmente,
- 3º: cómo se realiza la comparación. Es decir habrá que conocer la rel entre los procesos visuales de descripción de la
imagen y los procesos cognitivos que permiten realizar la comparación.
1.1. Comparación de plantillas
Las primeras invests sobre rec visual, se centraron en el rec de patrones bidimensionales simples, como letras y números.
Una de las propuestas iniciales suponía q para cada carácter alfanumérico debería haber una plantilla almacenada en la
memoria con la cual se comparaba el patrón.
Una posible forma de rec, sería comparar la imagen correspondiente a un patrón visual nuevo con la plantilla almacenada
en la memoria y determinar si éste encaja o no en la plantilla. Es decir, el rec de un patrón nuevo, no familiar o conocido,
se realizaría comparándolo con la plantilla y viendo si se ajusta o no. Cuanto más se ajustara,
mayor prob de q se reconociera. El proced en la F 8.l. El proced de comparación de
plantillas, sería útil para el rec de patrones cuya forma básica es relativamente constante
relativamente constante, es decir, cuando no presenta demasiadas variaciones. Ej: para que
los cajeros automáticos reconozcan talones bancarios mediante plantillas, las formas básicas
de los números se representan siempre con los mismos caracteres, tamaño y posición. El rec
de caracteres alfanuméricos usando plantillas, es mucho más complicado cuando las formas básicas, tamaño y posición
varían. Es mucho más difícil q el escáner reconozca los caracteres de un texto escrito a mano q los de un texto escrito con
una letra estándar en el ordenador. Finalmente, la comparación de plantillas no sería útil xa
reconocer patrones complejos u objetos naturales x la complejidad y variaciones q éstos presentan.
Los problemas que presenta este proced están fund reldos con su falta de economía. Si tuviéramos
que comparar con una plantilla la forma de la letra P que se presenta en la F 8.2, el proceso sería
interminable, debido a la gran variedad d formas básicas pueden existir sobre la letra p. Es más,
para realizar la comparación necesitaríamos tener almacenadas en la M infinidad de plantillas (una
para cada una de las formas básicas) y el proceso de rec visual sería lento y
costoso. Por otra parte, el rec no sería posible cuando los patrones cambiasen de
orientación, tamaño o posición, o cuando existiera alguna deformación en ellos.
Una posible solución requeriría que las imágenes de los objetos fueran sometidas
previamente a un proceso de normalización, por medio del cual se ajustaran al
tamaño, orientación, etc. y, una vez normalizados, se compararan con las plantillas
almacenadas (F 8.3).
Una forma de obtener esta normalización es complementar la descripción del objeto con inf sobre la distancia del objeto y
la orientación en relación con el observador; los resultados d algunos estudios muestran la eficacia de este proced.
1.2. Análisis de características
Una postura diferente, dice que el sistema visual puede q disponga de detectores específicos de características geométricas
simples como líneas verticales, horizontales y oblicuas; ángulos, curvas, etc. En este caso, el rec se obtendría mediante la
detección de las características definitorias de un patrón det. Ej: la presencia de una línea horizontal situada en la parte
superior y otra horizontal unida a la anterior en su centro, determinaría el rec de la letra T.
1r modelo de rec basado en las características: “pandemónium”, desarrollado por Selfridge examinadas en el cap 3, que
mostraron la capacidad de respuesta selectiva por parte de células del cortex visual del mono y el gato a dets características
estimulares (líneas de una anchura específica y bordes orientados de una forma det).
En el modelo del pandemonium, cada número o letra se representa internamente por una lista de características locales q
definen su forma (líneas verticales, horizontales y oblicuas, ángulos rectos, curvas, etc.).
Ej: las características locales de una H, serían dos líneas verticales, una horizontal y cuatro ángulos rectos.
Cuando se presenta un patrón nuevo se hace una lista de sus caracs y se compara en paralelo (todas a la vez) con las listas
de caracs de patrones conocidos almacenadas en la memoria. Si el patrón nuevo se ajusta a alguna de las caracs se
reconoce y se clasifica como perteneciente a una det cat.
El sistema consta de una serie de mecs o “demonios”, cada uno con una función específica.
- Los “demonios de la imagen” forman una representación interna del patrón estimular.
- Los “demonios de las características” analizan la imagen y responden únicamente cuanto está presente la carac a la que
son sensibles (unos responden ante líneas verticales, otras ante ángulos, etc.).
- Los “demonios cognitivos”, reconocen patrones específicos, ej una letra o un número dets. Su forma de actuar consisteen
recoger las respuestas anteriores y buscar combinaciones de caracs q definen el patrón de cuyo rec son responsables. Si
encuentran una serie de caracs pertinentes en rel con un patrón det, envían su inf al “demonio de la decisión” q tiene como
función dar la respuesta final sobre el rec.
Pero el mec de rec del modelo del pandemonium no es aplicable en muchos casos. Ej: para reconocer la letra E tendríamos
según este modelo, una lista de caracs q respondería a una línea vertical y tres líneas horizontales más cortas. El problema
es que la lista de características no es suficiente para facilitar el rec. Con las mismas características pertenecientes a la letra
E se podrían reconocer otras figuras como las de la F 8.4. Por lo tanto, sería necesario especificar las rels entre las
características elementales. Una dificultad mayor para este modelo, estaría en relación con el rec de
objetos naturales (animales, caras, árboles, etc.) y patrones más complejos q los alfanuméricos.
Definir un patrón complejo, como por ej un insecto, en base a este tipo de caracs resultaría imposible,
como tb lo sería recombinar las caracs elementales de un patrón de esta naturaleza para llegar a una
identificación global del mismo. La propuesta a continuación resuelve algunos de los problemas
citados en rel con los modelos de plantillas y caracs.
1.3. Descripciones estructurales
Las descripciones estructurales incluyen además de la descripción de las características de un patrón, las relaciones entre
las mismas y su disposición espacial; de esta forma, se superan algunas de las dificultades comentadas anteriormente. Ej: la
descripción estructural de la letra E consistiría en la lista de una línea vertical, 4 ángulos rectos y 3 líneas horizontales q se
unen a la línea vertical en la parte superior, intermedia e inferior. Así, la especificación de las rels entre las características
así como su disposición espacial, permite la comparación de los patrones nuevos con las representaciones almacenadas,
obviando la ambigüedad de los proceds anteriores.
Sin embargo, la descripción estructural no garantizaría el rec del objeto en sits en las q se produce un cambio en la imagen
debido al movimiento del sujeto o del objeto, es decir, a la observación desde puntos de vista diferentes. Las descripciones
estructurales deben incluir, por lo tanto, algo más que una lista de características y de sus relaciones espaciales, para que se
pueda reconocer un objeto cuando se producen estos cambios.
Una propuesta en relación con este problema es la de las descripciones estructurales basadas en el objeto, que incluye en la
descripción, el marco de referencia perceptivo o eje intrínseco del objeto (Palmer, 1999). De esta forma, al especificar la
relación de las partes del objeto con el eje principal del mismo, se mantiene la constancia del objeto.
Cuando la relación entre el objeto y el marco de ref permanece constante, el rec del mismo es posible a pesar de los
cambios en la imagen cuando se produce un cambio en la orientación o dets transformaciones. Es decir, con la
adopción de un marco de ref intrínseco o centrado en el objeto, el rec pasa a ser
independiente de las transformaciones, así como de los cambios en el punto de vista. La
casa de la F 8.5, se representa por una fig geométrica definida por la posición de su centro
y la orientación de sus ejes horizontal y vertical, q constituyen sus marcos de ref
intrínsecos. Así, se pueden codificar las rels espaciales entre las partes del objeto y el eje
principal del mismo y se puede reconocer el objeto cuando se producen cambios de
tamaño, posición u orientación.
La excepción a esta regla la constituyen aquellos casos en que existan marcos de ref
alternativos; cuando esto ocurre, el rec dependerá del marco de referencia seleccionado.
Ej: las figuras presentadas en la parte superior de la F 8.6 se perciben como un cuadrado y
un diamante respectivamente. Sin embargo, cuando se presentan alineados en una
diagonal, como en la parte intermedia, pueden percibirse de las dos formas (cuadrados y
diamantes); finalmente, cuando se incluyen en un rectángulo, como en la parte inferior, la
ambigüedad desaparece.
No obstante, la representación basada en el objeto, a saber, la utilización de un sistema de
coordenadas espaciales centrado en el objeto, como hemos visto en la propuesta de
descripciones estructurales basadas en el objeto, no resuelve todos los problemas apuntados en relación con el rec. Este
modelo tiene problemas cuando existe una gran variedad de objetos pertenecientes a una misma clase, cuando el objeto se
dobla por alguno de sus ejes, o cuando se les añade alguna parte. En todos estos casos, no se puede obtener un buen ajuste
cuando se compara una representación de estas características con los modelos almacenados en la memoria.
1.4. Teoría de Marr y Nishihara
Igual que las descripciones estructurales tb está basada en ejes de coordenadas, y se desarrolló en el contexto de la
Inteligencia Artificial. Intenta explicar cómo se transforman los patrones estimulares en una representación simbólica en la
q se explicitan la forma, orientación, posición, movimiento, etc. de los objetos. Este proceso se desarrolla a través de varias
etapas, en las que se generan distintas descripciones del estímulo (esbozo primario, esbozo 21J2 D y modelo 3 D).
La teoría diferencia entre la contribución del proces visual inicial, en el q se generaría el esbozo primario y el esbozo 21/2
D, y la contribución de procesos posteriores o más tardíos (que llevarían al modelo 3 D).
En las dos primeras etapas, el proces es de bajo nivel y no implica ningún proceso de interpretación.
- En la 1ª se crea una representación inicial o “esbozo primario”, en la que se describe la imagen como una serie de
cambios de intensidad q representan bordes, manchas, barras, y su distribución geométrica (sus posiciones y
orientaciones). Resultado de 1ª etapa: representación de estructuras más globales (gradientes de densidad, contornos y
texturas de las superficies) llamada “esbozo primario completo” q es una representación más refinada que la anterior.
- En la 2ª etapa, se obtiene una representación llamada esbozo 2 Y2 D, q aporta inf sobre la distancia relativa de las partes
de la superficie al observador, su orientación en rel con la línea de visión y la presencia de discontinuidades en la
superficie. Es una descripción de la superficie del objeto desde el punto de vista del observador. Esto implica que cuando
se produce un desplazamiento del sujeto o del objeto, la representación cambia, por lo que todavía resulta inadecuada para
la comparación con los modelos almacenados en la memoria. Una representación basada en el punto de vista del
observador no es adecuada para describir el objeto, porque se necesitaría un modelo almacenado en la memoria para cada
uno de los puntos de vista posibles. Para solucionarlo y mantener la constancia en el rec del objeto, proponen una
- 3ª etapa de procesamiento tardío, en la q se genera una descripción: modelo 3 D, definida a partir de un sistema de
coordenadas basado en los ejes naturales del objeto, lo que permite mantener la descripción del objeto en relación al marco
de referencia, cuando se producen cambios en el punto de vista desde el que se observa.
Los autores, proponen una org modular de las descripciones del objeto (en la que los mecs de proces son independientes) y
una representación del objeto basada en primitivos volumétricos q se pueden localizar en los objetos y analizar en términos
de ejes de coordenadas.
Los primitivos volumétricos son los conos generalizados, q consisten en las superficies generadas a partir del movimiento
de una sección transversal a lo largo de un eje principal. La sección puede variar en tamaño pero su forma permanece
constante. (F 8.7). No todos los objetos pueden describirse mediante conos generalizados. Objetos como vasos, jarrones,
pirámides, y algunas partes del cuerpo, podrían describirse mediante este sistema, pero no podrían ser descritos mediante
conos generalizados otros objetos como rostros, árboles o plantas.
F 1.3 del cap 1, se ilustra cómo se representaría la figura humana según esta propuesta. El
cilindro grande de la izquierda, es un modelo 3D global con su eje de coordenadas incorporado,
que permite especificar las posiciones, longitudes y orientaciones del resto de de las partes del
cuerpo (cabeza, tronco y extremidades). A su vez se representan modelos 3D, de más bajo nivel
en la org jerárquica q, a su vez, permiten especificar las posiciones, longitudes y orientaciones
de las partes, y así se procedería hasta llegar a la representación de la mano situada a la derecha.
Así, cuando un objeto se desplaza, las partes del objeto cambian en rel al punto de vista pero se
mantiene constante la rel de las partes con el eje natural del objeto.
La teoría propuesta por Marr y Nishihara es un modelo de Inteligencia Artificial, no puede explicar el rec visual humano.
Por otra parte, hay muchos objetos naturales y más complejos en los q los primitivos volumétricos propuestos por Marr y
Nishihara no son aplicables. Ya q en esta teoría no se asume la influencia del conoc previo (procesos de arriba-abajo) sobre
el proceso de rec, el modelo propuesto daría lugar a errores a la hora de reconocer este tipo de objetos.
1.5. Modelo de reconocimiento por componentes Biederman y Hummel y Biederman (1992)
Es una extensión del de Marr y Nishihara aplicado al rec humano. Parte de una idea similar a la de los modelos de rec de
palabras mediante los fonemas. La propuesta básica es un modelo de rec basado en un conjunto finito de primitivos y sus
posibles combinaciones, que permiten especificar los objetos.
Biederman, propone como primitivos, o unidades básicas para el rec de los objetos, un conjunto finito (aprox 36) de formas
volumétricas simples, que denomina “geones”. Propone 4 tipos de geones básicos: esferas, cilindros, bloques y cuñas, para
obtener primitivos tridimensionales a partir de imágenes de entrada bidimensionales. Biederman considera que los geones
son características invariantes desde cualquier punto de vista, y pueden usarse como material para
la construcción de las representaciones tridimensionales (véase F 8.8).
El supuesto perceptivo fund: los geones pueden diferenciarse sobre la base de propiedades
perceptivas de la imagen bidimensional q son independientes del punto de vista que se adopte. Es
decir, serían propiedades que facilitarían la constancia del objeto cuando se observa desde distintos
ángulos. Entre las propiedades propuestas se incluyen algunos principios de org perceptiva como
los del cap 6 que permiten el rec de objetos complejos en base a cs simples.
La teoría sugiere además, una serie de rels estructurales entre los cs q permitirían generar múltiples
objetos. Por lo tanto, la representación de un objeto consistiría en una descripción estructural q
especifica la rel entre los cs del objeto (orientación, tamaño relativo y unión de los componentes).
Biederman adopta como base perceptiva para explicar la generación de geones, una propuesta teórica formulada por Lowe,
que relaciona la org perceptiva y el rec de patrones. El supuesto básico del q se parte es que el sistema visual humano ha
desarrollado la capacidad de detectar dets orgs perceptivas de los elementos de la imagen como simetría, alineamiento,
conexión, etc., que no son accidentales. Es decir, orgs que no surgen por casualidad y que se corresponden con propiedades
significativas de los objetos.
Las propiedades no accidentales (fund, simetría, paralelismo, rectitud/curvatura, conexión y coterminación), serían las
responsables de mantener la constancia del objeto, ej, la simetría en el objeto se proyectaría en la imagen aunque se
adoptaran puntos de vista diferentes. En el modelo de rec por componentes, las propiedades no accidentales se consideran
como características, de manera que un borde recto en la imagen es probable q se corresponda con un borde recto en el
objeto del cual se ha derivado la imagen. Además, las propiedades no accidentales son invariantes, es decir, su
correspondencia con el objeto permanece a pesar de los cambios en el punto de vista. El principio básico de org es que el
sistema visual considera q dets propiedades de los bordes de la imagen bidimensional son una evidencia de la presencia de
esas mismas propiedades en los objetos tridimensionales. Ej: un borde recto en la imagen bidimensional, sugeriría la
presencia de un borde recto en el objeto tridimensional a partir del cual
se ha derivado la imagen.
El rec por componentes procedería de la siguiente forma:
1r paso: extracción de borde a partir de los cambios en luminancia. A
partir de la inf contenida en los bordes, se extraerían las propiedades no
accidentales de la imagen como simetría, conexión, paralelismo,
rectitud/curvatura y coterminación, q sirven para identificar los geones.
En paralelo al paso anterior, se llevaría a cabo un proceso de división del
objeto en regiones cóncavas, cuyo objetivo es identificar los geones que
componen el objeto. El resultado de las etapas anteriores permitiría
especificar el tipo degeones, su posición en la escena, así como las rels
espaciales entre los mismos, como tamaño, posición relativa, orientación,
etc. Hasta este punto el procesamiento procedería de abajo-arriba. Una
vez activada la descripción de los geones del objeto, se activaría la
descripción de los geones almacenados en la memoria y se llevaría a
cabo el proceso de comparación en paralelo, q conduce finalmente a la
identificación del objeto (Cuadro 8.1).
Estudios experimentales han intentado verificar el func del modelo.
1r grupo de estudios se dedicó a examinar si el rec del objeto era más
rápido y preciso cuando se presentaban sólo los geones básicos del
objeto o cuando se presentaba el objeto perfectamente detallado. Para examinarlo, se dibujaron objetos comunes
completos, con todos sus componentes dibujados; incompletos, en los q a los objetos representados en los dibujos les
faltaba algún componente esencial; y objetos más complejos representados con múltiples cs (véase parte superior de la F
8.9). Los dibujos se presentaron a los sujetos durante 100 milisegundos y éstos tenían que nombrar el objeto. Resultados: el
TR empleado por los sujetos en la tarea de nombrar objetos era aprox igual en los dibujos de objetos simples completos e
incompletos. Por otra parte, el TR cuando los sujetos tenían q nombrar los dibujos de objetos más complejos fue más corto
que en los dos casos anteriores. Estos resultados apoyan la hipótesis del modelo de rec por cs que afirma que los objetos
pueden identificarse correctamente a partir de una serie limitada de geones básicos. Por otra parte, el hecho de obtener una
ligera ventaja en el tiempo de reacción ante los objetos complejos (formados por un mayor nº de componentes) se
interpretó tb como prueba a favor del supuesto de que cuantos más geones contenga un objeto, más rápidamente se llevará
a cabo la comparación con las descripciones almacenadas sobre los geones en la memoria.
Un 2º grupo de estudios examinó el efecto de la degradación del estímulo sobre el rec de los objetos. Usando el mismo
proced experimental q en los estudios anteriores, se presentaron dibujos completos de los objetos junto con dibujos en los
que se degradaron partes fundamentales para la identificación de los geones (propiedades no accidentales) o partes que no
la afectaban (parte inferior de la F 8.9). Resultados: el rec empeoraba cuando el estímulo presentaba una degradación que
afectaba a las propiedades no accidentales (dibujos de la taza y la copa presentados en la parte
derecha) pq en ese caso no se podían identificar los geones componentes dl objeto.
Cuando la degradación no afectaba a las propiedades no accidentales como en los dibujos de la
parte intermedia, se podían identificar los geones a partir de la inf existente y reconocer el objeto.
El modelo propuesto por Biederman es más flexible y más apropiado para el rec humano q el
propuesto por Marr y Nishihara y se puede aplicar a una gama más amplia de objetos. Por otra
parte, ventaja: permite contrastar algunas de las hipótesis y, como hemos señalado antes, los
resultados son consistentes con el modelo. Pero tb presenta dificultades. El principal problema
está en rel con la propuesta artificial de los 36 geones y la determinación de sus rels espaciales.
No hay ninguna evidencia empírica q apoye la sugerencia de que los geones propuestos sean la
base funf para categorizar los objetos, aunque los trabajos de Tanaka, usando un proced de
degradación progresiva del estímulo, han encontrado células en la corteza inferotemporal de macacos q responden a
patrones simples volumétricos de extraordinario parecido a los geones propuestos por Biederman. Estas invests podrían
aportar credibilidad a la conjetura de Biederman.
1.5.1. Modelo PDP de la teoría del reconocimiento por componentes
En los modelos PDP, se considera que el rec consiste en la activación de una red
formada por unidades de computación artificiales similares a las neuronas, que procesan
la inf de forma distribuida y en paralelo. A modo de ej de estos modelos, expondremos
brevemente el modelo JIM desarrollado por Hummel y Biederman q es una
implementación de la teoría de rec por componentes, aunq este modelo en concreto
presenta poco paralelismo debido a q cada una de las capas presenta una fase de
complejidad progresiva, q implica una clara secuencialidad.
El modelo JIM es una red neuronal conexionista de 7 capas, cuya arquitectura funcional
se representa en la F 8.10.
En la 1ª capa (L1), formada por un mosaico de células sintonizadas a la orientación y
cuyos campos receptivos se solapan, se extraerían los bordes.
En la 2ª capa (L2), se extraerían 3 tipos de caracs: vértices, ejes de simetría y manchas,
que permiten discriminar entre distintos tipos de geones y especificar sus atributos.
En la capa 3 (L3), se codifican los atributos de los geones, como la forma de su eje
principal (recta o curva), si existe paralelismo (lados paralelos o no paralelos), orientación burda (vertical, horizontal,
oblicua), aspecto (alongado o achatado) forma de la sección (recta o curva), tamaño (grande o pequeño), posición
horizontal (de derecha a izquierda), posición ertical (que varía de arriba abajo), etc. De esta forma, cada geón queda
definido por el valor q presenta en cada uno de estos atributos. Las capas 4ª y 5ª (L4 y L5) reciben la inf sobre la posición
en el campo visual, tamaño y orientación de los geones, que procede de las células de la capa L3. En L4 y L5, se
especifican las rels espaciales entre los geones: orientación, posición y tamaño relativo. Las células de la capa 6 (L6)
reciben las unidades de salida de L3 y L5, q constituyen una descripción estructural de un objeto en términos de los geones
q lo componen y las rels entre los mismos y responden a conjuntos de células activadas de esas capas. Estas unidades
representan el conjunto de todas las descripciones de geones posibles. La activación de estas unidades se corresponde con
la etapa de identificación de geones del modelo de rec por componentes descrito en el punto anterior. Finalmente, en la
capa 7 (L7), las células responden a ls objetos definidos en base a grupos d células d la capa anterior(L6).
2. RECONOCIMIENTO DE CARAS
El rec de caras presenta aspectos peculiares y distintos a los presentados en el rec de objetos.
La rel entre los elementos componentes de la cara (ojos, boca, nariz, etc.) da lugar a la formación de una configuración en
la q se percibe el E como un todo q presenta caracs propias e independientes de las de sus els componentes. Por ello
permite investigar qué tipo de propiedades estimulares son determinantes en el rec.
Las caras son Es biológica y socialmente importantes, aportando inf sobre caracs relevantes de las personas con las q se
interactúa como edad, sexo, ánimo, y dirección de la mirada, q pueden influir en el aprendizaje y la interacción social.
Proced experimental básico: presentar como Es caras construidas artificialmente, en las q se pueden variar las caracs que
forman el rostro (la forma de la nariz, el color de ojos, la forma del pelo, etc.).
Tareas más usadas: las de igual-diferente, en las q deben comparar dos caras, o algún c de las mismas, y señalar si son
iguales o no, y tareas de rec, en las q deben señalar si la cara se había presentado antes.
2.1. Procesamiento de las características componentes de las caras
Las primeras investigaciones sobre reconocimiento de caras realizadas en los años 70, partían del supuesto de que el
sistema visual analizaba las caras basándose en las características que las componen (ojos, boca, nariz, etc.) y a partir de
aquí se realizaba una descripción de la cara sobre la base de estas características (ej: ojos azules, nariz afilada, labios
gruesos, etc.). La pregunta que surgió fue si las diferentes características de las caras se procesaban por separado o como
una unidad perceptiva, en la que se producía una interacción en la percepción de las características, de forma que la
percepción de los ojos fuera influida por la percepción de la forma de la nariz o el color del pelo, etc.
Ej: el estudio clásico de Bradshaw y Wallace (1971). Estos construyeron caras variando algunas características en cada una
de ellas. En la F 8.11 se puede observar el proced.
En a, se presenta la cara que se toma como punto de partida;
en b, se presenta una cara en la que se modifican la nariz y la barbilla:
en e, se modificaron además, el pelo y la boca y finalmente
en d, todo lo anterior, los ojos, y las líneas de la cara. Este proced es muy parecido al utilizado en el rec
por parte de testigos en ámbitos policiales.
Tarea: hacer juicios igual-diferentes sobre dos caras presentadas secuencialmente, es decir, se
presentaban dos caras en intervalos sucesivos y los observadores debían indicar si eran iguales o
diferentes. Resultados: el tiempo empleado en emitir un juicio sobre las diferencias de caras era más
corto cuanto más caracs diferentes se presentaban en las caras (ej: las latencias eran más cortas cuando se comparaban las
caras a y d, que cuando se comparaban a y b). Así, concluyeron q las caracs de las caras se procesaban de forma
independiente y secuencial y no como una unidad perceptiva. Según esto, los observadores inspeccionarían el pelo en 1r
lugar, seguido por los ojos, nariz, etc. Hasta q encontraban diferencias en las caras. Si no percibían diferencias, la respuesta
sería “igual”. Si las percibían, sería “diferente”. Otros llegaron a las mismas conclusiones.
Pero los resultados comentados son poco concluyentes debido a 2 razones:
1) a las demandas de la tarea q induce la estrategia de buscar diferencias
2) las caras q presentan más diferencias entre sus características tb las presentan globalmente (la configuración presentada
en a es mas diferente de la presentada en d q en b), por lo q no se puede ecluir que el proces se haya realizado globalmente.
2.2 Interacciones entre características componentes en el reconocimiento de caras
Para obviar estos problemas, Sergent diseñó Es q consistían en 8 caras diferentes resultantes de la combinación de dos
barbillas, dos colores diferentes para los ojos, y dos distribuciones distintas del espacio intenro de la cara (distancia de los
ojos y la nariz a la frente y a la boca). En cada ensayo se presentan dos caras q podían ser iguales o diferir en una sóla
característica o en todas. La tarea era pulsar una llave de R si las dos caras eran iguales y otra si eran diferentes.
Los resultados confirmaron los obtenidos en estudios anteriores y dieron una inf importante: cuando las caras diferían en
una sóla característica, las diferencias se percibían más rápidamente cuando esa característica era la barbilla. Cuando a la
diferencia entre barbillas se añadía una de las otras dos, la percepción de la diferencia entre caras era aún más rápida este
resultado indica que ls características componentes de las caras no se perciben independientemente sino q se produce una
interaccion entre las mismas, es decir una influencia mutua.
La interaccion entre caracs componentes manipuladas independientemente explicaría algunos efectos del contexto sobre el
rec. El efecto del contexto se puede manifestar de varias formas como un rec más preciso de las caracs componentes
cuando se presentan en el contexto de una cara distorsionada; dificultad en la comparación de caracs aisladas de una cara
(ej: la boca o la nariz) con un patrón de la misma cara almacenado en la memoria; o el efecto de facilitación por parte de
patrones bien estructurados de la búsqueda perceptiva de características componentes en caras esquemáticas.
2.3. Procesamiento configuracional de las caras
Los resultados de Sergent indican q las caracs componentes de las caras no se procesan independientemente; pero, no
permiten determinar el proceso que subyace al rec. Estudios posteriores analizaron si el proces global de las caras se debe
exclusivamente a la interacción de las caracs componentes o al hecho de q éstas no se representan independientemente en
la descripción que el sistema visual hace de las caras. El hecho de q no se representen independientemente, indicaría q se
procesan como una configuración en el sentido de la Gestalt. Es decir, la percepción de las características componentes
junto con sus rels espaciales determinaría un nuevo percepto q sirve como base para el rec.
Tanaka y Farah partieron de esta hipótesis: si las caracs componentes se representan independientemente en la descripción
q el sistema visual hace de la cara, entonces el rec de las mismas por separado será igual cuando se presenten aisladamente
q cuando se presenten en el contexto de una cara. Y si la representación de las caracs no es independiente, se reconocerán
peor cuando se presenten aisladamente q cuando se presenten en el contexto de una cara.
Proced: se presentaron una serie de caras y durante una serie de ensayos tenían q asociar las caras con un nombre det (ej:
una det cara se asociaba con el nombre de Juan, otra con el de Enrique, etc.). Una vez aprendidos los nombres de las caras,
se presentaba dos pruebas de rec:
- en una, rec de caracs componentes en un contexto, Es: caras q diferían en una única carac (ej: la nariz) y tenían q indicar
si esa carac pertenecía o no a la cara asociada con un nombre det en la etapa anterior (ej: si pertenecía a la cara de Juan).
- En la otra, rec de caracs componentes presentadas aisladamente, Es: dos caracs diferentes (ej: dos tipos de nariz) y debían
indicar cuál d ellas pertenecía a una cara det (al igual q en el caso anterior si pertenecía a la cara d Juan).
Resultados: el rec de caracs componentes era peor cuando se presentaban aisladamente q cuando se presentaban en el
contexto de caras. Así, concluyeron q la representación de caras está basada en una descripción global de la imagen q lleva
a un mejor rec de las caracs componentes en el contexto global de la cara. Resultados similares se obtuvieron en Tanaka y
Sengco. Estos resultados difieren de los encontrados con Es diferentes como objetos, palabras o caras invertidas, q se
reconocen con igual precisión cuando se presentan aisladas o en un contexto global.
Los estudios citados sugieren que las caras se almacenan globalmente en la memoria, ahora bien, no responden a la
pregunta de si las caras se perciben globalmente.
Para examinar esto Farah, Wilson, Drain y Tanaka realizaron una serie de exps en los q incorporaron dos paradigmas
perceptivos en lugar de paradigmas de memoria:
- En 1º: paradigma: atención selectiva, se presentaban dos caras simultáneamente y tenían q indicar si una det característica
(ej: la boca) era igual o diferente en las dos caras. Es decir, tenían q atender exclusivamente a una det carac e ignorar todas
las demás para realizar la tarea. La lógica es: si el sistema visual da una descripción explícita de las caracs componentes de
las caras, entonces será posible comparar las caracs presentadas en las dos caras sin ninguna interferencia por parte del
resto de características (ej: comparar las dos narices sin que el resto de características interfiera). Y si la representación q
da el sistema visual es una representación global (una representación de la cara completa) las caracs a comparar sufrirán
interferencia por parte del resto de las características componentes (ojos, nariz, pelo, etc.). Como cond de control se
presentaron las mismas caras invertidas, de forma q se mantuvieran las propiedades geométricas (con excepción de la
orientación) pero no fuera posible una representación global del E. Resultados: mayor interferencia en la comparación de
características cuando las caras se presentaron en posición recta que cuando se presentaron invertidas.
- El 2º paradigma: enmascaramiento: las máscaras podían ser caracs componentes de las caras o caras completas, para
examinar cuál de estos aspectos distorsionaba más la percepción de caras. Planteamiento: si las caras se perciben como un
todo la representación de las características componentes desempeñaría un papel poco importante en el rec y, por lo tanto,
las máscaras formadas por caras completas distorsionarían más el rec q las máscaras formadas por características
componentes. En los exps se presentaron además otras formas visuales como palabras, objetos y caras invertidas, para
examinar si los efectos eran específicos de la percepción de caras o generales en todos los casos. Resultados: la ejecución
en la tarea fue peor cuando la máscara era una cara q cuando estaba formada por características componentes.
En conjunto los resultados mostraron q la percepción de caras era mas global y menos basada en la descomposición de
partes q la del resto de formas visuales presentadas. Sugieren q las caracs componentes de las caras no se procesan o
codifican independientemente sino como una configuración en la q se perciben los cs (ojos, boca, nariz, etc.) así como la
rel entre los mismos y, además, los cambios en la configuración influyen en el rec de las características componentes.
3. DIFERENCIAS ENTRE EL RECONOCIMIENTO DE CARAS Y OBJETOS
Cabe preguntarse si los mecs q intervienen en el rec de estos tipos de patrones visuales son los mismos o si son específicos
para cada tipo de patrón. No se conoce todavía si estos mecs son iguales o diferentes. Pero la evidencia empírica sugiere
que el rec de caras podría ser un tipo especial de rec visual:
A nivel experimental, los resultados sugieren que las caras se procesan como un todo, mientras q los objetos y caras
invertidas se procesan en base a sus cs. Los resultados sobre rec de patrones invertidos muestran una mayor distorsión en el
rec de caras que en el de objetos. Si se observa la fotografía de un rostro o grupo de rostros familiares en posición recta, no
observamos dificultad en reconocerlos, pero si se invierte la posición, la dificultad resulta muy notable, el empeoramiento
es mucho mayor cuando las caras invertidas que con los objetos invertidos. A partir de estos resultados se ha intentado
analizar si las caras invertidas se procesan de forma diferente a las caras presentadas en posición recta. Los resultados de
diversos estudios indican algunas variaciones importantes:
La 1ª es que cuando las caras se presentan invertidas sus características componentes se procesan independientemente y no
como una configuración.
La 2ª que las características relacionales (rels espaciales entre las características componentes) se distorsionan cuando las
caras se presentan invertidas o con un cambio en la orientación mayor que 90º. Finalmente, resultados más concluyentes q
los anteriores muestran que la configuración se distorsiona más que las características componentes cuando se presentan en
caras invertidas y que este efecto se debe a un déficit en la codificación de la inf configuracional.
A nivel de substrato neuronal, los estudios realizados con registros unicelulares en primates, muestran respuestas selectivas
a las caras por parte de neuronas situadas en el girus fusiforme del cortex inferotemporal (Gross).
A nivel neuropsicológico, estudios con pacientes que presentan lesiones cerebrales, muestran una disociación entre el rec
de objetos y caras. Las lesiones en el girus fusiforme del cortex inferotemporal en el hemisferio d, generalmente causan
prosopagnosia (incapacidad para reconocer caras) pero casi no afectan al reconocimiento de objetos. La misma lesión en el
hemisferio i, causaría incapacidad para reconocer objetos, pero deja casi intacta la capacidad para reconocer caras. Los
resultados de estudios neuropsicológicos que indican la existencia de mecs específicos en el reconocimiento, concuerdan
con los datos obtenidos con registros unicelulares en monos, así como en estudios con humanos con técnicas de registro
electrofisiológico.
La evidencia con técnicas de neuroimagen indica la existencia de distintos cs modulares en el rec visual. Estudios iniciales
con PET, indicaron que dets regiones de la vía ventral se activaban cuando se realizaba una tarea de rec de caras. Los
mismos resultados se obtuvieron utilizando fMRI, que permitía localizar la activación de forma más precisa en dos áreas,
el giro fusiforme y el sulcus temporal superior.
Estudios de Kanwisher et al. determinaron q una pequeña región del giro fusiforme derecho, se activa selectivamente
durante la percepción de caras y no durante la percepción de objetos.
Para algunos autores, los resultados anteriores parecen indicar que el rec visual se lleva a cabo por medio de la actuación
de mecanismos especializados en dets tipos estimulación y no mediante un sistema general y común para todos los tipos de
estímulo (Kanwisher et al). Pero otros autores defienden que la especialización es «Superficial» ya q el cortex visual
contiene un gran nº de áreas que responden selectivamente a dets Es pero las computaciones que se realizan en estas áreas
son muy semejantes.
T.9 APÉNDICE METODOLÓGICO
1. PSICOFÍSICA CLÁSICA
Para la mayoría la figura que representa el nacimiento de la Psicología Experimental es Wundt porque fue el creador del
primer laboratorio de Psicología. Sin embargo, el papel que desempeñó Fechner en el surgimiento y posterior desarrollo de
esta ciencia con sus trabajos teóricos y de investigación en el ámbito de la Psicofísica, fue tan importante que algunos
autores consideran las invests realizadas en Psicofísica como una influencia decisiva en la Psicología Experimental.
2 fs influyeron en la aparición de la Psicofísica:
1) el contexto que permitió el desarrollo de la investigación, el clima intelectual imperante a mediados del siglo XIX,
volcado hacia la observación, la medida y la experimentación, q Boring califica como “el comienzo de la era de la ciencia”.
2) el objeto de estudio de la P, en esta época, se centró en los eventos de la exp consciente. Estos dos fs propiciaron el
surgimiento y desarrollo de la Psicofísica, a partir de los trabajos pioneros de Fechner, cuyo objetivo fund era investigar las
leyes q permiten determinar las rels entre la experiencia sensorial (dominio psicológico) y la estimulación (dominio físico).
Las aportaciones concretas de Fechner en su obra Elementos de Psicofísica, 1860, y que algunos autores consideran como
la primera piedra de la construcción de la Psicología Experimental, se centran en 3 aspectos:
l. El desarrollo de métodos psicofísicos para la Cuantificación de los umbrales absoluto y diferencial.
- umbral absoluto: el valor de la dim física, por encima y por debajo de la cual, se detecta o no se detecta el estímulo; o la
cantidad mínima de estimulación capaz de producir una sensación.
- umbral diferencial: aumento mínimo en la estimulación que permite detectar un cambio en la sensación; por ejemplo, la
diferencia mínima en la longitud de dos líneas permite detectar que una es más larga que la otra.
2. El estudio de la medida de la dimensión psicológica, para lo cual construyó una escala, cuyo valor cero se estableció en
base al umbral absoluto y, se adoptó como unidad de medida las diferencias apenas perceptibles (d.a.p.), que constituyen el
correlato psicológico del umbral diferencial, asumiendo la igualdad de éstas.
3. El establecimiento de las relaciones entre el dominio psicológico y el dominio físico a través de la formulación de su ley,
según la cual la intensidad de la sensación es proporcional al logaritmo de la intensidad del estímulo.
S = K log (I)
S: magnitud de la exp subjetiva, I: intensidad del estímulo o magnitud física y K: constante que depende de la dimensión.
Esto supone que para que la sensación aumente en progresión aritmética, la intensidad del estímulo debería aumentar en
progresión geométrica.
Los métodos y procedimientos utilizados en el campo de la Psicofísica han ido parejos al ámbito teórico en el que se
postulan las leyes y la clasificación usual ha sido la dicotomización entre métodos psicofísicos indirectos y directos.
1.1. Métodos psicofísicos indirectos
Los métodos indirectos, son los usados en el contexto de la psicofísica fechneriana en relación con la determinación de los
umbrales absoluto y diferencial. Los dos umbrales se definen estadísticamente aunque no existe ninguna definición
estadística que sea satisfactoria con independencia del método que se utilice. Los métodos indirectos más utilizados son el
de los estímulos constantes, el método de los límites y el del error promedio.
Método de los estímulos constantes: en este método se presenta siempre un conjunto fijo de Es elegido de antemano.
- Determinación del umbral absoluto presentación repetida, a lo largo de la sesión experimental, de un E graduado en un
rango de 5 a 9 valores diferentes de intensidad. El requisito en rel con este rango de valores de intensidad es q el valor más
bajo de los utilizados no debe producir casi nunca sensación, mientras que el valor de intensidad más alto debe producirla
casi siempre. Ej: suponiendo q el E presentado sea un tono con distintos niveles de intensidad, el tono de intensidad más
baja no debe oírse casi nunca y el tono de intensidad más alta debe percibirse casi siempre. Para determinar estos dos
valores extremos de intensidad, se requiere una serie de presentaciones previas con el fin de determinar el valor de
intensidad más bajo y más alto de la escala. El resto de los Es debe presentar intensidades intermedias entre los dos Es
extremos, de forma q unas veces produzcan sensación y otras no.
Una vez realizada la selección de los valores de intensidad de los Es q se van a presentar en el experimento, el proced
consiste en la presentación de cada valor de intensidad del E en un orden aleatorio 100 o más veces. La tarea del
observador consiste en decir si detecta o no detecta el E ante cada presentación.
En cada ensayo, el observador indica si ha percibido o no el E. Se anotan las respuestas y se calcula la proporción de Rs
“SÍ” o Rs en las que el observador ha detectado el E. Cuando se utiliza este proced, los resultados se representan en la
denominada función psicométrica (F 9.1), en la que la intensidad del estímulo se representa en el eje horizontal (abscisa) y
la proporción de respuestas “SÍ”, en el eje vertical (ordenada). Convencionalmente se toma como valor del umbral absoluto
el valor de intensidad correspondiente al estímulo que se ha detectado un 50% de las veces.
Se puede determinar el valor del umbral absoluto mediante un proced gráfico,
uniendo por medio de líneas la proporción correspondiente al 50% de detección
con el valor de intensidad del estímulo en el que se ha alcanzado ese porcentaje de
detección. Aplicando este proced gráfico a los resultados hipotéticos de un
experimento presentados en la F 9.1, el umbral absoluto correspondería al estímulo
que presenta un valor de intensidad de 170.
- Determinación del umbral diferencial: se presenta al observador dos tipos de
estímulo. Uno el estímulo estándar, se mantiene con la misma intensidad durante
todo el experimento y es el estímulo sobre el que se va a averiguar el umbral
diferencial. El otro tipo de estímulo es el estímulo de comparación o de prueba:
su intensidad varía a lo largo de los ensayos presentados en la sesión experimental.
Generalmente se utiliza un rango de 5 a 9 valores de intensidad, que deben presentar una distancia igual a lo largo de la
escala física. El requisito en relación con el rango de valores estimulares es que el E q presenta un valor de intensidad más
bajo y el que presenta un valor más alto se juzguen casi siempre como mayores y menores, respectivamente, que el E
estándar. Por otra parte, la aplicación de este método requiere un equilibrio entre los valores de intensidad más bajos y más
altos que el estándar, es decir, el número de estímulos con intensidad más alta y más baja que el estándar debe ser aprox
igual. Ej, si se selecciona como estímulo estándar una línea cuya longitud es de 5 cms, el E de comparación podría tener un
rango de valores de intensidad de 1, 2, 3 y 4 cm para el rango de intensidades más bajas que el estándar y 6, 7, 8 y 9 cms
para el de intensidades más altas.
La tarea del observador consiste en juzgar si el estímulo de comparación presentado en un determinado ensayo es mayor, o
menor que el estándar. Se registran las respuestas “mayor” que el estándar, y se calcula su frecuencia y su proporción. A
partir de aquí se representa la función psicométrica. El E de comparación que se juzga el 75% de las veces como mayor
que el estímulo estándar se toma como umbral superior. El estímulo de comparaciónque se juzga el25% de las veces como
mayor que el estímulo estándar se toma como umbral inferior. El estímulo de comparación que se juzga el 50% de las
veces como mayor que el estímulo estándar se corresponde con el punto de igualdad subjetiva (PIS).
En los resultados hipotéticos presentados en la Figura 9.2, el umbral superior correspondería al E q presenta una intensidad
de 200; y el umbral inferior al estímulo que presenta una intensidad de 140. El
umbral diferencial (UD) se calcula de acuerdo con la siguiente fórmula UD = (Us-
Ui)/2; en el presente ejemplo, 200-140/2 = 30. La diferencia entre Us y Ui
constituye el intervalo de incertidumbre (li); en este ejemplo Ii = 60.
En este apartado se ha descrito cómo se determinan los umbrales absoluto y
diferencial mediante un procedimiento gráfico. El cálculo de los umbrales absoluto
y diferencial mediante el método de los estímulos constantes, puede realizarse
también mediante métodos matemáticos.
El método de los Es constantes presenta el inconveniente de que requiere mucho
tiempo para determinar el umbral al utilizar un rango muy amplio de intensidades
del estímulo, algunas de las cuales, sobre todo las situadas en los extremos supenor
e inferior, ofrecen poca inf en rel con el umbral.
Método de los límites
- Determinación del umbral absoluto: presentando los Es en series ascendentes y descendentes que se van alternando
sucesivamente. En las series ascendentes, se presenta en primer lugar un E muy por debajo del umbral, un E q no produce
sensación nunca, y se va aumentando gradualmente su valor de intensidad hasta llegar a un determinado límite en el que el
observador comienza a detectar el E.
Cuando se alcanza el límite se finaliza la serie. Si la serie es descendente el
procedimiento es el contrario, se presenta un estímulo muy por encima del
umbral, un estímulo que produce sensación siempre, y se va disminuyendo su
intensidad gradualmente a través de los ensayos hasta que llega a un límite en
el que el sujeto indica que no percibe el estímulo. Los puntos de transición
(punto en el que se produce un cambio en la respuesta de “SÍ” a “No” o vs) de
varias series se promedian para determinar el umbral absoluto.
En la Tabla 9.1 se puede observar el proced seguido referido a resultados
hipotéticos de un experimento.
- Determinación del umbral diferencial: presentar dos pares de estímulos: el
estímulo estándar, cuya intensidad se mantiene constante, y el estímulo de
comparación, cuya intensidad se varía en series ascendentes y descendentes. El
observador debe indicar si el estímulo de comparación es igual, mayor o
menor que el estándar. Las series ascendentes comienzan con estímulos de
comparación que se juzgan como menores que el estándar y en los ensayos
siguientes se aumenta la intensidad del E de comparación de manera progresiva hasta que se juzga mayor que el estándar.
En este punto se interrumpe la serie y se procede a presentar la siguiente. Normalmente se produce una transición en la que
el observador responde igual que el estándar antes de que se observe la transición a mayor que el estándar. Con las series
descendentes se procede de la misma forma. En la Tabla 9.2 se puede observar el procedimiento para unos resultados hi-
potéticos, en los que se supone que la intensidad del estímulo estándar tiene un valor = 100.
Para cada serie se obtiene el punto de transición inferior (Ti), punto correspondiente al valor de intensidad del estímulo en
el que la respuesta cam- bia de menor a igual y el punto de transición superior (Ts) en el que el cambio es de mayor a igual.
En algunos casos los observadores no utilizan la categoría igual con lo que el Ts = Ti. A continuación se calcula la media
aritmética, sumando los valores de Ts y Ti de todas las series y dividiendo por el número de series para determinar los
límites superior e inferior, Us y Ui. Finalmente se aplican las fórmulas para calcular:
- el intervalo de incertidumbre que es la diferencia entre Us y Ui, Ii Us-Ui = 110-88 = 22.
- el umbral diferencial (UD), que indica el incremento mínimo requerido para que se pueda percibir una diferencia entre
estímulos, UD = (Us - Ui)/2 = (110-88)/2 = 11. En este caso se necesitan 11 unidades para percibir un cambio entre Es.
- el punto de igualdad subjetiva (PIS), en el que se percibe el estímulo de
prueba y el estándar como iguales, PIS = (Us + Ui)/2 = (110 + 88)/2 = 99.
- el error constante (EC), error de estimación cometido al comparar los estímulos, EC =PIS-Es= 99-100 = -1 (el valor
negativo indica una subestimación del estímulo de prueba en rel con el estándar, un valor positivo indicaría lo contrario).
Este método, reduce los valores de intensidad de los estímulos y los concentra en unos pocos valores en torno al umbral
por lo que requiere utilizar un menor número de estímulos y presenta la ventaja de ser más rápido que el anterior; sin
embargo, presenta el inconveniente de que sólo los dos últi- mos estímulos de cada serie aportan información acerca del
umbral. Por otra parte, cuando se utiliza el método de los límites es necesario controlar dos tipos de error: el error de
habituación y el error de anticipación. El error de habituación se produce por la tendencia de los observadores a
proporcionar la misma respuesta que han proporcionado en los ensayos anteriores y, por lo tanto, podrían seguir dando la
misma respuesta aun cuando ya se ha producido un cambio en la sensación (Ej: en una serie descendente, tende-rían a
contestar Sí, mientras que en una serie ascendente tenderían a contestar No). El error de habituación tendría como
consecuencia un valor del umbral menor en las series descendentes ya que el observador sigue proporcionando la respuesta
Sí más allá del punto en el que deja de percibir el estímulo. Por el contrario, en los ensayos ascendentes el valor del umbral
sería mayor, ya que el observador seguiría proporcionando la respuesta No en algunos ensayos, a pesar de haber percibido
ya el estímulo. El proced adecuado para controlar el error de habituación consiste en presentar el mismo número de series
ascendentes y descendentes; de esta forma, se anula el sesgo propio de cada tipo de serie. El error de anticipación se
produce cuando el observador, a través de su experiencia con las series, advierte que en algún momento su sensación tiene
q cambiar y anticipa este cambio. Ej: si se presenta siempre el mismo E para iniciar una serie ascendente, el observador, dp
de su exp con varias series, puede conocer el nº de Rs No hasta q alcanza el umbral y usar este nº para estimar la posición
del umbral. El proced xa controlar el error de anticipación consiste en variar aleatoriamente el primer E de cada serie.
Método de los ajustes o error promedio: El método de los ajustes es prácticamente igual al método de los límites, pero a
diferencia de los anteriores, en este método es el observador el que controla la variación en el estímulo que permite la
medida de los umbrales. Esto requiere como condición para su aplicación que el estímulo pueda graduarse fácilmente.
- Determinación del umbral absoluto: la tarea del observador consiste en
ajustar el E, disminuyendo su intensidad en algunos ensayos hasta que no lo
detecta o aumentándola en otros ensayos hasta que lo detecta. El proced es
igual al del método de los límites, pero en este caso, el observador es el que
manipula la intensidad del E. En la Tabla 9.3 se presenta un ej referido a
resultados hipotéticos de un experimento, en el que el observador disminuye
la intensidad del estímulo cuando lo detecta claramente, hasta llegar a un
punto límite x en el que casi no lo detecta; o aumenta la intensidad del
estímulo cuando no lo percibe, hasta llegar a un punto límite x a partir del
cual produce un cambio en la dirección del ajuste.
- Determinación del umbral diferencial: El umbral diferencial se
establece mediante los ajustes de la intensidad del estímulo de comparación
que realiza el observador hasta que iguala al estímulo estándar. En algunos
ensayos, la intensidad del estímulo de comparación es muy superior a la del
estímulo estándar, por lo que el observador debe disminuirla hasta que es
igual a la intensidad del estándar. Por el contrario, en otros ensayos, la
intensidad del estímulo de comparación es muy inferior a la del estándar, y
el observador debe aumentarla hasta que las dos intensidades sean iguales.
En la Tabla 9.4, se ilustra el proced, a partir de resultados hipotéticos.
Limitaciones de los métodos psicofísicos indirectos
El problema general es que éstos únicamente dan una medida de la cantidad
de energía estimular necesaria para producir un cambio en la respuesta de
los observadores, no una medida de la sensación. Las limitaciones
señaladas a la propuesta de Fechner han sido muy numerosas. Por una
parte, los experimentos realizados en el campo de la psicoacústica
demostraron que las d.a.p. no son siempre iguales. Por otra parte, la
evidencia empírica pone de manifiesto que el umbral puede variar:
a) entre sujetos en la misma situación experimental (por ejemplo, ante la
misma situación experimental, los sujetos más cautos pueden responder
menos veces que detectan el estímu- lo que los menos cautos que responden más veces que lo detectan aunque no esten
seguros de ello);
b) intra sujetos en diversas situaciones experimentales (como las variaciones en el umbral de un mismo sujeto debidas a la
práctica, la fatiga, la motivación, etc.),
c) dependiendo del método q se utilice para obtenerlo y
d) el umbral puede presentar variaciones como consecuencia del efecto de variables motivacionales manipuladas mediante
instrucciones (por ej, cuando se instruye a los sujetos para que respondan “SÍ” únicamente cuando estén absolutamente
seguros de haber detectado el E, a diferencia de cuando se les instruye para q respondan arriesgándose a adivinar).
Finalmente, los resultados de diversos experimentos psicofísicos pusieron de manifiesto que la función de Weber (S1I =K)
en la que Fechner basó su ley, y según la cual el incremento del E necesario para percibir un cambio en la sensación es
proporcional a la intensidad del E, presenta variaciones en las distintas modalidades sensoriales y en los valores más bajos
del rango estimular. Esto unido a la desigualdad de las d.a.p. pone en entredicho la validez de la ley formulada x Fechner.
Sin embargo, la investigación que se ha generado a partir de los problemas planteados por Fechner en el ámbito de la
Psicología Experimental, difícilmente se igualará por su extensión y su continuidad en la historia de la investigación
psicológica, a pesar de las limitaciones señaladas.
La problemática en torno al umbral iniciada por Fechner, ha generado un importante núcleo de investigaciones. Los
primeros intentos para soslayar el problema de la variabilidad en el umbral consistieron en la adopción de un criterio
estadístico y en determinar el umbral absoluto en base al valor de intensidad del estímulo que se detecta un 50% de las
veces. Por otra parte, para paliar los efectos de las actitudes y motivaciones de los sujetos, se introdujeron ensayos en
blanco, o ensayos en los que no se presenta el estímulo. En este contexto, al igual que en la TDS que examinaremos más
adelante, se denomina ruido (R) a los ensayos en los que no se presenta el estímulo, y señal + ruido o simplemente señal
(SR) a los ensayos en los que se presenta el estímulo). La tarea a realizar por los observadores consiste en contestar «Sí» o
«No» ante la presentación de cada estímulo sobre la base de que lo haya detectado o no. Con la utilización de este
procedimiento, en el que generalmente se presenta el mismo número de ensayos SR que de ensayos R mezclados
aleatoriamente, se intenta que el único indicio para que el sujeto elabore la respuesta sea la proporcionada por su propio
sistema sensorial (Tudela) y, por lo tanto, permite controlar q los observadores falseen las respuestas intencionadamente
(por ej, en una prueba auditiva para renovar el permiso de conducir el observador puede contestar muchas veces que
detecta el tono que se presenta como estímulo, aunque no lo detecte, para evitar un diagnóstico de dificultad auditiva que le
podría impedir obtener la renovación), y tb q cometan sesgos (ej, cuando los sujetos contestan «SÍ» muchas veces ante la
presentación de ensayos en blanco, están cometiendo un sesgo).
La ejecución en las tareas de detección con inclusión de «ensayos en blanco» permiten analizar la ejecución de los sujetos
relacionando la tasa de aciertos (porcentaje de respuestas «Sí» ante la presentación de SR) con la de falsas alarmas
(porcentaje de Rs “SÍ” ante la presentación de R) y observar, de esta forma, si se produce un sesgo en la R o si se detecta la
señal cuando se presenta realmente. Ej: supongamos q se ha realizado un experimento para determinar el umbral absoluto y
los resultados de dos observadores diferentes (A y B) han sido estos: una tasa de aciertos del 80% igual para ambos
observadores (A y B) y una tasa de falsas alarmas del 20% para el observador A e igual al 75% para el observador B. Aunq
la tasa de aciertos es idéntica en los dos observadores, la elevada tasa de falsas alarmas en el observador B podría indicar
que el observador B ha cometido un sesgo hacia la respuesta Sí, es decir, q ha respondido Sí en muchos ensayos en los q no
se presentaba el E. Una forma de corregir este sesgo consiste en aplicar una fórmula q tenga en cuenta la “tendencia a
adivinar” como la que se aplica en la corrección de pruebas objetivas de varias alternativas de respuesta:
P = (PAc – PFa)/(100-PFa) donde P es el porcentaje real de aciertos, PAc es el porcentaje de aciertos y PFA el porcentaje de
falsas alarmas. En el caso que estamos considerando:
PObservador A = (80- 20)/(100-20)= .75
P Observador b = (80- 75)/(100-75)= .20
Por tanto, aunq la tasa de aciertos sea igual en ambos observadores, no se puede interpretar de la misma manera. Los
resultados aplicando la fórmula de corrección estarían más próximos a la tasa de aciertos real de los observadores.
De igual manera, y con el fin de subsanar los problemas señalados en re- lación con el umbral, se desarrollaron teorías que
contemplan la actuación, no sólo del proceso sensorial, sino también del proceso de decisión en la determinación de la R.
Los trabajos más representativos en este campo los constituyen la formulación de la Teoría del Umbral Alto por parte de
Blackwell, la Teoría del Umbral Bajo y la aplicación de la
Teoría de Detección de Señales a la Psicofísica.
1.2. Teorías del umbral
La teoría del umbral alto propuesta por Blackwell asume la
teoría clásica en la que se defiende que sólo cuando se
traspasa el umbral de sensación se producirá sensación y no
se producirá en el caso contrario. El supuesto básico en
relación con el proceso sensorial es que ante la presentación
de la señal (SR) se producirá sensación con una
probabilidad determinada (p), y no sensación con la
probabilidad complementaria (1-p). Por otra parte, cuando
se presenta ruido (R) no se traspasa el umbral, y, en
consecuencia, no se pro- ducirá sensación, por lo que la
probabilidad de que se produzca sensación ante la
presentación de R será O, y la probabilidad de que se
produzca no sensación ante la presentación de R será 1.
Con respecto a la actuación del proceso de decisión, se
asume q el sistema optará por responder “SÍ” siempre q se
ha producido sensación (por lo tanto, la prob será 1), y
responder “No” en el caso contrario (por lo que la prob será
0). Por otra parte, en el caso de que el resultado del proceso sensorial sea no sensación, se responderá “SÍ” (tendencia a
adivinar) con una det prob (g) y No con la prob complementaria (1-g). La secuencia de eventos se puede observar en la F
9.3.
Las predicciones de la teoría que establecen una rel lineal entre la tasa de aciertos y la de falsas alarmas, se confirman
únicamente en muy pocos casos a través de la experimentación.
La teoría del umbral bajo propuesta por Luce se encamina a superar algunas de las dificultades de la propuesta anterior. El
supuesto básico con respecto al proceso sensorial es que tanto la presentación de SR como la de R, producirán sensación
con una determinada probabilidad y no sensación con la prob complementaria (las probs son además diferentes ante la
presentación de SR y R). Por lo tanto, se considera que el umbral es traspasado, en algunas ocasiones ante la presentación
de R. En la F 9.4 se puede observar la secuencia de eventos. En relación con el proceso sensorial: ante la presentación de
SR, se producirá sensación con una det prob (p) y no sensación con la prob complementaria (1- p); y ante la presentación
de R, se producirá sensación con una determinada probabilidad (q) y no sensación con la prob complementaria (1-q).
En rel con el proceso de decisión: Si se ha producido sensación, la respuesta será afirmativa con una probabilidad
determinada (f) y negativa con la prob complementaria (1-f). Si no se ha producido sensación la R será Sí con una prob (g)
y No con la probabilidad complementaria (1-g).
Por lo tanto, en esta teoría, con respecto al proceso de
decisión, se puede dar el caso de optar por la respuesta
“SÍ” o “No”, tanto si se ha producido sensación como en
el caso contrario, por lo que la regla de decisión es más
flexible que en la propuesta anterior y además se
contempla la influencia de variables motivacionales
(incentivos) en el proceso de decisión. La manipulación
de estas variables, como información sobre la
probabilidad de presentación de SR y R, y ganancias-
pagos asociadas con respuestas correctas e incorrectas,
puede inducir sesgos en las Rs en los dos sentidos. Los
experimentos que han manipulado estas variables,
confirman en general las predicciones de la teoría.
Como hemos señalado, la principal dificultad en relación
con las teorías del Umbral es que la variación en la
medida del umbral puede estar producida no sólo por los
cambios en la sensibilidad de los observadores sino tb
por la motivación y las expectativas. A pesar de los difs
intentos teóricos y metodológicos desarrollados para
solucionar este problema, la solución no es
completamente satisfactoria. La teoría a continuación
ofrece una solución más adecuada.
2. TEORÍA DE DETECCIÓN DE SEÑALES (TDS)
El proced más potente en Psicología Experimental para el análisis de la precisión en la respuesta es el desarrollado en la
Teoría de Detección de Señales. Esta teoría surgió en la ingeniería en relación con la detección de señales
electromagnéticas en presencia de ruido y se desarrolló en la época de la guerra fría debido a la necesidad de desarrollar
mecanismos de detección de señales muy débiles que permitieran descubrir los objetivos enemigos. La introducción de la
TDS en P se debe a Tanner y Swets a través de sus investigaciones en el contexto de la Psicofísica. Aunq los primeros
desarrollos en P se produjeron en el ámbito de la psicofísica, la técnica se puede aplicar al análisis de la ejecución en otros
campos (memoria, atención, aprendizaje, psicodiagnóstico, etc.) en cuanto q permite determinar no sólo el nivel de
detección del Es, sino tb el criterio adoptado por el sujeto para llevar a cabo su respuesta.
2.1. Descripción de la TDS
En la TDS se presentan dos clases de Es:
- uno de los Es: señal o señal + ruido (SR) habitualmente es un E de intensidad muy débil que se presenta sobre un fondo
de ruido (R)
- un fondo de ruido (R) q constituye el segundo estímulo y en el q no está presente la señal.
Ej: sobre un fondo de ruido blanco de 20 dB (R) se presenta en un nº det de ensayos como señal (SR) un tono de 1000Hz y
25 dB. Los ensayos en los q se presenta únicamente el ruido blanco son los ensayos R, los ensayos en los que se presentan
ambos son los ensayos SR y la tarea consiste en indicar en cada ensayo si se ha presentado la señal o no.
La TDS prescinde del concepto de umbral y supone q ante cualquier estimulación SR o R, el resultado del proceso
sensorial consiste en una sensación que puede adoptar múltiples valores. Cada uno de estos valores tiene una probabilidad
de ocurrencia diferente ante la presentación de SR y ante la presentación de R. Además, considera que el sistema sensorial
está sometido a fluctuaciones, por lo que el nivel de la sensación puede que varíe ante la presentación del mismo estímulo,
adoptando distintos valores, o, por el con- trario que sea idéntico ante la presentación de SR y R. Por otra parte, la TDS
considera que en una tarea de detección interviene un proceso relacionado con el funcionamiento del sistema sensorial,
cuyo resultado es una sensación de una determinada intensidad, y otro en relación con el proceso cognitivo o proceso de
decisión, cuyo resultado es la respuesta.
En relación con el proceso sensorial, la TDS supone que la sensación pue- de ser producida tanto por la presentación de SR
como por la de R y además, en ambos casos la sensación es de la misma naturaleza. Cuando se presenta SR, el conjunto de
valores de sensación será distinto a cuando se presenta R. Además, cuando la señal es más intensa que el ruido, las
sensaciones que suscite SR serán superiores a las que suscite R. Los valores más altos de sen- sación se producirán con una
mayor probabilidad ante la presentación de SR y los más bajos con mayor probabilidad ante la presentación de R, aunque
esto no excluye que en determinados ensayos puedan darse valores altos y bajos de sensación en ambos casos. Por lo tanto,
lo que diferenciará al valor de sensación cuando se presenta SR y R es su distribución de probabilidad. Cuando se presenta
SR, los valores de sensación tendrán una distribución de probabilidad determinada y cuando se presenta R otra distinta. En
la Figura 9.5, se ilustran las ideas centrales de la TDS bajo el supuesto de que las distri- buciones sean normales.
El índice del proceso sensorial es d' que se define como la distancia entre las distribuciones de SR y R. d' se verá afectada
exclusivamente por variables que influyen en la intensidad de SR y R. En función del grado de solapamiento entre las
distribuciones pueden ocurrir los siguientes casos:
1) Cuando las distribuciones de SR y R están completamente
separadas, los valores de sensación de cada una de ellas no
están asociados con la otra, por lo que la detección sería fácil y
perfecta.
2) En el caso contrario, cuando las distribuciones de SR y R
están totalmente superpuestas, los valores de sensación tendrían
la misma probabilidad de provenir de la distribución de SR que
de la de R, por lo que la detección sería imposible. 3) Cuando
las distribuciones de SR y R están parcialmente solapadas, se
presenta una zona de incertidumbre en la que los valores de
sensación pueden provenir tanto de la distribución de SR como de la de R. Este último caso es el importante para la TDS,
cuando la distancia entre las distribuciones de SR y R es grande, el valor de d' será mayor q cuando la distancia es pequeña.
En relación con el proceso de decisión, la TDS supone que el observador selecciona un criterio y a partir de aquí el proceso
actúa de una forma de- terminista seleccionando la respuesta <<Sí» siempre que se supere el valor del criterio y <<No» en
el caso contrario. La selección del criterio puede realizarse de dos formas. En la primera de ellas (criterio e), el observador
puede selec- cionar un punto sobre el eje de sensación, una vez seleccionado este punto el segmento de la derecha
corresponderá a SR y asociado a la respuesta <<Sí» y el de la izquierda a R y estará asociado a la respuesta <<NO>>
(Véase F 9.6). En la segunda, el observador establece el criterio en base a la razón de verosimilitud o cociente entre las
distribuciones de probabilidad de SR y R, en este caso se supone que el observador conoce y es capaz de tomar en con-
sideración estas funciones.
En la F 9.6, se representa el criterio C en el segmento q divide el eje de decisión en dos partes (respuesta «SÍ» y respuesta
«NO>>) y cada una de las distribuciones de sensación producidas por SR o
R en dos zonas. Por lo que respecta a la distribución de la señal SR, la zona
correspondiente a esta distribución y que está situada a la derecha del
criterio, representa la proporción de casos en que el observador responde
<<SÍ>> ante la presentación de SR, o sea, la tasa de aciertos P(Sí/SR). Por
otra parte, la zona correspondiente a la distribución de SR que está situada a
la izquierda del criterio, representa la proporción de casos en los que el
observador responde <<NO>> ante la presentación de SR, es decir la tasa de
fallos P(No/SR). Por lo que respecta a la distribución de ruido R, la zona
correspondiente a esta distribución y que está situada a la derecha del
criterio, representa la proporción de casos en que el observador responde
<<SÍ>> ante la presentación de R, o sea la tasa de falsas alarmas, P(Sí/R). Finalmente, la zona correspondiente a la
distribución de R y situada a la izquierda del criterio representa la proporción de casos en los q el sujeto responde <<NO>>
ante la presentación de R, es decir, la tasa de rechazos correctos, P(No/R).
2.2. Índices correspondientes al proceso sensorial (d') y al proceso de decisión
El proced experimental en una tarea de detección presenta aleatoriamente a lo largo de cada sesión exp 2 tipos de ensayos:
1) ensayos en los que se presenta la señal más ruido (SR), que generalmente consiste en un E de intensidad débil
presentado sobre un fondo de ruido, y
2) ensayos en los que se presenta ruido (R) (que no es necesariamente ruido acústico sino cualquier estimulación que pueda
afectar al sistema sensorial). La tarea del sujeto consiste en responder <<SÍ>> o <<NO>, según crea que ha detectado la
señal o no, es decir, actúa basado en una variable de evidencia y decide si la evidencia favorece la hipótesis de que se ha
presentado SR o R. La tarea descrita se denomina Tarea Sí/No, existen otras tareas distintas como tareas de clasificación,
elección múltiple, etc. Los resultados obtenidos con la tarea de detección, se analizan mediante una matriz de resultados
2 x 2 que permite relacionar la sit estimular (SR o R) con
la respuesta del sujeto (<<SÍ>> o <<No»), (Cuadro 9.1)
En las celdillas de la matriz se obtienen cuatro resultados
experimentales en relación con la variable dependiente
precisión en la respuesta: Aciertos, cuando se presenta SR
y el sujeto contesta <SÍ>>. Rechazos correctos, cuando se
presenta R y el sujeto contesta <No>. Falsas Alarmas,
cuando se presentaR y el sujeto contesta <<SÍ>>. Fallos,
cuando se presenta SR y el sujeto contesta <<No>>.
Los dos primeros resultados corresponden a las respuestas correctas y los dos segundos a los errores. Las probabilidades de
estos resultados se calculan dividiendo la frecuencia correspondiente a cada celdilla por el número de ensayos SR o R
respectivamente, (Véase Cuadro 9.2). Así se obtiene la tasa correspondiente de aciertos, P(Sí/SR); rechazos correctos,
P(No/R); falsas alarmas, P(Sí/R); y fallos, P(No/SR).
Las probabilidades correspondientes a los ensayos en los que se ha presen- tado SR (tasa de aciertos y fallos) son
complementarias. Una vez conocida la tasa de aciertos, la tasa de fallos está determinada. Lo mismo ocurre con las
probabilidades correspondientes a los ensayos en los que se ha presentado R, una vez que se conoce la tasa de falsas
alarmas la tasa de rechazos correctos está determinada. Sin embargo, las probabilidades correspondientes a la tasa de fallos
y rechazos correctos son independientes entre sí, y, lo mismo ocurre con las probabilidades correspondientes a la tasa de
aciertos y falsas alarmas, por lo que sólo es necesario tomar en consideración dos de ellas. En TDS, se consideran
únicamente la tasa de aciertos y la de falsas alarmas. Para ilustrar lo anterior, supongamos que se ha realizado un
experimento de detección en el que se ha presentado 100 veces la señal + ruido (SR) y 100 veces ruido (R). Los resultados
en la matriz serían los siguientes:

A partir de la tasa de aciertos P(Sí/SR) y de falsas alarmas


P(Sí/R), y sobre la base de los supuestos de la TDS, se
calculan el índice del proceso sensorial d' y el índice del
proceso de decisión criterio c o ß. A continuación
veremos, a partir del ejemplo anterior, cómo se calculan
estos índices (suponiendo que se cumplen las condiciones
de distribución normal e igual varianza). El procedimiento
a seguir sería el siguiente:

La TDS considera que los índices del


proceso sensorial y el proceso de decisión
son independientes y, por lo tanto, afectados
por variables distintas. El índice del proceso
sensorial, d', está afectado por variables
sensoriales que inciden en la distancia entre
las distribuciones de SR y R, como la
intensidad de los estímulos, cuanto mayor
sea la intensidad mayor será el valor de d'.
Por otra parte, el índice del proceso de
decisión, está afectado por el conocimien- to
por parte de los sujetos de la frecuencia
relativa de SR y R (probabilidades a priori) y
por variables motivacionales (incentivos,
ganancias y pérdidas asociados a respuestas
correctas y errores, etc.). De esta forma la
TDS permite la obtención de dos medidas: la
medida de la sensibilidad del observador, independiente del criterio y que además permanece prácticamente invariante con
diversos procedimientos psicofísicos y tareas de detección; y la medida y control del criterio que utiliza el observador para
tomar decisiones sobre la presencia o ausencia de una señal.
En la Figura 9.7 se puede observar cómo diferentes condiciones afectan de forma distinta a los índices el proceso sensorial
y el proceso de decisión. En la figura se presentan las curvas separadas para que se observe mejor el efecto.
2.3. Curva ROC
La TDS permite establecer la relación entre la tasa de aciertos y falsas alarmas y obtener además una medida del cambio de
criterio de decisión del observador en función de las instrucciones que proporciona el experimentador, a través del análisis
de la curva ROC. El procedimiento consiste en variar las instrucciones que influyen sobre la conducta de decisión del ob-
servador, mediante indicaciones de que adopte un criterio gradualmente más estricto o más laxo. De esta manera, se
obtiene una tasa de aciertos y falsas alarmas distintas para cada conjunto de instrucciones que determinan un punto
diferente en el gráfico y la unión de estos puntos da lugar a la representación de la curva ROC. Ésta proporciona inf sobre
la posición del criterio de decisión del observador en función de las instrucciones proporcionadas. Dado que los parámetros
físicos de la estimulación se mantienen constantes, aunque se varíen las instrucciones, el índice correspondiente al proceso
sensorial, d', no varía y es independiente de la posición del criterio de decisión.
En la F 9.8 se presentan los resultados hipotéticos de dos sits que pueden influir en el cambio de criterio, y una situación en
la que se ha variado tanto el criterio como la intensidad de SR y R, que puede afectar, a su vez, al índice de sensibilidad d'.
En A, se supone que se han proporcionado instrucciones para adoptar un criterio laxo, intermedio o estricto. Cada una de
estas condiciones produciría una tasa distinta de aciertos y falsas alarmas que genera los tres puntos diferentes de la curva
ROC. El punto situado más a la izquierda correspondería a un
criterio muy estricto, en el que las tasas de aciertos y falsas alarmas
son bajas. El punto situado más a la derecha correspondería a un
criterio muy laxo en el que ha aumentado considerablemente la tasa
de aciertos pero también la de falsas alarmas. Finalmente, el punto
intermedio se correspondería con una tasa de aciertos y falsas
alarmas intermedias entre las anteriores. En B, se presenta un ej en
el que se han generado cinco puntos distintos a base de la inf
proporcionada a los sujetos sobre las probabilidades a priori.
Finalmente, en C, se presenta una familia de curvas del tipo de las
que predice la TDS. La distancia entre las curvas estaría
determinada en este caso por la separación entre las distribuciones
de SR y R. A medida que aumenta esta separación, la detección es
más perfecta y la curva se acerca a la esquina superior izquierda. La
diagonal representa el caso en que las distribuciones de SR y R están
totalmente solapadas, la tasa de aciertos es igual a la de falsas
alarmas, y la detección no es posible.
Las aplicaciones de la TDS en Psicología han sido muy numerosas,
su utilidad como técnica para separar la ejecución en procesos de
detección y discriminación de los factores de sesgo implícitos en
estos procesos la han convertido en un valioso instrumento en la
investigación en percepción.
3. MÉTODOS DE CONSTRUCCIÓN DE ESCALAS SENSORIALES
El problema general q se plantea con la utilización de los métodos indirectos es q no permiten obtener una medida directa
de las sensaciones. Como vimos, estos métodos únicamente dan una medida de la cantidad de energía estimular necesaria
para producir una inflexión en la respuesta de los sujetos; es decir, dan una medida de la cantidad de energía estimular
necesaria para detectar un E, en cuyo caso la inflexión en la respuesta sería pasar de no sensación a sensación (umbral
absoluto) o para establecer una diferencia entre un E y otro, en cuyo caso la inflexión consistiría en pasar de sensación a
más o menos sensación (umbral diferencial). Por lo tanto, no dan una panorámica completa del func del sistema sensorial,
ya que la medición se realiza exclusivamente sobre la entrada que recibe el sistema sensorial (el estímulo físico) y no sobre
su salida, sobre la respuesta que éste proporciona.
Sin embargo, para establecer una escala de los atributos sensoriales es necesario tener en cuenta la salida del sistema
sensorial (la sensación) ya que ésta no presenta una relación puntual con los cambios en la intensidad del E, tal y como
predecía la ley de Fechner. En relación con este aspecto, el desarrollo experimentado por la acústica a principios del sXX
permitió probar algunas predicciones de la ley. Ej: según la ley de Fechner, un sonido de una intensidad doble q otro
sonido debería producir una sensación que fuera también dos veces la correspondiente al primer sonido; sin embargo, los
resultados mostraron que ambos sonidos podían producir una sensación prácticamente igual. Por eso, para determinar de
qué forma aumenta la sonoridad cuando aumenta la intensidad del estímulo, es necesario tener en cuenta tanto la entrada
(estímulo físico) como la salida (sensación subjetiva) del sistema sensorial, con la finalidad de determinar
experimentalmente las relaciones exactas entre las variaciones en la intensidad del estímulo y las sensaciones, o la relación
funcional entre el estímulo físico y la respuesta psicológica.
Los desarrollos posteriores más representativos en rel con el problema de los métodos psicofísicos se deben a Stevens,
quien intentó medir directamente la magnitud de las sensaciones a través de los juicios cuánticos dados por los sujetos.

3.1. Métodos directos


Los métodos directos se clasifican generalmente en función del tipo de escala que se obtiene con la aplicación de los
mismos. Habitualmente en los libros de texto se describen los métodos directos q dan lugar a escalas nominales, ordinales,
de intervalo o de razón. En este capítulo examinaremos exclusivamente aquellos métodos más utilizados en psicofísica.
- Estimación de magnitud: se presentan Es de diferente intensidad a los observadores y éstos deben realizar estimaciones
numéricas sobre la magnitud de la sensación que produce cada uno de ellos. El proced básico en el método de estimación
de magnitud, adopta dos modalidades:
1) se presenta un E de intensidad fija (E de referencia) y el experimentador comunica q la sensación producida por dicho E
tiene un det valor numérico, ej 10, este valor es denominado módulo. En los siguientes ensayos, se presenta una serie de Es
diferentes al E de ref (del orden de 15 a 20 Es presentados aleatoriamente en cada sesión, y en un orden diferente para cada
observador) y la tarea es asignar números a la sensación producida por cada uno de los Es en rel con el valor de sensación
del E de ref. Si, a juicio del observador, la magnitud de la sensación producida por un E det es el doble de la producida por
el E de ref le asignará el valor 20, si es la mitad 5, etc.
2) presentar los Es aleatoriamente y el observador emite el juicio sobre la magnitud de la sensación asignando igualmente
valores numéricos. En este caso el experimentador no da ningún valor como módulo, sino q los sujetos lo establecen.
Los resultados con ambos proceds suelen ser muy parecidos. Generalmente se realizan dos o tres sesiones con cada
observador para obtener dos o tres estimaciones por cada E. Los resultados de todos los observadores se combinan para
determinar la escala usando como promedios la mediana o la media geométrica. No es aconsejable usar la media aritmética
ya q este promedio es muy sensible a estimaciones espurias (valores muy altos o muy bajos y poco representativos).
- Producción de magnitud En el método de producción de magnitud, se proporciona al observador el valor numérico
correspondiente a la magnitud de sensación producida por un E det y la tarea del observador consiste en manipular la
intensidad de otros Es, de forma que igualen a la magnitud de sensación que se le ha proporcionado en cada ensayo. La
aplicación de este método presenta como requisito indispensable que los estímulos varíen de forma continua.
Estos dos últimos métodos han sido los más utilizados en la construcción de escalas directas en psicofísica. Los resultados
obtenidos con los métodos de estimación y producción de magnitud se representan gráficamente para obtener la
denominada “función psicofísica” (véase F 9.9).
Como puede verse figura, las funciones psicofísicas obtenidas mediante la aplicación de los
métodos de estimación y producción de magnitud difieren ligeramente, la pendiente de la
recta es más pronunciada en el método de producción de magnitud que en el de estimación
de magnitud. Esto se debe a un efecto de “regresión hacia la media” en los juicios q
proporcionan los observadores y consiste en la tendencia por parte de los observadores a
evitar los juicios extremos, muy altos o muy bajos, aun en el caso de que hayan percibido
correctamente. Es decir, cuando los sujetos estiman magnitudes, tienden a evitar los valores
numéricos extremos de sensación (representados en la ordenada), mientras q cuando
producen magnitudes tienden a no usar valores extremos en el ajuste del estímulo (en la
abscisa); de aquí las diferencias en las pendientes de las rectas en las funciones psicofísicas
obtenidas con ambos métodos. Por otra parte, la concordancia entre los resultados obtenidos con los dos métodos da un
índice de validez de la escala, por lo que es muy aconsejable utilizarlos juntos en los experimentos.
3.2. La ley psicofísica potencial
El uso de los métodos directos de construcción de escalas por parte de Stevens culminó en el desarrollo y formulación de la
ley potencial, casi un siglo después de la propuesta por Fechner. En la “ley psicofísica” formulada por Stevens, la rel entre
la magnitud de la sensación y la intensidad del estímulo es una función potencial del tipo: S = c𝑒 𝑘
S: magnitud de la sensación; e: constante arbitraria que determina la unidad de la escala; E: intensidad del estímulo y k: el
exponente que varía en función de las modalidades sensoriales y las condiciones estimulares. El tamaño del exponente k,
determina a su vez la forma que adopta la función potencial (F 9.10.A). Si el valor de k = 1 (como en el caso de la longitud
aparente en el gráfico) la función es lineal, indicando que la longitud percibida es proporcional a la intensidad del estímulo
(longitud real). Si el valor de k > 1, como en el caso del electrochoque en el gráfico, la función aparece positivamente
acelerada, indicando que la sensación aumenta muy rápidamente a medida que se incrementa el E, excepto en los valores
muy bajos. Finalmente, cuando k < 1, como en el caso de la estimación del brillo, la forma de la función es negativamente
acelerada, indicando q la sensación de brillo crece más lentamente que el aumento en la intensidad del estímulo. Un proced
útil xa conocer si los resultados de un exp det producen una función potencial consiste en transformar en logaritmos los
valores de la ecuación y representarlos gráficamente en coordenadas logarítmicas. Si la transformación logarítmica de los
datos tiene como resultado una función lineal, se puede afirmar q los datos se ajustan a una función potencial (F 9.10.B).
3.3. Método de ajuste de modalidades sensoriales y validez de la ley psicofísica potencial
Los métodos conducentes a escalas de razón requerían que los observadores poseyeran una cierta destreza en el manejo de
los números a la hora de dar juicios cuánticos sobre la magnitud de sus sensaciones. En consecuencia, la validez de la ley
potencial podía depender de este factor. Para obviar este problema y determinar la validez de la ley potencial, Stevens
diseñó una nueva técnica, el proced de ajuste de modalidades sensoriales distintas, en el q no se requería que dieran juicios
numéricos sobre la magnitud de sus sensaciones. El proced consiste en presentar un E correspondiente a una modalidad
sensorial det (ej: un sonido). A continuación, se presenta un segundo E correspondiente a una modalidad sensorial
diferente (ej: una vibración aplicada en la palma de la mano) y se pide a los observadores que modifiquen la intensidad del
segundo E hasta que las sensaciones producidas por los dos estímulos, el sonido y la vibración táctil, les parezcan iguales.
En la F 9.11 se presentan los datos correspondientes a un experimento en el que se utilizó la técnica descrita, obteniendo
los emparejamientos en la magnitud de sensación para los valores de intensidad del estímulo descritos en los ejes vertical
(vibración en dB) y horizontal (ruido sonoro en dB). Este tipo de gráficos recibe el nombre de función de igual sensación.
La validez de la ley potencial puede determinarse estableciendo predicciones a partir de la aplicación del método de
estimación de magnitud a dos modalidades sensoriales por separado. Si la función potencial obtenida para cada una de
ellas es la correcta, la función de igual sensación que se obtiene aplicando el método de ajuste de modalidades debería ser
también una función potencial. La técnica de ajuste entre modalidades se ha utilizado en gran nº de investigaciones para
validar la ley potencial y los resultados de numerosos experimentos dan un fuerte apoyo a esta ley.
La ley potencial es aplicable a cualquier continuo que presente variaciones cuantitativas en la magnitud sensorial. Ej: en
continuos como el brillo, las sensaciones se pueden cuantificar y pueden emitir juicios sobre la cantidad de brillo. Estos
continuos se denominan protéticos. A diferencia de los anteriores, en los continuos metatéticos, las sensaciones varían de
forma cualitativa, por ej, un cambio en la longitud de onda de un E luminoso puede provocar un cambio en la apariencia de
azula verde. En este caso los observadores emitirían juicios sobre la cualidad no sobre la cantidad y la ley potencial no se
podría aplicar.
3.4. Limitaciones de la propuesta de Stevens
A pesar del numerosa investigación de esta corriente teórica y de gran volumen de resultados en apoyo de la ley de
Stevens, la corriente de la “nueva psicofísica” no está exenta de problemas.
- respecto a la medida, el problema está en determinar qué es lo que se mide con la utilización de los métodos directos. Una
de las críticas se ha centrado en la utilización de números en el método de estimación de magnitud. Este problema se
intentó resolver apelando a que en el método de ajuste de modalidades no se utilizan números y los resultados son, en
general, equiparables a los obtenidos con el método de estimación de magnitud. Sin embargo, el mismo Stevens pareció
aceptar el hecho de que la medida directa obtenida con el último método no es tan directa.
- respecto la adecuación de la ley potencial como una descripción de los resultados psicofísicos, Ekman y Sjoberg señalan
que la ley potencial sólo se mantiene cuando se utilizan métodos directos, y tampoco en este caso, se mantiene de forma
invariable. En este sentido los resultados de los experimentos de Hood y Finkelstein sobre estimación del brillo muestran
que la ley potencial no describe de manera adecuada los datos, y en los de Luce y Mo sobre estimación de peso, los
resultados se desvían sistemáticamente de la ley potencial. En opinión de McKenna, el hecho de que se obtenga una
función potencial únicamente con métodos directos cuestiona la validez de la ley. Por otra parte, y en relación con este
mismo aspecto, parece que existe una controversia en relación con los datos individuales. Mientras q en los experimentos
de Stevens y Guirao, la ley parece que describe de manera adecuada este tipo de datos, en otros experimentos ocurre lo
contrario. Por lo tanto, la ley psicofísica potencial ofrecería una descripción empírica razonable, pero no perfecta, de la
relación entre la intensidad de los estímulos y los juicios sobre la magnitud de las sensaciones.
3.5. Interpretación de la ley potencial
3.5.1. 1nterpretación sensorial Stevens consideraba la ley potencial como un reflejo de la actividad del sistema sensorial.
Los receptores sensoriales transducirían la energía que incide sobre los órganos de los sentidos y el tamaño del exponente
k, reflejaría las diferencias entre los sistemas sensoriales. Ej: el exponente en el caso del brillo es 0.33 y para el shock
eléctrico 3.5; estas diferencias en el tamaño de los exponentes reflejarían las diferencias existentes entre los dos sistemas
sensoriales. Desde este punto de vista, la ley potencial se debería a procesos biológicos periféricos.
Sin embargo, numerosos datos contradicen esta interpretación. Si la ley potencial se debiera exclusivamente a la actuación
de procesos periféricos, no se vería afectada por factores ajenos al procesamiento sensorial. Es decir, el exponente de la
función potencial no debería variar por la influencia de factores no sensoriales. Los resultados de algunas investigaciones
muestran todo lo contrario ya que el exponente de la ley potencial varía en función de factores como:
1) la posición del estímulo de ref en el rango de valores estimulares utilizados; el exponente es menor cuando el E de ref se
elige de entre los estímulos más débiles o más intensos que cuando presenta una intensidad intermedia.
2) el rango de intensidades presentadas en el experimento y
3) la posición del estímulo de referencia en la serie estimular. Estos resultados, que hacen referencia al efecto del contexto
estimular sobre el exponente de la ley potencial, han llevado a elaborar interpretaciones diferentes.
3.5.2. Interpretaciones cognitivas Las interpretaciones alternativas de la ley potencial consideran exclusivamente la
actuación de procesos cognitivos. Warren en su interpretación del correlato físico, señala que los juicios que emiten los
observadores no son juicios sobre la magnitud de las sensaciones sino juicios sobre los estímulos. En opinión de Warren,
los sujetos al emitir juicios toman como base dets atributos físicos de los estímulos reldos con la magnitud sensorial. Ej:
cuando estiman q un sonido es el doble de intenso que otro E de ref, su juicio se basa en que les parece que está más
cercano que el E de ref. Es decir, basan su juicio en un atributo físico (la distancia) a partir de las relaciones aprendidas
previamente sobre la distancia de la fuente del sonido y su intensidad. Lo mismo ocurriría al emitir juicios sobre el brillo;
el observador tomaría en consideración la distancia entre el objeto y la fuente de iluminación sobre la base de experiencias
previas. En opinión de Baird, la interpretación de Warren se basa en una suposición falsa, puesto que asume que los
observadores estiman la distancia visual con precisión. Sin embargo, la estimación de la distancia visual está influenciada
igualmente por el contexto y otros factores que afectan a los juicios psicofísicos.
En la misma línea, Poulton en su hipótesis sobre el rango de valores estimulares, señala que lo que refleja el tamaño del
exponente de la función potencial son variaciones en las condiciones experimentales, y no diferencias en los sistemas
sensoriales. Entre las condiciones que pueden afectar al tamaño del exponente señala el rango de valores estimulares
utilizado, el valor del estímulo estándar y el módulo seleccionado, que constituyen fs de sesgo de los juicios.
En conclusión, no hay acuerdo en relación con la interpretación de la ley potencial, sobre todo cuando las interpretaciones
se polarizan, aludiendo exclusivamente a fs sensoriales o factores cognitivos. Baird señala que la interpretación de la ley
depende de numerosos fs que incluirían tanto atributos sensoriales como fs cognitivos (contexto estimular e instrucciones
dadas a los sujetos).
4. TIEMPO DE REACCIÓN (TR)
Una de las variables dependientes más utilizada en el estudio de la percepción es el tiempo de reacción, es decir, el tiempo
transcurrido entre la presentación (inicio) del estímulo y el inicio de la respuesta. Sin embargo, a pesar de que en la
actualidad se utiliza con profusión no siempre ha sido así.
El desarrollo histórico en el estudio de la cronometría mental presenta varias etapas bien definidas. La “prehistórica”
comprende las etapas anteriores a 1850. Aunque en este periodo se desarrollan las primeras técnicas de medida de los
procesos mentales en el ámbito de la astronomía, sin embargo los resultados obtenidos tienen poca repercusión. Prueba de
ello es q en el ámbito de la fisiología, la característica general de la etapa es una actitud negativa por parte de los científicos
ante la posibilidad de medición de la tasa de conducción nerviosa, basada en la creencia de que ésta presenta los mismos
rangos que la velocidad de la luz.
Es a partir de 1850, con los primeros trabajos de Helmholtz sobre la utilización del TR para la medida de la conducción
nerviosa, cuando comienza la etapa “dorada” en el estudio del tiempo de reacción. Curiosamente, las únicas referencias a
este trabajo aparecen como notas en una publicación de 1850 y obtuvieron una gran difusión gracias a que el artículo se
tradujo al inglés en 1853.
La aportación de Helmholtz tuvo una gran repercusión por dos razones:
1) pq propició el inicio real de la cronometría mental en la P Experimental.
2) pq la cronometría mental va unida a la fisiología, tendencia q encontraremos en los trabajos más recientes en el análisis
de la problemática del TR como VD. En esta época se llevan a cabo aportaciones fundamentales como el desarrollo del
método de substracción de Donders o la aplicación de las curvas de velocidad y precisión al estudio de los movs motores,
realizada por Woodworth.
No obstante, el notable desarrollo experimental sobre este problema se vio frenado hasta 1900, por la crítica devastadora de
Külpe al supuesto de aditividad, que sostenía que el hecho de eliminar o añadir procesos podría tener una influencia en la
configuración de todos ellos. A pesar de esto, los estudios sobre TR no desaparecen totalmente en esta época. Prueba de
ello, es que aunque en dos obras representativas de la P Experimental como son el Handbook of Experimental Psychology
(Stevens, 1951) y el Method and Theory of Experimental Psychology (Osgood, 1953) no se trata el estudio del tiempo de
reacción; sin embargo, tanto en la obra de Titchener en la de Woodworth de 1938, como en la posterior de Woodworth y
Schlosberg, el estudio del TR está representado como contenido relevante de la Psicología Experimental.
Pero es a partir de 1969 con la traducción del trabajo de Donders “Sobre la velocidad de los procesos mentales”, y la
publicación del trabajo de Stenberg sobre las ampliaciones del método de Donders, cuando se produce un “renacimiento”
en el estudio del tiempo de reacción y éste alcanza un fuerte protagonismo como medida de ejecución. Este protagonismo
ha estado muy influido por la naturaleza de la investigación en Psicología Cognitiva.
4.1. Tareas de TR
En la tarea de tiempo de reacción simple, se presenta en el experimento un único E, por ej un destello luminoso, y tiene
que dar una respuesta (presionar una llave de respuesta, decir sí, etc.) tan pronto como lo haya percibido. La medida del TR
en cada ensayo del experimento se determina en rel al tiempo transcurrido desde el inicio del estímulo (destello luminoso)
hasta el inicio de la respuesta. Según Donders, en esta tarea únicamente estaría implicado el proceso de detección.
En la tarea de tiempo de reacción de elección, se pueden presentar dos o más estímulos en cada ensayo (por ejemplo una
luz roja, una azul y otra verde) y el observador tiene que responder de manera diferente a cada una de ellas (por ejemplo,
presionando una llave de respuesta ante la presentación de la luz roja, otra llave diferente cuando se presenta la luz azul y
otra distinta cuando se presenta la luz verde). Donders suponía que en este caso, los procesos implicados serían detección,
discriminación y selección de respuesta, puesto que ante la presentación de los Es de distinto color debe responder de
forma diferente seleccionando la respuesta adecuada a ese E (presionar la llave de respuesta correspondiente a cada E).
En la tarea de tiempo de reacción selectivo, se presentan en el experimento dos o más estímulos, por ejemplo una luz roja
y una luz azul. El observador tiene que presionar una llave de R únicamente ante el E que le indique el experimentador en
las instrucciones (ej: la luz roja) y no tiene que responder cuando se presenta la luz azul. La medida del TR, en este caso, es
eltiempo transcurrido desde la presentación del estímulo al que hay que responder (luz roja) hasta el inicio de la respuesta.
En opinión de Donders, los procesos implicados en esta tarea serían detección del E y discriminación.
4.2. Problemática específica del tiempo de reacción
La problemática del tiempo de reacción se puede considerar desde dos ver- tientes (Pachella, 1974). Por una parte, aquellos
aspectos relacionados con el TR como medida, que permiten una interpretación adecuada de los resul- tados de los
experimentos en los que se utiliza como variable dependiente; y por otra, un aspecto más teórico como es el conocimiento
de los procesos psicológicos básicos y la contrastación de las predicciones que los modelos de procesamiento de la
información realizan sobre la duración de estos procesos.
- La medida del TR Dada la profusión con la que se utiliza el TR como variable dependiente en Psicología, podría parecer
a primera vista, que esta medida se considera como universalmente válida y que los parámetros que permiten obtener una
medida fiable y una interpretación adecuada están claramente definidos. Sin embargo esta primera impresión es engañosa,
y el hecho de utilizar el TR como VD en los experimentos debe tener en cuenta una serie de problemas, que pueden
distorsionar la interpretación posterior de los resultados:
El primer problema a tener en cuenta en la medida del tiempo de reacción, es determinar aquellos parámetros y
condiciones que producen variaciones en la variable dependiente TR, y que permiten una interpretación adecuada del
mismo. Trad la línea de investigación que se ha ocupado de determinar estos parámetros, se ha centrado en el análisis de la
distribución de los estímulos y las respuestas, intervalos entre ensayos, efecto de la precisión sobre la velocidad y
viceversa, etc. Problemas más importantes y se examinarán las posibles soluciones en relación con la problemática citada.
1) en relación con la definición operativa del TR y se traduciría en la pregunta sobre qué estamos midiendo cuando
utilizamos el TR como variable dependiente en un experimento.
La definición operativa más aceptada sobre el TR, es el intervalo temporal entre la presentación del estímulo y el inicio de
la respuesta. En opinión de Pachella, en esta definición, a menos que se expliciten los términos implica- dos, pueden
presentarse problemas, dado que sus efectos pueden confundirse con los efectos de las condiciones experimentales. Por
ejemplo, el término presentación del estímulo, puede resultar ambiguo y carente de significación psicológica cuando
consideramos las diferencias entre presentación del estímulo simultánea o sucesiva; en modalidades sensoriales que
presentan características temporales distintas (como es el caso de visión y audición, etc.). De igual manera, la definición
del inicio de la respuesta, debe tener en cuenta aquellos aspectos sensoriales que pueden influenciar su puesta en marcha.
2) en relación con las distribuciones del tiempo de reacción. La situación ideal en un experimento que utilice el TR como
variable dependiente es que la respuesta del sujeto refleje la cantidad de tiempo mínima requerida para realizar una
respuesta correcta. Por esto se eliminan del análisis de datos las puntuaciones de TR correspondientes a una R incorrecta.
Sin embargo, a menudo nos encontramos en los resultados de los experimentos tiempos adulterados (excesivamente cortos
o excesivamente largos) que pueden distorsionar la interpretación de los resultados.
Si, en base a los tiempos adulterados, la distribución es muy asimétrica, el promedio de los TR, que es el estadístico más
utilizado en la mayoría de los experimentos, nos aporta escasa inf, dado q la medida obtenida está muy influida por los
valores extremos.
Los proceds para eliminar este problema son variados; sin embargo, no están exentos de problemas. El criterio en algunas
invests consiste en eliminar las puntuaciones más altas o más bajas, según un rango prefijado de antemano. Este proced
presenta el problema de que si no se define previamente por qué se adopta un criterio det, la elección del mismo es
arbitraria, y se puede perder inf interesante.
Una alternativa diferente consiste en usar la mediana como promedio; sin embargo, este proced presenta el problema de
que destruye la distribución estándar del tiempo de reacción y la interpretación de los resultados se modifica. Un problema
más grave reldo con el uso de la mediana se presenta cuando se comparan conds experimentales con desigual número de
ensayos. En este caso se produce un sesgo cuando el tamaño de la muestra de medianas es pequeño, debido al error
aleatorio de obtener con mayor probabilidad una muestra de medianas, cuyo percentil verdadero no está cercano al 50%.
Un procedimiento más adecuado consiste en transformar las puntuaciones del TR en puntuaciones de latencia media,
cualquiera de las transformaciones propuestas por Tukey elimina los valores adulterados y convierte la distribución de la
latencia en una distribución simétrica, permitiendo la interpretación de los datos de manera adecuada.
- Técnicas de velocidad y precisión Las relaciones entre TR y errores, que se han descrito en el apartado de me- dida
como posibles fuentes de error en la interpretación de los resultados, se han utilizado como medidas combinadas de
ejecución para examinar los procesos psicológicos básicos implicados en el TR (Pachella, 1974).
El proced experimental consiste en diseñar condiciones que acentúen la velocidad o la precisión. 2 proceds básicos:
a) proced clásico de TR, aportando además, una matriz de pagos para la velocidad y penalizaciones por los errores y
b) proced de tiempo límite, en el que la respuesta debe darse en un tiempo predeterminado con la finalidad de evitar
penalizaciones si se supera este tiempo.
La forma de inducir velocidad consiste en aumentar los pagos por responder rápido y las penalizaciones por los errores;
acortar el tiempo límite, y disminuir el intervalo temporal de señal para la respuesta, en los dos proceds respectivamente.
Para acentuar la precisión, se aumenta la penalización por cometer errores, se aumenta el tiempo límite y se aumenta la
duración de la señal para la respuesta, en cada uno de los proceds. Los resultados de la precisión se representan en función
del TR y la función obtenida presenta una curva que representa un crecimiento continuo desde un nivel base hasta que se
alcanza la asíntota.
5. TÉCNICAS Y PROCEDIMIENTOS EXPERIMENTALES EN EL ESTUDIO DE LA PERCEPCIÓN
Los proceds y técnicas usadas en el estudio de la Percepción han sido muy variados. Los proceds psicofísicos, se utilizan
fund en las invests encaminadas a determinar la sensibilidad de los mecs del sistema perceptivo. El proced básico en este
contexto consiste en la determinación del umbral de detección de las dims físicas del estímulo. Los proceds descritos en los
apartados de métodos psicofísicos, junto con los paradigmas de adaptación, enmascaramiento, y suma sub-umbral, que
veremos, desarrollados en relación con la teoría de los canales múltiples se utilizan fund en el acercamiento psicofísico.
El método de adaptación selectiva reducir la sensibilidad de un estímulo (E de prueba) mediante la exposición previa y
prolongada a otro estímulo (E adaptador). La reducción en la sensibilidad es mayor cuando los dos estímulos presentan
semejanzas en alguna dimensión -ej, orientación, frecuencia espacial, distancia espacial- y es mínima cuando son muy
diferentes en todas las dimensiones.
El procedimiento de enmascaramiento presentación simultánea de dos estímulos, uno de los cuales (E que enmascara)
reduce la sensibilidad del otro (E de prueba) que presenta características parecidas al primero, por lo que para detectarlo es
necesario elevar el umbral en aquella dimensión estimular que presenta semejanzas con las del estímulo que enmascara.
Por último, el procedimiento de suma subumbral presentación simultánea de dos estímulos, uno de los cuales (estímulo
subumbral) aunq no se percibe aisladamente, eleva o reduce el umbral del otro estímulo (E de prueba).
Los procedimientos experimentales se utilizan básicamente en la línea de invest cuyo objetivo fund es contrastar las
predicciones teóricas acerca de la relación entre los hechos y los procesos perceptivos básicos, en función de las
manipulaciones sistemáticas de las variables estimulares. En este ámbito, los proceds son tan variados q resulta casi
imposible enumerarlos. Pero pueden establecerse varias categorías que englobarían los proceds experimentales más
específicos como los de detección, discriminación, identificación y categorización descritos anteriormente en otros caps.
RESUMEN
En este capítulo se han examinado los métodos y técnicas más utilizados en el estudio de la percepción. En primer lugar, se
ha destacado cómo desde los inicios de la Psicología se ha intentado medir la experiencia perceptiva. Los desarrollos sobre
la medida se han llevado a cabo en el ámbito de la Psicofísi- ca, rama de la Psicología que se ha ocupado del estudio de las
relaciones entre los estímulos físicos y las sensaciones que el observador experimenta cuando es expuesto a dichos
estímulos. Los principales métodos desarrollados en el ámbito de la psicofísica fechneriana para determinar los umbrales
absoluto y diferencial son el método de los estímulos constantes, el método de los lími- tes y el método de los ajustes. En
segundo lugar, se ha descrito la Teoría de detección de señales, en el marco de la cual se ha desarrollado el instrumento
más potente en relación con la medida de precisión de la respuesta y que proporciona la forma de calcular índices
independientes en relación con los dos procesos, el proceso sensorial y el proceso cognitivo o de decisión, que inciden en
la ejecución en una tarea de detección. En tercer lugar, se han analizado los métodos de construcción de escalas
sensoriales, desarrollados en el contexto de la <<nueva psicofísica>> y denominados métodos directos, fundamentalmente
los métodos de estimación y producción de magnitud y el método de ajuste de modalidades sensoriales. También se ha
analizado una de las variables dependientes más utilizadas en los experimentos: la medida de latencia o tiempo de reacción.
Finalmente se han considerado brevemente las técnicas y procedimientos experimentales más utilizados en los distintos
ámbitos de investigación en Psicología de la percepción.

S-ar putea să vă placă și