Sunteți pe pagina 1din 74

T.

1 INTRO: HISTORIA Y ENFOQUE PERCEPCIÓN VISUAL


Lo que nos interesa es prestar atención a las ideas generales, a los conceptos básicos de nuestro campo de estudio.
2. INFLUENCIAS INICIALES
Las primeras teorías científicas de la percepción estuvieron influidas por teorías previas basadas en el sentido común y la
reflexión filosófica. Para la filosofía, el estudio de la percepción formaba parte de la teoría del conocimiento que se
interesaba por justificar su validez. ¿En qué medida podemos confiar en nuestros sentidos de que nos dan un conoc válido
del mundo? y, al intentar contestarlas, la reflexión filosófica moderna se polarizó en 2 posturas contrapuestas:
1) Para el racionalismo, los sentidos no eran una fuente fiable de conocimiento. No es q nos engañen, xo pueden hacerlo
y, por tanto no pueden ser el fundamento del conocimiento cierto. El conocimiento es indudable pero con el fundamento en
la razón, no en los sentidos. Descartes (racionalista), encontró en el hecho de pensar el fundamento de toda certeza. El
razonamiento nos da un conoc más fiable q el de los sentidos. La mente está dotada de ideas innatas q no dependen de la
exp sensorial, y q son el fundamento de nuestras certezas más fundamentales.
Lo q tiene importancia es q el racionalismo da una importancia fund, al explicar la naturaleza de nuestro conocimiento, a:
- los procesos de pensamiento.
- los factores innatos.
2 problemas fundamentales en el estudio de la percepción tienen que ver, por un lado, con el grado de implicación que los
procesos cognoscitivos relacionados con el pensamiento tienen en la percepción, y, por otro lado, con el grado de
dependencia que la percepción tiene respecto de factores innatos.
2) Para el empirismo el conocimiento cierto no era posible. Se interesaron más por saber cómo era nuestro conocimiento y
valorar dp el grado de certeza q podía ofrecer. Su punto de partida: todo conocimiento empieza por los sentidos. No existen
ideas innatas, todo conocimiento procede de la experiencia y la exp es inicialmente sensorial.
Para ellos las sensaciones eran los elementos irreductibles del conocimiento, y que el conocimiento complejo era resultado
de la asociación de diferentes sensaciones simples.
El concepto de sensación de la filosofía empirista encontró apoyo en los descubrimientos q en el sXIX realizó la fisiología
de los sentidos:
Charles Bell en 1811 y François Magendie 11 años dp demostraron que las funciones sensoriales estaban mediadas por un
conjunto de nervios que eran diferentes de los que mediaban las funciones motoras.
Müller en 1820 formuló la doctrina de la energía específica de los nervios según la cual cada sensación estaba determinada
por la actividad específica de los nervios sensoriales que le servían de medio de transmisión, independientemente de cual
fuera el estímulo q causara esa actividad. Aunque esta doctrina de Müller no es aceptada, contribuyó a fomentar la invest
xa determinar los diferentes sentidos o modalidades sensoriales y estudiar la forma en que los efectos producidos por un
objeto percibido eran transmitidos hasta el cerebro mediante los nervios sensoriales.
En el proceso de determinar cuáles eran las sensaciones elementales, los fisiólogos y los físicos del siglo XIX prestaron at
a la sensación misma como hecho mental o dato de consciencia e idearon proceds experimentales xa estudiarlas.
Resultado de ese esfuerzo, aparecieron un conjunto de métodos y de resultados q dieron origen a la psicofísica.
E. Weber estaba interesado en estudiar si los nervios que responden al estado de nuestros músculos, también contribuyen a
nuestro sentido del tacto cuando tratamos de juzgar el peso de los objetos. Weber introdujo el concepto de diferencia
apenas perceptible y comprobó q no era una cantidad absoluta sino q se aproximaba a una razón constante del peso que se
estaba juzgando. Dp Fechner publicó sus Elementos de Psicofísica, libro fund en la historia de la P de la percepción y de la
P experimental en general. A partir de Fechner, la psicofísica quedó establecida como disciplina interesada en establecer
las rels matemáticas precisas entre los estímulos, medidos en escalas físicas, y las sensaciones evocadas por esos estímulos,
medidas en escalas de sensación. Los métodos para construir escalas de las sensaciones y los resultados principales,
representados por la Ley de Fechner, forman parte del patrimonio de la psicofísica actual.
El concepto de percepción tardó más en acuñarse que el de sensación. Reid distinguió entre sensación y percepción. Para
Reid, la percepción es mucho más que una sensación, aunque depende de las sensaciones.
La percepción incluye dos elementos que no están presentes en la sensación:
1º: una concepción del objeto.
2º: una irresistible convicción de la existencia de ese objeto.
Por tanto, diferenció claramente entre sensación y percepción incluyendo en la percepción tanto la categorización del
objeto como su existencia objetiva. Una idea que Reid consideraba filosóficamente crucial, cuando pensaba q la existencia
real de los objetos es percibida directamente, ha tenido una influencia muy importante en la formulación de la teoría de la
percepción directa que, como veremos, llevó a cabo a mediados del siglo xx James Gibson.
3. LA TEORÍA CLÁSICA
Formulada en la 2ª mitad del sXIX por Helmholtz y reelaborada por W. Wundt. Patrimonio común de casi todos los
teóricos de la percepción y sus ideas centrales han sido reformuladas hasta hoy.
En 1856 Helmholtz publicó su Tratado de Óptica Fisiológica y en 1863 su libro Sobre la Sensación de Tono. Ambas el
fundamento de la moderna invest científica de la percepción visual y auditiva respectivamente.
En su Tratado de Óptica Fisiológica trató los problemas más elementales de la sensación y los problemas más complejos
de la percepción como parte de una única disciplina fisiológica. El 3r volumen de su Tratado estudia problemas q han
pasado a formar parte de los textos de P de la percepción y han desaparecido de de fisiología. Resultado de la progresiva
especialización que caracteriza al desarrollo de la ciencia, no debe ocultar el valor de la concepción unitaria de Helmholtz,
para quien el uso de métodos conductuales o introspectivos no suponía un cambio de disciplina sino el desarrollo de la
fisiología por otros medios.
El interés por fundar una ciencia específica de lo mental, basada en el uso de la introspección como método adecuado fue
cosa de Wundt, discípulo de Helmholtz. En 1874 publicó sus Fundamentos de Psicología Fisiológica y en 1879 fundó el
primer lab dedicado al estudio de la psicología experimental. A partir de Wundt, la investigación psicológica de la
percepción inició un rumbo particular que, casi siempre en contacto con los principales descubrimientos fisiológicos, pero
tiene su propia historia. En este nuevo contexto, la formulación de la teoría clásica de la percepción por el discípulo de
Wundt, Edward Titchener, suele conocerse con el nombre de estructuralismo.
En general el punto de vista clásico afirma q nuestra percepción de los objetos y de los eventos está det por estructuras
mentales resultado de un proceso de aprendizaje perceptivo a partir de exps sensoriales elementales, no innatas.
El punto de vista clásico fue, en su origen empirista y trató de integrar en una teoría unitaria las principales aportaciones
que el desarrollo científico del momento podía hacer al estudio de la percepción. 3 aspectos de la teoría merecen atención:
1) La sensación como unidad de análisis xa la teoría clásica la invest perceptiva debe empezar x analizar las sens básicas.
1º diferenciar las modalidades sensoriales y dp subdividir cada modalidad en sus difs sens elementales. Esto exigía buscar
en primer lugar los Es físicos más simples que fueran capaces de evocar una sensación, después había que investigar los
receptores elementales que responden a ese estímulo. Dado q Müller afirmaba q cada sensación era el resultado de una
energía nerviosa específica, parecía lógico pensar que a partir del análisis de las sensaciones se podría llegar a determinar
esas energías. Para ello, los conceptos de umbral absoluto y de umbral diferencial acuñados por la psicofísica, así como
los métodos para medirlos, eran imprescindibles. Los primeros resultados parecían prometedores.
Pero el concepto de sensación no estaba libre de problemas. Por un lado, el análisis de las sensaciones llevó a describirlas
en términos de atributos. Külpe utilizó de forma sistemática el término atributo para caracterizar las sensaciones. Los
atributos no son entidades separables, son aspectos diferentes de la sensación q pueden variar de forma más o menos
independiente, pero q son necesarios para que dé una sensación. Una sensación sin cualidad o sin intensidad no es una
sensación aunq ambos aspectos pueden variar de forma muy diversa. Para Külpe, las sensaciones correspondientes a los 5
sentidos necesitan tener 3 atributos: cualidad, intensidad y duración. Además, la visión y el tacto, poseían un 4º atributo: la
extensión. Al incluir la duración y la extensión, hizo concesiones a las posiciones innatistas q consideraban q el espacio y
el tiempo no dependían de la experiencia, sino q estaban dadas en la propia estructura mental. Vemos pues, q en el análisis
de la sensación, la teoría clásica se encontró con las limitaciones de un empirismo radical.
Otro aspecto que contribuyó al declive del concepto de sensación era q para considerar a las sensaciones como unidades
fundamentales, es que no podemos distinguirlas una vez que entran a formar parte de un compuesto. Como veremos al
tratar del color, que era considerada una de las sensaciones más simples, la mezcla de colores fundamentales produce un
nuevo color pero en el nuevo color no hay rastro de las sensaciones correspondientes a los colores que producen la mezcla.
Para Titchener, para quien la introspección debía servir siempre para aislar las sensaciones cs, cada matiz distinto de color
era una sensación elemental diferente. Para Helmholtz, los resultados de los experimentos de mezcla de colores eran más
fiables q la introspección para detectar los cs elementales y, en el caso del color, sólo había 3 cs elementales. ¿Había, por
tanto, sólo 3 sensaciones de color? El problema es que la idea de q las sensaciones constituían los elementos irreductibles
de la experiencia consciente, se encontraba con problemas de difícil resolución.
2.2 La percepción como síntesis de sensaciones: es importante distinguir entre E distante y E próximo, hacen referencia:
E distante propiedades físicas de los objetos mismos: tamaño, forma, distancia a la que está del observador, etc.
E próximo propiedades de la estimulación que actúa sobre nuestros receptores. En el caso de la visión, ej, el E próximo
hace referencia a la imagen del objeto que se proyecta sobre la retina de los ojos.
En la percepción, las características más importantes que captamos de los objetos son sus características distantes. Lo que
se nos impone en la percepción visual son características que pertenecen a los objetos, no a nuestras imágenes retinianas.
¿Cómo es posible llegar a captar esas características a partir del estímulo próximo? Esta pregunta encontró en la teoría
clásica una respuesta basada en el A. La percepción de las características distantes no son una respuesta sensorial directa,
sino una percepción compleja aprendida. La percepción visual de los objetos se compone, por tanto, de sensaciones
visuales no espaciales, como el matiz o el brillo, y de imágenes de sensaciones no visuales q han estado característicamente
asociadas con esas sensaciones en la experiencia previa con esos objetos.
Un fenómeno de importancia es el de las constancias. Percibimos constante el color de un objeto a pesar de los cambios en
la iluminación, o el tamaño de ese mismo objeto a pesar de q se nos muestre a distancias difs. En éstos casos, los cambios
en el E próximo no determinan nuestra percepción. ¿cómo es posible la constancia de estas percepciones? Helmholtz lo
explicó tb en términos de A y formuló una regla: el principio de verosimilitud: percibimos aquellos objetos y eventos q,
bajo condiciones normales, serían los q produjeran el conjunto de estimulación sensorial efectiva q estamos recibiendo. Es
decir, acabamos percibiendo las características de los objetos q, sobre la base de la experiencia previa, son más probables.
2.3 La inferencia inconsciente Helmholtz tb dió una teoría sobre la forma en que nuestro sistema perceptivo aplicaba la
regla. Ej, cuando percibimos un objeto del mismo tamaño a pesar de sus cambios en la distancia a q está de nosotros, es pq
hemos aprendido a hacer algo q produce el mismo resultado que “tomar en cuenta la distancia”. De forma parecida, cuando
un papel continúa viéndose blanco a pesar de q lo vemos bajo una luz tenue, es pq hemos aprendido a tomar en cuenta los
cambios en iluminación. Pero Helmholtz no pensaba q “tomar en cuenta” la distancia o la iluminación fuera un acto
consciente de reflexión sobre la sit, sino de una inferencia inconsciente a partir de sensaciones q nos pasan desapercibidas.
La explicación de Helmholtz fue en su momento, y continuó siéndolo durante mucho tiempo, una fuente de controversia.
Cuando se formuló, hablar de sensaciones imperceptibles resultaba contradictorio en sí mismo para los que creían que la
sensación era el elemento constitutivo de la percepción. Otros consideraron q la explicación era demasiado complicada y
especulativa. Pero la explicación de Helmholtz tb tuvo defensores, aunq se ha reformulado de maneras diferentes.
Helmholtz describió el proceso perceptivo usando los términos que le daba la P de su tiempo, y lo describió como si fuera
un proceso de resolución de problemas, que es el resultado de la exp previa pero q se desencadena al margen de la voluntad
consciente del observador. Todo el aparato conceptual de hoy cuando hablamos de A implícito y de hs automáticas, le
habría sido de gran utilidad.
La teoría de la percepción de Helmholtz es una teoría muy cargada de elementos cognitivos. Para Helmoltz, la percepción
no estaba determinada por los procesos sensoriales sino por toda la estructura mental que él resumió en el concepto de
inferencia inconsciente. El E próximo es pobre en cuanto a la inf q da y necesita ser completado por toda la constelación de
conocimientos sobre el mundo q nuestra experiencia nos ha ido dando. Esta forma de pensar, basada sobre la pobreza de la
estimulación y la importancia del conocimiento para determinar lo que percibimos, es todavía hoy muy importante.
3. 1ª MITAD SXX
La teoría clásica de la percepción no pasó sin críticas por el siglo XIX. Hemos visto, al hablar de la sensación, que las
discusiones en torno a la mezcla de colores arrojaron serias dudas sobre la validez del concepto mismo de sensación
elemental y sobre la forma de determinar la existencia de elementos. Una importante contrapropuesta a la teoría
tricromática de Helmholtz, fue la teoría de los procesos oponentes formulada por Ewald Hering. Pero hubo que esperar al
sXX para que se desarrollara una alternativa teórica que representara un reto global a las posturas defendidas por la teoría
clásica. Esta alternativa estuvo representada por la teoría de la Gestalt.
3.1 La Teoría de la Gestalt: los postulados principales del racionalismo hicieron su aparición en el campo de la invest
científica de la percepción de la mano de la P de la Gestalt. Para la Gestalt las sensaciones, consideradas cm elementos de
la vida anímica, eran inexistentes. Gestalt significa configuración o forma total. Refeja su interés x centrar la invest
perceptiva en el estudio de las rels q estructuran las difs partes de una escena, más q en los els sensoriales q la componen.
Fenomenología: para la teoría clásica, la introspección era el método de la P para la investigar la percepción. Pero la de los
estructuralistas, requería un largo entrenamiento, durante el cual el observador aprendía a observar sus propios estados
mentales. Este entrenamiento con frecuencia le inducía una tendencia a percibir sus estados mentales de acuerdo con sus
inclinaciones teóricas, influyendo en los resultados.
Para la Gestalt, la experiencia consciente del observador tb era la fuente principal de datos de la investigación psicológica.
Pero estaba interesada en los datos de conciencia tal como aparecían de forma inmediata, sin contaminar con prejuicios
teóricos. Más q de introspección, debe hablarse de descripción fenomenológica para marcar la diferencia entre la
introspección clásica y la actitud de auto-observación de los gestaltistas. Para ellos, no se trataba de forzar a discriminar las
sensaciones elementales, sino de respetar los datos inmediatos de la misma y describirlos lo más objetivamente posible.
Configuración: los principales líderes de la Gestalt, Wertheimer, Kohler (1929) y Kofka (1935), rechazaron los supuestos
fundamentales de atomismo y empirismo de la teoría clásica. Lo importante en la percepción es la configuración del campo
perceptivo, la forma en que se relacionan los componentes de la escena, la totalidad estructurada por esas relaciones. Para
los gestaltistas, el todo es diferente de la suma de sus partes porque las relaciones entre los cs provocan la aparición de
propiedades emergentes, pertenecientes a un conjunto como tal pero q ninguno de los cs del conjunto posee por sí mismo.
Una persona puede percibir que la intensidad de un estímulo es mayor que, igual o menor que la intensidad de otro sin
necesidad de conocer los valores absolutos de intensidad de ninguno de ellos.
Los gestaltistas también rechazaron la analogía química que había utilizado la teoría clásica al considerar la percepción
como un compuesto formado por sensaciones elementales. Ellos preferían analogías tomadas de la física y hablaban del
campo perceptivo como si fuera semejante a los campos magnéticos o eléctricos. Ej: la presencia de una partícula con
carga eléctrica positiva, define un campo eléctrico a su alrededor. Si se añade una segunda partícula, la estructura del
campo se modifica y lo hace de distinta forma dependiendo de que la carga de la segunda partícula sea igual o diferente de
la de la primera. De forma parecida, en la Figura 1.1 A podemos ver un campo visual formado por un elemento que es la
letra K. En B, la percepción predominante es la de un rombo flanqueado por dos líneas verticales.
Pero el rombo surge por la adición de otra letra K rotada 180 grados y yuxtapuesta a la anterior. En
B, la identidad de cada letra individual se pierde porque la relación espacial entre las dos letras da lugar a la percepción del
rombo. Si, en vez de estar juntas, aumentáramos la distancia entre las letras, como en C, cada una recuperaría su identidad
como una letra K. La teoría de la Gestalt hizo aportaciones muy importantes a la invest de la percepción. Sus principios de
organización, a veces llamados leyes, constituyen aún hoy una importante materia de estudio y de investigación.
Innatismo: la Gestalt tb rechazó el empirismo. Para ellos, los principios organizadores de la percepción no tenían su origen
en la experiencia, ni del A previo. Sino resultado de la interacción de las estructuras cerebrales con el medio ambiente y
esas estructuras eran innatas o, a lo sumo, fruto de la maduración. Kohler, recurrió a la estructura de los mecs cerebrales a
la hora de explicar los fenómenos perceptivos. Consideraban que el cerebro era un ej de Gestalt física, es decir un sistema
físico q funcionaba como una totalidad dinámica q tendía hacia un estado de equilibrio de energía mínima. Además,
pensaban q los mecs causales subyacentes a los procesos perceptivos eran campos electromagnéticos generados por la
actividad de las neuronas. Esos campos también tenían las propiedades de una Gestalt física. La semejanza entre la
dinámica de los campos electromagnéticos cerebrales y la de los campos perceptivos, les llevó a formular su doctrina del
isomorfismo psicofísico. Esta doctrina afirma q tanto en el caso de la percepción del espacio como en la del tiempo o en la
de la forma, la org del campo perceptivo era una verdadera representación de la org dinámica de los procesos fisiológicos
subyacentes. Se da por tanto una igualdad de forma o isomorfismo entre el func del psiquismo y el func del cerebro, lo q
permite inferir la naturaleza de los procesos cerebrales a partir del análisis de las leyes q configuran el campo perceptivo.
Eran perfectamente conscientes de que en la percepción se producían fenómenos como las constancias o las ilusiones. La
explicación que dieron no se basaba en la experiencia, como Helmholtz y los empiristas, sino en las propiedades dinámicas
del cerebro como una Gestalt física. En oposición al principio de verosimilitud, formularon el principio de Pragnanz, q tb
se suele denominar el principio mínimo: establece que, en sits en las q son posibles más de una interpretación de la escena
visual, el sistema perceptivo impondrá la interpretación más simple. Es un principio coherente con una forma de pensar
que considera el func de la mente isomórfico con el func del cerebro y a éste como un sistema dinámico q tiende a un
estado de energía mínima.
3.2 El conductismo
Para la teoría clásica de la percepción, al igual que para la Gestalt, los datos fundamentales de la investigación eran los
datos de consciencia, por eso sus principales aportaciones están hoy en el campo de la percepción. Pero para el
conductismo los datos fundamentales están en la conducta y se centró en los factores que la modifican. Por eso, realizaron
sus principales aportaciones en el campo del A y de la motivación. Sus aportaciones al estudio de la percepción fueron
escasas y en ningún caso comparables a la aportación de las teorías anteriores. Nunca formularon una teoría conductista de
la percepción. Su interés se focalizó casi sólo en la relación entre Es y Rs pero en la práctica siempre usó Es muy simples,
en los q se manipulaba una sola dimensión, y Rs cuyo aspecto más interesante era el carácter mensurable de su resultado y
la forma en q podía ser moldeada para lograr ese resultado.
Pero no debe pasarse por alto su aportación metodológica. Con el estudio de la conducta, abrió a la P un campo de invest
sin explorar, introdujo rigor en la experimentación y precisión en las medidas y en el lenguaje. Exageró al exigir q la P se
limitara al estudio de la conducta, pero el estudio de la conducta ha sido desde entonces crucial para el desarrollo de la P.
El conductismo la redujo la investigación perceptiva al estudio de la conducta discriminativa y de esta conducta lo que más
le interesó fue su adquisición y el análisis de las variables q determinaban el control de la conducta por parte de los Es.
Pero cometieron el error de pensar que los Es manipulados por el investigador, que podemos llamar estímulos nominales,
eran lo mismo que los estímulos funcionales, que son los que realmente influyen en el organismo, con lo cual pasaron por
alto el problema central del estudio de la percepción, que es la relación entre ambos tipos de Es.
Desde el punto de vista metodológico, el conductismo ayudó a valorar la importancia de las tareas experimentales y el
análisis de las variables que las afectan. Pero lo importante de las tareas es su capacidad para informar de los procesos que
intervienen en ellas y la explotación de esa capacidad no la pudo llevar a cabo el conductismo.
3.3 Teoría de la percepción directa
Tb conocida como teoría ecológica de la percepción, desarrollada durante muchos años por James J. Gibson, muy
influenciado por la teoría de la Gestalt y el conductismo. De la teoría de la Gestalt, adoptó su oposición a toda postura
atomista. Pero al contrario que los gestaltistas, no creía q el fundamento de la teoría perceptiva estuviera en la estructura
del organismo, sino en el estudio del medio ambiente en el que el O está inmerso. Se trata, por tanto, de analizar a fondo la
estimulación para localizar la inf relevante en cada sit.
Percepción ecológica Gibson piensa que el análisis perceptivo debe centrarse en la conformación óptica ambiental. Con
este término quiere indicar el patrón global de la estimulación, por oposición a aspectos parciales como son las
sensaciones. Éstas se definen en términos de luminancia, mientras que la conformación óptica se mide en términos de los
márgenes existentes entre áreas de diferente luminancia. Las luminancias cambian con cambios en la iluminación, mientras
que la conformación óptica permanece invariante ante esos cambios. La conformación óptica es un concepto relacional,
mientras que las luminancias son las cantidades de luz medidas por un fotómetro.
Gibson estaba convencido de que el patrón de estimulación q llega a los sentidos, lejos de ser pobre en inf, como pensaba
Helmholtz y los clásicos, contiene toda la inf necesaria para determinar qué ha de percibirse en una situación det.
La supuesta pobreza del estímulo es, según Gibson, el resultado de estudiar la percepción en condiciones restrictivas en las
q se priva al O de inf q está disponible en condiciones normales de la vida cotidiana. La teoría clásica ha fomentado invests
en las q un observador estático, mirando x un orificio, tiene acceso a una inf peculiar de un punto de vista det.
La percepción cotidiana, sin embargo, es una percepción dinámica q cambia a medida q el observador se mueve con
respecto a la escena total, y ese tipo de percepción es el q debemos estudiar.
Gibson trató de ofrecer una óptica ecológica como alternativa a la óptica geométrica utilizada por la teoría clásica. La
óptica geométrica, en lugar de tratar la luz en términos de onda o corpúsculo, construye sus representaciones sobre el
concepto de rayo de luz. Dado que la trayectoria de un rayo corresponde aprox a la de un fotón, la óptica geométrica
puede utilizar líneas rectas para representar esas trayectorias y emplear técnicas geométricas para poder predecir con
aceptable aprox la posición de las imágenes formadas por los sistemas ópticos. La óptica geométrica trata el ojo humano
como un caso particular de cámara oscura y ha contribuido a popularizar la semejanza entre el ojo y la cámara fotográfica y
entre la imagen retiniana y la imagen impresa en una fotografía. Para Gibson, la utilización de la óptica geométrica como
base para la descripción de los estímulos es un error porque está fundamentada en abstracciones que no pueden captar la
riqueza de la conformación óptica ambiental. La óptica geométrica es una ciencia de la luz, no una ciencia de la visión. La
ciencia de la visión necesita hacer referencia al organismo y a la relación del organismo con el medio. Una óptica adecuada
a una teoría de la percepción visual necesita hacer referencia a la forma particular en que se configura para el organismo el
ambiente con el que interactúa. Para ello se necesita una óptica ecológica.
La óptica ecológica de Gibson está organizada en torno a 2 conceptos funds: información y propiedad funcional.
Introdujo el concepto de información en contraposición al concepto de energía. La energía es la estimulación apropiada
para las células receptoras; los receptores responden a una energía particular. Sin embargo los órganos sensoriales son
sistemas perceptivos que responden a estímulos de un orden superior al de los estímulos de los receptores. Los sistemas
perceptivos responden a la inf que hace referencia a los objetos mismos. El concepto de información en Gibson no es el
concepto formal introducido por la teoría matemática de la información. Gibson utilizó el término para acentuar el carácter
objetivo de la percepción en cuanto que ésta nos informa acerca de los objetos. La inf en Gibson es “información sobre
algo” y únicamente significa “especificidad respecto de algo”. Al afirmar q los sentidos perciben inf sobre los objetos,
quiere poner de manifiesto que, por ser sistemas perceptivos y no simplemente órganos receptores, los sentidos son
capaces de captar características reales de los objetos que no nos son dadas propiamente en la energía que llega a nuestros
receptores sino en las relaciones que determinan la estructura de la conformación óptica. Cómo es posible que los sentidos
lleguen a captar esta inf es un problema que veremos más adelante.
En su último libro La aproximación ecológica a la percepción visual, Gibson introdujo el concepto de affordance como una
extensión del concepto de inf. Al igual que la inf, las propiedades funcionales q constituyen una affordance están
especificadas en la estructura de la conformación óptica, pero añaden un aspecto que las cualifica: son invariantes q están
en consonancia con el cuerpo del observador mismo. Gibson da ejemplos de varias propiedades funcionales de superficies,
tales como “sentarse sobre ella” en el caso de una silla, “subir por ella” en el caso de una escalera de mano o incluso
“introducir en su interior” en el caso de un buzón de correos. Gibson mantiene que nuestro sistema perceptivo es ca- paz
de captar estas propiedades directamente. Vemos, por tanto, que la idea central de Gibson consiste en remachar que la
investigación de la percepción debe centrarse en estudiar las propiedades de nuestros sentidos considerados como sistemas
perceptivos, es decir como totalidades dinámicas estructuradas cuya capacidad de captar inf y propiedades funcionales
sobrepasa con mucho la de sus componentes. Pero considera que este objetivo investigador no se logrará a base de
descomponer el sistema y ver lo que tenemos “dentro de la cabeza” sino estudiando el medio ambiente, dentro del cual se
encuentran inmersos nuestros sistemas perceptivos.
Percepción directa es el segundo punto fund en la teoría de Gibson, el carácter directo que atribuye a la percepción.
Hemos visto que para la teoría clásica la estimulación es pobre a la hora de informarnos sobre el medio y que necesita
suplir esta deficiencia con inf proveniente de nuestros recuerdos y, en general, con la experiencia acumulada. Nada de esto
es necesario para Gibson. Lo q percibimos está perfectamente det por la particular conformación estimular que en un
momento det nuestros sistemas perceptivos captan. No necesitamos recurrir a recuerdos, o pens xa explicar la percepción.
Al decir que la percepción es directa, quiere decir que toda la inf necesaria para determinar la percepción se encuentra en el
medioambiente y que no necesitamos recurrir a procesos del organismo para su explicación:
Cuando afirmo q la percepción del medio es directa, quiero decir que no está mediada por imágenes retinianas, imágenes
neuronales o imágenes mentales. Percepción directa es la actividad de obtener la inf de la conformación óptica de la luz.
Llamo a esto un proceso de captación de inf q implica la actividad exploratoria de buscar, explorar y mirar a las cosas.
Dos aspectos a ser resaltados:
1) su oposición a cualquier tipo de mediación basada sobre representaciones: esto lo enfrentó a las teorías del
procesamiento de la inf q han predominado desde mediados del siglo XX. Tb con la investigación neurofisiológica que,
con una mentalidad analítica, trata de estudiar los cs de los sistemas perceptivos y sus funciones en la percepción. En su
afán por evitar toda referencia a procesos intermedios entre la estimulación y la experiencia perceptiva, prácticamente
ignoró todo un conjunto de datos fisiológicos que, en nuestra opinión, no se pueden ignorar. Con respecto a las
investigaciones neurofisiológicas mantuvo en percepción una postura similar a la mantenida por los primeros conductistas
respecto al aprendizaje: no proporcionan datos relevantes para una teoría de la percepción.
2) su concepción de la percepción como un proceso activo el término activo lo usa para poner de manifiesto la importancia
que la locomoción del observador tiene para cambiar el patrón estimular y para especificar la inf presente, por ej, en el
flujo óptico. Tb lo usa para reconocer la importancia q la motivación puede tener para captar una det propiedad funcional
en el estímulo. Pero en sí mismo el acto de percibir no es activo en el sentido constructivista que dio a este término la
teoría clásica. Para ésta, la percepción es activa en cuanto q es una síntesis de la inf proporcionada por los sentidos y la
proporcionada por la exp previa del observador. Para Gibson toda la inf está en la estimulación, el observador no aporta inf
alguna sino q se limita a captar aquella inf con la que se encuentra en sintonía. Gibson, al igual q T. Reid, es un realista.
La teoría de Gibson es más fuerte en lo referente a su posición ecológica que en su defensa de la percepción directa. Su
influencia ha sido importante y amplia en el estudio de la percepción aunque sus posturas extremas respecto al papel de las
representaciones no son mayoritarias. Su despreocupación por incorporar los datos de la fisiología en la teoría de la
percepción, además de privarle del respeto de los fisiólogos, es compartida por muy pocos psicólogos.
3.4 otras influencias
Aunq nos hemos centrado en las aportaciones nuevas de mitad del sXX, muchos continuaron trabajando dentro del
programa de invest planteado por la teoría clásica. En este contexto distintas formas de funcionalismo que concebían el
proceso perceptivo como una transacción en la que los estímulos y el observador se implican mutuamente de forma que
para definir el E funcional o efectivo para un det observador es necesario conocer su conducta previa. Así, E y conducta se
encuentran inmersos en un círculo de interacción que determina su definición mutua. Este transaccionalismo, tuvo su
origen en el filósofo J. Dewey.
También muy influyente fue el funcionalismo probabilista formulado por Brunswick quien, al igual q Gibson, acentuó la
importancia de estudiar sits ecológicamente válidas, en las que la estimulación no estuviera empobrecida sino que fuera
representativa de las sits en las q el O vive y de las q el investigador quiere generalizar sus conclusiones. Brunswick tb
estuvo muy interesado en reformular la teoría perceptiva de Helmholtz dejando de lado sus sensaciones elementales y sus
mecanismos sensoriales. Pensaba que el aprendizaje perceptivo es el proceso que lleva al organismo a confiar en aquellos
indicios o claves estimulares q están altamente correlacionadas con alguna propiedad física de los objetos o de los eventos.
A pesar de que el concepto de sensación, entendido como elemento c de la percepción, fue progresivamente abandonado, el
estudio, dentro de cada modalidad sensorial, de las respuestas a cambios en aspectos simples de la estimulación, continuó
siendo tarea de la psicofísica. Una aportación importante a su desarrollo, que estudiaremos en la sección de métodos en
este libro, fue la aparición de los métodos directos ideados por S.S. Stevens con el fin de conseguir escalas de razón en la
medición de esas respuestas sensoriales. Sobre la base de estos métodos, Stevens formuló su ley potencial psicofísica y dio
origen a lo que hoy se conoce como nueva psicofísica para distinguirla de la psicofísica clásica fechneriana.
4. 2ª MITAD S.XX
A mediados del siglo xx se produjo un cambio en la investigación psicológica q afectó a todas sus áreas de especialización.
Las actitudes conductistas cedieron el paso al interés por los procesos subyacentes a la conducta y surgió la moderna
psicología cognitiva, q dió al estudio de la percepción un marco de referencia en el q muchas de las ideas de la teoría
clásica pudieron ser reformuladas. Este marco de referencia tb ayudó a integrar otras 2 corrientes de invest científica
cruciales para el desarrollo de la invest en percepción: los avances de la investigación fisiológica y el computacionalismo.
4.1 La psicología cognitiva
La teoría clásica, el estructuralismo e incluso la Gestalt pueden ser consideradas versiones distintas de una P cognitiva.
Pero el término psicología cognitiva se utiliza hoy para designar una versión particular que surgió a mediados del siglo xx,
el procesamiento de información, q dió una aprox al estudio de los procesos cognitivos considerando la mente humana
como un sistema q maneja símbolos de una forma semejante a un ordenador. La metáfora del ordenador es la analogía q
servirá de guía para estudiar los procesos mentales.
Al igual que un prog de un ordenador, los procesos mentales pueden ser analizados como una serie de fases o estadios.
Cada estadio recibe una inf de entrada, opera sobre esa inf transformándola de alguna forma y produce una inf de salida.
El funcionamiento final del sistema es el resultado del conjunto de operaciones que, a través de las distintas fases,
transforman la inf inicialmente recibida. Para el procesamiento de inf, al igual que para el estructuralismo y la Gestalt, y en
oposición a Gibson y los conductistas, el estudio de los procesos que transforman la inf de entrada (input) y producen una
det salida (output) es el objeto de estudio de la P. En este contexto, la percepción es una fase del procesamiento de la inf
mediante la cual el O construye una representación del medio q pueda guiar su actividad. Esta representación se consigue
sobre la base de la inf dada por la estimulación y mediante las operaciones que el sistema aplica a su transformación.
Principales características del procesamiento de información:
1. Sistemas el proces de inf considera la cognición como actividad resultante de la interacción d los cs de un sistema. No
niega la importancia los cs del sistema pero concede mayor importancia a la estructura y a la org funcional resultante de la
interacción de sus cs. El procesamiento de inf se sitúa en una posición intermedia entre el estructuralismo y la Gestalt.
Una forma de representar el funcionamiento de un sistema y sus cs principales ha consistido en usar diagramas de flujo.
La Figura 1.2 presenta un diagrama de flujo en el que un sistema A recibe 2 tipos de input, (a) y (b). Cada rectángulo en el
diagrama representa un conjunto de operaciones q acaban produciendo un output; a su vez, estos outputs forman el input de
la fase siguiente (e) que acaba produciendo una salida final (O) para el sistema A.
Un diagrama de flujo es una forma abstracta de representar la org de los cs de un sistema y su funcionamiento. Una posible
interpretación del diagrama en la Fig 1.2 podría ser un sistema de integración de inf procedente de distintas modalidades
sensoriales q recibe inf visual (a) y táctil (b) y produce, mediante una operación sobre los dos tipos de inf (e), una
representación integrada de ambas (0). Un diagrama de flujo permite representar los sistemas perceptivos como conjuntos
de subsistemas q están compuestos de una inf de entrada (input), un conjunto de operaciones representadas por los
rectángulos, y una inf de salida (output).
Una propiedad importante de los Ss de proces de inf es la que Palmer y Kimchi llamaron
descomposición recursiva: la posibilidad de subdividir un sistema en otros subsistemas
componentes, cada uno de ellos dotado de un input, de una función y de un output. En la Fig
1.2 vemos q el sistema total A está compuesto por 3 subsistemas, uno especializado en
procesar la inf visual, otro en la inf táctil, y un 3º q integra ambas infs. A medida que avanza
la investigación de cada uno de esos cs, es posible proceder a un análisis más detallado del
func de cada subsistema mediante la especificación de sistemas menores que componen los
subsistemas. Este esquema de análisis es recursivo porque se puede aplicar una y otra vez
siempre que lo requiera el análisis del sistema q se está estudiando hasta que se llega a un último nivel que no se puede
descomponer más. A los componentes de este último nivel se les suele denominar características primitivas, cuando se
trata de componentes de una representación, o, si de trata de procesos, son llamados operaciones elementales.
2. Información, codificación y representación de usar el concepto de información en el sentido técnico de la teoría de la
inf de Shannon; que trataba de medirla en términos de la probabilidad de emisión de un mensaje, pero los resultados no
fueron buenos; pasó a ser usado como sinónimo de conocimiento: inf es la cantidad de conocimiento q una persona
adquiere o posee sobre el medio que le rodea. En el caso de la percepción, no se trata tanto de la cantidad de inf e hay en la
estimulación, cuanto de la cantidad de conoc que el observador puede llegar a adquirir sobre la base de esa estimulación.
Íntimamente reldos con esta forma de concebir la inf están los conceptos de codificación y de representación. Para el
proces de inf el conocimiento está org en la mente humana en forma de imágenes u otros formatos de representación.
La inf del medio q nos llega a través de los sentidos necesita ser trasladada a esas formas o códigos de representación por
medio de un conjunto de procesos a los que se les da el nombre de procesos de codificación.
La percepción es fund un conjunto de procesos de codificación mediante los cuales se genera en el observador una
representación mental del medio ambiente.
3. Características de los procesos los procesos de un sistema cognitivo, como el sistema perceptivo, pueden estar
organizados de forma serial o en paralelo. Serial: cuando los procesos se llevan a cabo en secuencia, uno dp de otro, y
cada uno de ellos recibe como input el output final del proceso que le precede, por lo q no empieza a funcionar hasta que el
proceso anterior ha finalizado. Paralelo: actúan simultáneamente y su input es independiente del output de otros procesos.
Los primeros modelos que el procesamiento de inf usó para representar procesos mentales, mostraban una org serial.
Dp, a medida q se fue cayendo en la cuenta de la complejidad de los procesos perceptivos, los modelos de org en paralelo
fueron ganando terreno. La rapidez con q tienen lugar los procesos perceptivos visuales parecía requerir una estructura del
sistema visual en la que numerosas operaciones pudieran realizarse simultáneamente. Esta estructura, a su vez, exigía una
división del trabajo de forma que distintos cs del sistema perceptivo se especializaran en llevar a cabo un det conjunto de
funciones. Ej: un c podía especializarse en procesar el color de una escena, mientras otro c procesaba la forma y un tercero
el movimiento. Cuando un sistema presenta una organización especializada de este tipo se dice que tiene una estructura o
arquitectura modular, y a los cs del sistema se les llama módulos.
Otra dimensión que el procesamiento de inf ha utilizado para caracterizar a los procesos está relda con la dirección que
sigue el flujo de procesamiento. Cuando el procesamiento está constituido por un conjunto de operaciones que operan
sobre los datos que proporciona el input para construir representaciones progresivamente más complejas, se dice que el
procesamiento tiene lugar de abajo a arriba. Cuando el procesamiento tiene lugar en la dirección opuesta, de forma que
las representaciones más complejas, tales como objetivos o creencias, actúan mediante feedback sobre las operaciones más
simples, se dice q el procesamiento tiene lugar de arriba a abajo. Una caracterización afín a ésta, pero que pone el acento
en el papel q juegan las influencias complejas de feedback, es la q distingue entre procesos dirigidos por los datos, cuando
operan con independencia de esas influencias, y procesos dirigidos conceptualmente, cuando operan bajo su influencia.
Las distintas teorías que han surgido dentro del procesamiento de inf varían unas de otras en la importancia que conceden a
cada uno de estos tipos de procesamiento.
La teoría de la visión de Marr es una teoría concebida en su totalidad de abajo a arriba y dirigida por los datos.
Por el contrario, otras teorías han acentuado el papel que el conocimiento previo, las intenciones y las creencias ejercen
sobre lo percibido; son teorías preferentemente de arriba a abajo. Sin embargo, la mayor parte de las teorías defienden la
coexistencia de los dos tipos de procesamiento; estas teorías suelen ser llamadas interactivas.
Una última caracterización de los procesos que se ha utilizado frecuentemente en la P cognitiva, es la que distingue entre
procesos automáticos y procesos bajo control atencional o procesos controlados. Esta clasificación está relda con el
grado de dependencia de la atención que un proceso tiene para poder llevar a cabo su función:
- automático: a un conjunto o a una secuencia de operaciones q se pone en funcionamiento ante la sola presencia de un E.
La secuencia puede incluir tanto procesamiento de abajo a arriba como de arriba a abajo. Un proceso automático puede
formar parte de un sistema perceptivo de forma innata o como resultado de la práctica. En la medida en que un proceso
automático depende de la práctica, su automaticidad debe entenderse como una cuestión de grado, no tipo todo o nada.
- controlado: cuando se requiere la influencia de la atención para ensamblar un conjunto o una secuencia de operaciones.
Ej: cuando se trate de una secuencia nueva, o q la sit en la q se van a llevar a cabo las operaciones sea peligrosa para el O.
La automaticidad y la dependencia del control atencional son características complementarias de los procesos perceptivos.
Cuanto más automático es un proceso, menor implicación atencional requiere y cuanto menor grado de automatismo posee
más necesaria es la implicación de la atención para poder operar. En la investigación de los procesos de percepción la esta
distinción entre procesos automáticos y controlados tiene una amplia aplicación. Hay procesos los implicados en la
percepción visual del movimiento, que se ponen en func ante la sola presencia de un estímulo adecuado. Sin embargo
otros, como es el caso de la lectura, requieren gran concentración atencional al principio pero, a medida que la práctica
mejora su aprendizaje, la implicación de la atención es cada vez menor.
4. Métodos El procesamiento de inf reintrodujo el estudio del TR como una de las principales VDs para hacer inferencias
acerca de los procesos perceptivos y de los procesos mentales en general. El método sustractivo introducido por el
psicólogo Donders fue ampliamente utilizado. De acuerdo con este método, el tiempo empleado por una persona en la
realización de una tarea podía dividirse en una serie de fases o estadios cada uno de los cuales correspondía a una
operación elemental componente de la tarea. Donders utilizó tareas muy simples que denominó con las letras A, B y C:
- tarea A: tb tarea de tiempo de reacción simple o tarea de detección, consiste en la presentación de un único E al que el
observador debe responder lo antes que pueda con una única respuesta. Consiste, por tanto, en la presentación de un
estímulo por parte del experimentador y la realización de una R por parte del observador.
- La tarea B: o tarea de tiempo de reacción de elección o tarea de discriminación, consiste en la presentación de dos o
más Es y un nº equivalente de Rs, cada una de ellas asociada a un estímulo det. Ante la presentación de un E por parte del
experimentador, el observador debe contestar con la R asociada a ese E.
- La tarea C: o de tiempo de reacción selectivo o tarea responde/no respondas se presentan dos o más Es pero el
observador sólo debe responder a uno de ellos y no responder al resto.
Donders supuso que cada una de estas tareas estaba compuesta de un nº det de procesos elementales y que restando al TR
empleado en responder en una de ellas, el tiempo empleado en responder a la inmediatamente más simple, podía aislar el
tiempo empleado en cada proceso elemental. La lógica utilizada por Donders para hacer inferencias acerca de los procesos
mentales es tributaria de supuestos que acabaron por resultar excesivamente restrictivos, aún así la aplicación de su lógica
ha producido resultados interesantes cuando se ha aplicado a sits q cumplían los supuestos. Sus tareas, sin embargo, han
quedado como tareas fundamentales en la investigación de la percepción. Los intentos de superar las limitaciones del
método sustractivo llevaron a la formulación de nuevos métodos, como el método de los factores aditivos de Sternberg,
que contribuyeron a profundizar en la investigación cognitiva.
Muy próxima al procesamiento de inf puede considerarse la Teoría de Detección de Señales (TDS). Esta teoría puso de
manifiesto que una R tan simple como la que un observador puede emitir en una tarea de detección encaminada a
determinar un umbral absoluto, no refleja de forma incontaminada el func de un sistema sensorial, sino que hay q tomar en
consideración a los procesos de decisión implicados en la emisión de la R. Desde q fue formulada, la TDS ha sido utilizada
dentro del procesamiento de inf como un proced para mejorar las inferencias basadas sobre medidas de precisión.
Finalmente destacar la importancia que dentro del procesamiento de inf alcanzaron los proceds de formalización de las
teorías y de los modelos. El desarrollo de los modelos matemáticos fue extraordinario pero sobre todo hizo su aparición,
como método específicamente ligado a esta aproximación psicológica, la implementación de las teorías mediante
simulación en ordenador. Una simulación es un programa que al incorporar en su func una teoría, permite contrastar sus
predicciones y explorar sus consecuencias con una precisión difícil de alcanzar por otros procedimientos.
4.2 El computacionalismo
El computacionalismo representa, a la vez, la madurez teórica del procesa- miento de información y la apertura de la
psicología cognitiva a la interacción con otras disciplinas interesadas en la investigación de los procesos cognos- citivos.
La referencia del ordenador no tenía las mismas connotaciones para todos los investigadores. Para unos, el ordenador era
preferentemente una metáfora, una analogía que nos permitía pensar acerca de los procesos cognitivos. Para otros era
mucho más, el ordenador y la mente humana eran casos particulares de una clase de sistemas de procesamiento de inf que
Newell y Simon llamaron sistemas de símbolos físicos. El estudio de estos sistemas y la búsqueda de una teoría general de
los mismos constituyeron los objetivos de una nueva empresa científica a la que se denominó ciencia cognitiva. La ciencia
cognitiva surgió como una empresa multidisplinar en la que convergió el interés por investigar los procesos cognitivos de
disciplinas aparentemente tan dispares como la psicología cognitiva, la neurociencia, la inteligencia artificial, la lingüística,
la filosofía de la mente y la antropología.
En la investigación de los procesos perceptivos, destacaremos dos aportaciones de la ciencia cognitiva: las características
generales de la teoría de David Marr y dp los conceptos fundamentales de una alternativa q, dentro de la ciencia cognitiva,
apareció en oposición a la consideración de la mente como un sistema de símbolos físicos, conocida como conexionismo.
4.2.1 La teoría de David Marr Marr procedía del campo de la neurociencia teórica y sintetizó su teoría en su libro Vision,
una de las contribuciones más importantes del sXX al estudio de la percepción visual. Mostró pronto su insatisfacción con
el carácter fragmentario tanto de la investigación psicofísica como de la fisiológica de la visión. La psicofísica era casi
exclusivamente descriptiva y la fisiológica, aunq estaba interesada en los mecs cerebrales de la percepción, producía unas
explicaciones excesivamente simples. Las investigaciones de los 60, estaban centradas en la búsqueda de detectores, pero
el descubrimiento de detectores por sí mismos -pensaba Marr- no nos dice nada sobre cómo llevan a cabo la detección de
una característica, ni cómo se integra la inf de los difs detectores para producir una representación integrada del medio.
Para David Marr, una teoría de la visión adecuada debe interesarse por los procesos de construcción de las representaciones
que permiten al cerebro ver. Para ello se requiere una aprox computacional que, como resultado final, permita construir
máquinas que vean. La aprox de David Marr dió tanto una filosofía de la investigación computacional como una teoría
concreta de las principales fases de procesamiento visual.
Los niveles de análisis para Marr, los sistemas complejos de proces de inf, como la mente humana o el sistema visual, no
pueden ser explicados y comprendidos desde un único punto de vista. Es necesario 1º determinar los puntos de vista desde
los que el sistema puede ser estudiado y después integrar la inf de cada uno de ellos. A los puntos de vista desde los que
podemos estudiar un sistema Marr les da el nombre de niveles de análisis. Cada nivel de análisis está det por un tipo de
pregunta q nos hacemos acerca del sistema y la explicación adecuada a cada nivel de análisis es la respuesta a esa pregunta.
Propuso que los niveles de análisis funds son 3:
1) nivel computacional especifica de forma abstracta el problema que un sistema de procesamiento de inf tiene q resolver.
La pregunta es: ¿qué hace el sistema? La explicación tiene que apuntar a los objetivos y a la finalidad del sistema. Marr
usó como ej de sistema de inf una caja registradora: lo q hace son operaciones aritméticas elementales, como sumar o
multiplicar. Por tanto, una explicación de nivel computacional de una caja registradora deberá especificar las operaciones
que hace y encontrará el por qué de esas operaciones en la teoría de la aritmética. En el caso de la visión, una teoría
computacional deberá especificar los objetivos funds del sistema, ej, siguiendo a Aristóteles, puede definirse como objetivo
fund del sistema visual descubrir a partir de imágenes qué existe en el mundo y dónde está.
2) nivel Algorítmico especifica cómo se llevan a cabo las operaciones o procesos del sistema. En este nivel es necesario
especificar una representación q codifique el input y el output del sistema y un algoritmo q lleve a cabo la correspondencia
entre input y output. En el ej de la caja registradora, el nivel algorítmico deberá determinar si la representación q se usa es
decimal o binaria y cuál es el algoritmo concreto utilizado para efectuar las operaciones. En general, por tanto, este nivel se
pregunta por, y busca explicaciones reldas con el modo en que un sistema resuelve los problemas.
3) nivel de Implementación se interesa por la naturaleza de la realización física del sistema, por la tecnología que utiliza.
En el caso de la caja, las preguntas típicas de este nivel tendrían q ver con ruedas dentadas o con circuitos electrónicos; en
el caso de un sistema visual, tendrían que ver con circuitos integrados o con neuronas si se trata de un sistema biológico.
Los tres niveles de análisis pueden estar muy reldos entre sí; ej, la elección de circuitos electrónicos para construir una caja
registradora, puede condicionar la elección de una representación binaria. Pero es conveniente distinguir entre los
diferentes niveles de análisis para tener claro cual es el tipo de explicación adecuada a una det pregunta. Sobre todo es
conveniente tener claro q, al tratar de explicar el comportamiento de sistemas complejos de procesamiento de inf, carece de
sentido buscar la explicación de ese comportamiento como si solamente hubiera una única explicación posible. Una
explicación sólo tiene sentido en relación con una pregunta en un det nivel de análisis; por eso necesitamos explicaciones
en niveles distintos para entender adecuadamente esos sistemas.
Los niveles de organización del procesamiento visual para Marr, el problema fund de la percepción visual es construir
una descripción invariante de la forma y de la posición de las cosas a partir de imágenes. No es que la visión no lleve a
cabo otras funciones, como procesar el color o el movimiento. Pero estas funciones son subordinadas al objetivo
primordial que es dar inf sobre la forma de los objetos en el espacio. El sistema visual logra este objetivo a través de 3
grandes fases de procesamiento a partir de un input inicial. Este input es una imagen bidimensional de la escena visual
generada por los valores de intensidad de cada uno de los puntos de la imagen correspondientes a la excitación de los
receptores. Las 3 fases de procesamiento son y tienen como objetivo:
a) El Esbozo Primario su objetivo es hacer explícita la inf acerca de la imagen bidimensional; en primer lugar los cambios
de intensidad q hay en ella, después la distribución geométrica y la org de esos cambios. El input de esta fase es la imagen
inicial. El output está formado por un conjunto de primitivas simples -bordes, barras, manchas y terminaciones- agrupadas
de acuerdo con principios de org semejantes a los propuestos por la Gestalt. Estas primitivas constituyen los elementos
simbólicos básicos a partir de los cuales se van a construir las representaciones de las fases siguientes.
b) El esbozo 21/2-D se hace explícita la inf acerca de la orientación y de la profundidad de las superficies visibles. Tb se
especifican los contornos y las discontinuidades en orientación y profundidad en un sistema de coordenadas centradas en el
observador. Se trata por tanto de recuperar inf acerca de las superficies que conforman la escena visual en un espacio
tridimensional, pero la consecución de la 3ª dimensión no es perfecta, por eso esta fase se llama esbozo 21/2-D, ya que los
valores de orientación y de profundidad obtenidos están referidos al observador.
El procesamiento en esta fase tiene dos características: modularidad y paralelismo:
- modularidad: implica que los procesos que tienen lugar en esta fase son llevados a cabo de una forma especializada por
distintos cs del sistema visual; así mientras un módulo procesa el color, otro procesa el mov, otro la textura, etc.
- paralelismo: implica que el func de cada módulo es independiente del funcionamiento de los demás y se llevan a cabo al
mismo tiempo. El input para cada módulo de esta fase es el resultado de la fase de esbozo primario. El output de esta fase
está formado por la inf peculiar dada por cada modulo, tal como color, movimiento, etc. Pero además la integración de la
inf q cada módulo da sobre la orientación y profundidad de cada punto de la escena visual respecto al observador, permite
tb recuperar una representación de las superficies.
c) El modelo 3-D: en esta fase consigue una representación de las formas y de su org espacial en un marco de referencia
centrado en el objeto mismo, usando una representación jerárquica y modular de primitivas volumétricas y de superficie.
El input a esta última fase es el resultado de la fase anterior y el resultado final son modelos tridimensionales organizados
jerárquicamente cada uno de ellos constituido por una configuración espacial de ejes en torno a los cuales se engarzan las
primitivas volumétricas. La Figura 1.3 muestra un ej de Marr y Nishihara, de aplicación recursiva de este principio de
organización jerárquica. A distintos niveles de magnitud, una primitiva volumétrica - en este caso un cilindro- se engarza
en torno a un eje produciendo una representación de un cuerpo humano entero, un brazo, un antebrazo y una mano.
La influencia de la teoría de David Marr en la
investigación actual de la percepción visual ha sido
determinante. Muchos aspectos concretos de su teoría han
quedado sobrepasados por la investigación posterior, pero
su concepción teórica global, y sobre todo su forma de
abordar la invest han marcado un antes y un dp en la
invest de la percepción visual.
David Marr fue un auténtico pionero de la neurociencia
computacional y su aportación a la teoría de la percepción
visual es, en opinión de muchos investigadores,
comparable a la que Helmholtz realizó en su tiempo.
4.2.2 El conexionismo
La teoría de Marr es un buen ej de una teoría computacional simbólica. Al final de la primera de las fases de la teoría, el
procesamiento visual alcanza las características primitivas de una representación simbólica. Los bordes, las manchas, las
barras y las terminaciones son entidades elementales de la representación q tienen un significado porque hacen referencia a
aspectos particulares de la escena visual y son simbólicas pq tienen un significado. Cuando, en una representación, existe
una correspondencia uno a uno entre los elementos q forman la representación y los aspectos de la escena representada, se
dice de ella q es una representación local. Las representaciones simbólicas usan preferentemente representaciones locales.
A comienzos de los 80, apareció en la ciencia cognitiva una alternativa a los sistemas simbólicos: el conexionismo. Su
objetivo era aproximar la teoría de los procesos cognitivos a la teoría del cerebro. Para ello propusieron construir
representaciones con “inspiración neuronal” y procesos que funcionaran “al estilo del cerebro”, de ahí que esta aprox sea
conocida también con el nombre genérico de redes neuronales. Una red neuronal está compuesta de un conjunto de
unidades elementales de procesamiento parecidas a las neuronas del cerebro q están conectadas entre sí de una forma det.
Las conexiones entre unidades pueden ser excitatorias, si la activación de una unidad provoca un aumento en el nivel de
activación de la otra, o inhibitorias, si el nivel de activación de la segunda disminuye como consecuencia de la activación
de la primera. Las diferentes fuerzas de las conexiones excitatorias e inhibitorias entre las unidades de una red definen lo q
se llama un patrón de conectividad que puede cambiar como consecuencia de sucesivas experiencias de acuerdo con una
regla de aprendizaje. Otros conceptos importantes para entender el func de una red neuronal son: la regla de activación q
especifica la forma en q se combinan las diferentes entradas q una unidad recibe para determinar el estado de activación
de la unidad. Finalmente una red neuronal debe de concretar una función de output q determine la correspondencia entre
el estado de activación y el output del sistema, y un ambiente q especifique el medio en el q debe funcionar la red.
Fig 1.4 ej de red neuronal: las unidades están representadas por círculos y las conexiones por líneas que terminan en una
punta de flecha. La red representada en la Figura 1.4 está formada por 3 capas, cada una formada por un conjunto de
unidades elementales de procesamiento. La primera está formada por unidades de input que son activadas por el medio
ambiente en el que actúa la red. El estado de activación de las unidades de la tercera capa determina el output de la red.
Finalmente la capa intermedia esta formada por unidades ocultas, q no establecen contacto directo ni con el input ni con el
output de la red; su función es modificar las conexiones entre las unidades de input y las de output en función de la inf que
reciben tanto de otras unidades de input como de las unidades ocultas a las que se encuentran conectadas.
Las redes neuronales dan lugar a representaciones distribuidas en las que no se puede establecer una correspondencia
uno a uno entre las entidades del mundo representado y las unidades de la red. En una representación distribuida cada
entidad del mundo está representada por el patrón de activación del conjunto de unidades que forman parte de la red y, a
su vez, cada unidad de la red puede estar implicada en la representación de muchas entidades diferentes del mundo
representado. Ej: si suponemos que la red en la Fig 1.4 es una red implicada en el reconocimiento de objetos, cada unidad
puede responder a un aspecto restringido del objeto, como puede ser su color o su forma. Ante la presencia de un objeto
concreto, como puede ser una manzana, las unidades de la red responderán cada una al aspecto concreto correspondiente a
su color y a su forma, de modo que la manzana no estará representada por una única unidad sino por un conjunto de
unidades cuyo patrón conjunto de activación corresponderá a la manzana. Pero ninguna unidad en la red mantiene una
relación especial con la manzana representada; por el contrario, cualquier unidad de la red puede formar parte de otros
patrones de activación diferentes que, a su vez, correspondan a otros objetos del medio ambiente.
La investigación con redes neuronales ha puesto de manifiesto que la acción coordinada de las unidades de una red da
origen a propiedades emergentes capaces de simular procesos cognitivos. Por ello
se han convertido en un importante instrumento de formalización de teorías
psicológicas a la vez que proporcionan una forma de pensar acerca del
funcionamiento del cerebro que permite aproximar entre sí los conceptos mentales
propios de la P cognitiva y los conceptos fisiológicos propios de la neurociencia.
La utilización de modelos explicativos formulados en términos de redes neuronales
no está necesariamente reñida con la utilización de teorías simbólicas. El mismo
Marr utilizó de una forma muy pragmática ambas formas de teorizar dependiendo
del tipo de proceso q pretendía estudiar.
4.3 Los avances de la fisiología
Durante los años 50 la investigación fisiológica estableció un contacto más directo con los problemas propios de la
investigación psicológica de la percepción. Antes los fisiólogos se contentaban con describir cómo los órganos sensoriales
y sus nervios correspondientes presentaban una imagen del mundo externo al cerebro y consideraban que era tarea de los
psicólogos la investigación de lo que ocurría después.
Con los microelectrodos y el registro unicelular, la implicación de los fisiólogos en la investigación perceptiva se hizo
habitual y así continúa hasta nuestros días.
Principales hallazgos que llevaron a conceptuar el cerebro como un sistema de procesamiento de inf: las invests sobre la
retina de las ranas por Barlow y Lettvin, Maturana, McCulloch y Pitts. Estos descubrieron un tipo particular de células
ganglionares en su retina q respondían sólo cuando un pequeño disco oscuro aparecía en su campo de visión. Si ese mismo
E se presentaba a una rana intacta, ésta se orientaba hacia el objeto e iniciaba Rs tendentes a cazar y comerse el objeto. Los
investigadores denominaron a esas células “detectores de bichos” pq parecían sintonizadas a la presencia de los pequeños
insectos parte de su dieta. La significación teórica iba más allá de la mera curiosidad: “La retina de la rana era capaz de
transmitir un mapa de las características relevantes en el mundo del animal, y su función principal no era tanto transformar
los distintos niveles de luminancia en impulsos nerviosos de diferente frecuencia, cuanto responder de forma invariante a
distintos patrones de estimulación externa a pesar de los cambios en luminancia” (Barlow, 1972).
A partir de estos descubrimientos, la investigación neurofisiológica produjo una serie de hallazgos que acabarían por
revolucionar la forma de pensar acerca de las neuronas que la fisiología había mantenido hasta entonces.
Hartline y Barlow demostraron la existencia de inhibición lateral, mec periférico de interacción neuronal capaz de explicar
fenómenos perceptivos como el contraste simultáneo de la claridad. Hubel y Wiesel publicaron sus 1ºs trabajos sobre las
neuronas de la corteza estriada de los gatos que les valió el premio Nobel de fisiología y medicina en 1981.
A lo largo de los 60, las invests de los De Valois, acabaron por dar la razón que le correspondía a la teoría de los procesos
oponentes del color que Hering había mantenido en el siglo XIX y Hurvich y Jameson habían reformulado unos años antes.
En 1967, Barlow, Blakemore y Pettigrew encontraron células especializadas en la detección de la profundidad binocular.
Todos estos descubrimientos llevaron a los investigadores al convencimiento de que cada neurona individual en el sistema
visual era capaz de llevar a cabo tareas mucho más complejas que las q se había pensado. Las neuronas no se limitaban a
transmitir inf más o menos precisa sobre la intensidad luminosa de la imagen, sino que eran capaces de informar sobre las
características elementales de un patrón y sobre la org jerárquica de esos elementos. Eran capaces de detectar la distancia a
la q estaban los objetos, y de ignorar las causas irrelevantes de las variaciones en iluminación. Aparecían cada vez de
forma más clara como unidades elementales y el cerebro como un sistema complejo de procesamiento de inf.
Este cambio en la forma de entender el func de las neuronas y del cerebro, llevó a una convergencia de puntos de vista
entre la P y la neurociencia y tanto la mente como el cerebro comenzaron a ser considerados como sistemas complejos de
procesamiento de inf. Desde entonces la relación entre P cognitiva y neurociencias ha sido cada vez más estrecha hasta dar
origen a la moderna Neurociencia Cognitiva: la empresa ínterdisciplinaria q investiga la rel entre procesos psicológicos y
estructuras cerebrales mediante la utilización de técnicas de neuroimagen. Estas técnicas, tales como el PET o la fMRI,
permiten el registro de la actividad cerebral durante la realización de una det tarea.
5. MARCO TEÓRICO
En general la orientación de este libro se enmarca dentro de la aproximación cognitiva del procesamiento de inf. En la
medida en que el computacionalismo representa la madurez del procesamiento de información consideramos que el marco
general de la teoría de la visión propuesta por David Marr es un punto de inflexión en la investigación perceptiva que el
estudiante debe conocer porque representa el nuevo punto de partida de la moderna teoría de la percepción visual.
5.1 La función de la visión En 1r lugar una teoría de la percepción visual debe tomar considerar la función que hace la
visión en el contexto de la interacción del O con su medio. Dentro del objetivo general de supervivencia y reproducción, la
visión da inf precisa y a distancia sobre los objetos y sobre la posición espacial de los mismos en el medio a partir de la luz
que los objetos emiten o reflejan. Con esta inf el O es capaz de dirige las acciones que garantizan su supervivencia.
Un requisito indispensable para la supervivencia del O es la precisión de la visión. No quiere esto decir que la visión sea
infalible; a veces nos engaña, por eso las ilusiones ópticas son un importante conjunto de fenómenos que una teoría de la
percepción debe explicar. Sin embargo las ilusiones no son la norma sino la excepción en el funcionamiento de la visión.
Normalmente la visión es verídica y da al O una inf precisa como para guiar sus acciones de forma eficaz.
La propiedad q tiene la inf q da la visión es que es una inf a distancia, lo q representa un valor adicional xa la supervivencia
pues le permite adquirirla sin entrar en contacto con los objetos ni comprometer su seguridad. La visión comparte esta
carac con la audición y el olfato pero la inf espacial de estos sentidos no es tan precisa como la dada por la visión, al menos
en las personas y gran parte de animales. El tacto y el gusto tb dan inf xo es necesario q éstos entren en contacto con el O.
La característica más específica y definitoria de la visión es q la inf sobre los objetos y sobre su posición espacial se
obtiene a partir de la luz q emiten o reflejan. Pero la luz q llega al observador depende de muchos fs: de la iluminación q el
objeto o la escena reciben, de la reflectancia de sus superficies, de su geometría, del punto de vista del observador, etc.
Pero ¿Cómo puede el sistema visual darnos la percepción de objetos y escenas constantes a partir de una inf tan cambiante?
Este es el problema central de la visión que tenemos q resolver. Al plantear así el problema adoptamos una postura realista
afín a la propuesta por Gibson. Consideramos los sentidos, y la visión, como canales xa la percerción del mundo real
externo. Por eso el problema central de la percepción consiste en recuperar las propiedades válidas de ese mundo externo a
partir de la inf de los sentidos.
5.2 El procesamiento de la información 2º: una teoría de la visión debe preguntarse por la forma en que el sistema visual
resuelve el problema planteado. Para Gibson se reducía a identificar en la estimulación las Vs responsables de la constancia
perceptiva, los invariantes en rel a los cambios en el punto de vista del observador y a los cambios en iluminación. Para
nosotros, la identificación de los aspectos relevantes en la estimulación es solamente el primer paso de una cadena de
eventos. Es necesario considerar las diferentes fases mediante las cuales el sistema visual procesa la inf estimular y la
convierte en conoc para el O del medio en q está. Llevar a cabo este análisis del procesamiento de la inf implica describir
los diferentes tipos de representaciones que el sistema visual construye y los procesos q permiten la codificación de los Es,
la progresiva org de la escena visual y la construcción de las representaciones fundamentales.
El concepto de representación es central en una teoría del proces de inf, como un complejo sistema de correspondencias
entre caracs del medio y códigos neuronales q permiten al sistema visual recuperar internamente la inf relevante del medio.
Fig 1.5: principales fases de procesamiento en el proceso de consecución de la representación final que nos
permite percibir visualmente una escena o un objeto.
Las tres primeras corresponden en general a las tres fases propuestas por Marr.
1ª: centrada en el análisis de la imagen bidimensional proporcionada por la distribución de luminancia que
llega a nuestros receptores y que es objeto del procesamiento visual inicial.
2ª: dedicada a la recuperación del trazado tridimensional de las superficies visibles.
3ª: a la obtención de la representación volumétrica de los objetos en coordenadas centradas en los objetos
mismos. Al final de la 3ª fase el sistema visual ha sido capaz de obtener una representación perceptiva de los
objetos individuales y de la escena concreta de la estimulación. Con todo, el procesamiento perceptivo no
termina ahí; es preciso una última fase en la q las representaciones perceptivas alcanzan un significado al
entrar en rel con el mundo conceptual del observador. En esta última, el mundo percibido dado x los
sentidos es asimilado e integrado en el S de conoc del perceptor.
Este esquema general de procesamiento, constituye el marco general de nuestra postura constructivista en el
sentido de que considera necesario, para poder explicar adecuadamente la percepción visual, tomar en
consideración tanto los procesos que el sistema visual pone en funcionamiento para obtener una
representación del medio, como el conocimiento del observador que da significado a lo percibido. Nuestra
postura simpatiza con la teoría clásica en su consideración constructivista de la percepción pero no suscribe
en su totalidad sus postulados empiristas. El empirismo que inspiró la teoría clásica solamente tomó en
consideración la exp del sujeto adquirida a través del A y retenida en la M. Nosotros consideramos necesario además
considerar la evolución de las especies, q nos da desde el nacimiento unos mecs cuya maduración y func dependen de la
exp individual y que está dotado de pautas de func predetdas. La disyuntiva entre herencia o medio propuesta por innatistas
y empiristas obligando a elegir una de las opciones carece de sentido en la actualidad. No se trata ya de optar por principio
por una de ellas sino de determinar empíricamente el papel de cada una de ellas en la explicación de la percepción.
5.3 Mecanismos neuronales Finalmente, una teoría de la percepción debe prestar at a las estructuras cerebrales q la hacen
posible. Aunq esto parece evidente, la historia de la invest muestra q los contactos entre la psicología y la fisiología no han
sido habituales aunq afortunadamente son cada vez más estrechos. El estudio de la percepción visual formaba parte de la
óptica fisiológica tal como la entendía Helmholtz, pero el desarrollo de la P de la percepción visual se centró en el análisis
de la experiencia consciente y en el estudio de los fs estimulares q determinaban esos estados de consciencia. La referencia
a mecs fisiológicos se limitaba a los órganos de los sentidos. A partir de la mitad del pasado siglo el panorama empezó a
cambiar y ahora la relación entre psicología y fisiología del cerebro es cada vez más estrecha. La moderna neurociencia
cognitiva permite relacionar los fenómenos perceptivos trad estudiados por la P y las estructuras cerebrales de una forma q
hasta ahora no había sido posible. Todo hace pensar q esta nueva empresa multidisciplinar marcará el futuro de la invest
sobre percepción, y probablemente de la investigación psicológica en general.
T.2 LA PERCEPCIÓN DEL COLOR La percepción del color es central en el estudio de la percepción visual por:
1) recoge aportaciones de disciplinas muy diversas; la física, la fisiología, las ciencias de la computación, la lingüística y la
antropología social, que junto con la P han contribuido a mejorar nuestro conocimiento sobre la percepción del color.
2) nuestros conocs sobre el procesamiento del color están bien fundamentados. En comparación con otras áreas de la invest
perceptiva, están mejor fundamentados y el grado de acuerdo entre investigadores es mayor.
3) el procesamiento del color es un buen ej de la forma en q teorías consideradas opuestas pueden ser complementarias si
se amplía el marco teórico. La teoría tricromática y la de los procesos oponentes fueron consideradas irreconciliables para
explicar los fenómenos de la percepción del color. Hoy sabemos q depende del nivel de org perceptiva q consideremos.
El interés de la percepción del color es comprender su apariencia. ¿Pq los colores se muestran en nuestra exp consciente de
la forma en q lo hacen? La R: 3 principios: tricromaticidad, procesamiento oponente y constancia, q pertenecen a
niveles bajo e intermedio en el procesamiento perceptivo del color.
1. LA APARIENCIA DEL COLOR La 1ª aportación a la apariencia del color fué de Newton sobre la composición
espectral de la luz. Cuando hizo pasar un rayo de luz solar a través de un prisma observó la aparición de un arco iris
mostrando los colores del espectro luminoso. Comprobó q estos colores eran fundamentales, pq haciendo pasar un rayo de
cada color por un 2º prisma, el color no volvía a descomponerse con un 2º arco iris. Luz puede ser descrita en términos de:
- luz como onda: útil para comprender su composición espectral y los aspectos cualitativos del color, y
- luz como corpúsculo: para referirnos a la cantidad de luz asociada a los colores.
1. La cantidad de luz y su medida las medidas de la cantidad de luz dimanan de una concepción corpuscular de la luz.
Así, la luz está compuesta por paquetes elementales (“cuantos”) de energía, llamados fotones, que constituyen la unidad de
medida de la cantidad de luz. La medición de la cantidad de luz puede hacerse desde dos perspectivas:
1) la radiometría, considera la luz como cualquier otro tipo de energía, sin hacer referencia al uso q puede hacerse de ella.
2) la fotometría, considera únicamente la cantidad de luz q es visualmente efectiva, es decir la cantidad de luz q se puede
percibir, e introduce un factor de corrección en las medidas radiométricas basado en la sensibilidad de nuestros receptores.
De entre los diferentes conceptos fotométricos son importantes:
Iluminancia (E): cantidad de luz visualmente efectiva q incide sobre una superficie. Ej: la cantidad de luz procedente de
un rayo de luz que incide sobre una mesa. La unidad de medida: el lux. Su valor depende de dos factores:
- de la distancia entre la superficie iluminada y la fuente de iluminación, siendo menor cuanto mayor es la distancia, y
- del ángulo de desviación de la perpendicular; la cantidad de iluminancia es menor cuanto mayor es dicho ángulo.
Luminancia (L): cantidad de luz visualmente efectiva emitida x una fuente de luz extensa. Ej: la cantidad de luz reflejada
por una mesa. Unidad de medida: candela por 𝑚2 (cd · m2). Puesto q una parte importante de las fuentes luminosas
extensas son superficies q reflejan la luz q reciben, la proporción de cantidad de luz recibida q una superficie emite es el
cociente entre la cantidad de luz emitida (luminancia) y la cantidad de luz recibida (iluminancia) y se llama reflectancia.
2. El espectro electromagnético la luz como onda nos permite relacionarla con los difs tipos de energía q componen el
espectro electromagnético. Fig 2.1 (97), el espectro electromagnético ordena los distintos tipos de energía en función de la
longitud de onda q caracteriza a cada una de ellas. Sólo una pequeña parte del espectro electromagnético, la comprendida
entre los 400 y 700 nm2, tiene interés pq es la franja de longitudes de onda q tiene efectividad visual y el espectro visible.
El diferente grado de refracción de las distintas longitudes de onda permite observar los cs del espectro luminoso cuando,
como hizo Newton, se hace pasar un rayo de luz solar a través de un prisma. Las longitudes de onda cortas, que son más
fuertemente refractadas, presentan una apariencia violeta (400 nm)3 o azulada (480 nm) cuando se las ve sobre fondo
oscuro, mientras que las longitudes de onda más largas tienen apariencia anaranjada (610 nm) o roja (700 nm) cuando son
vistas sobre fondo oscuro. El verde (540 nm) o el amarillo (580 nm) ocupan posiciones intermedias en el espectro visible.
La distribución espectral de una luz es la función que describe la cantidad de luz q contiene en cada una de las longitudes
de onda. La luz solar contiene una cantidad aprox igual en todas las longitudes de onda aunque tanto al salir como al
ponerse el sol predomina la presencia de las longitudes de onda larga. Una lámpara de tungsteno, como las que se usan en
la iluminación doméstica, contiene muy poca luz en las longitudes de onda cortas y, dentro del espectro visible, la cantidad
de luz que proyecta está linealmente relda con la longitud de onda por lo que los colores rojos tienden a predominar en
ambientes iluminados con este tipo de lámparas. En la luz proveniente de una lámpara fluorescente todas las longitudes
están relativamente bien representadas y, aunque la distribución no es igual para todas las longitudes de onda, es un tipo de
luz que se aproxima a la luz natural. La distribución espectral de las fuentes de iluminación es un factor determinante de la
estimulación en la percepción del color y debe ser tomada seriamente en consideración por el investigador.
3. La codificación del color Newton fue consciente de q el color no era una propiedad de la luz y de que no se podía decir
q los rayos de luz tuvieran un color det. El color es una sensación consciente resultante de la interacción de nuestros
sentidos con la estimulación luminosa. La longitud de onda es el parámetro estimular preferentemente reldo con la
sensación de color pero solo es el 1r paso en la cadena causal de eventos que determinan esa sensación. Al conjunto de
procesos q completan esa cadena causal podemos llamarlos procesos de codificación del color: encargados de transformar
un código físico, en términos de longitudes de onda, en un código psicológico, en términos de exps conscientes de color.
Las estrategias científicas utilizadas para estudiar la codificación del color son de dos tipos: psicofísicas y fisiológicas.
- Las estrategias psicofísicas estudian la rel entre la manipulación de las características del E luminoso y la exp de color.
- La psicofísica se interesa por describir y medir la experiencia sensorial y por relacionar las caracs de esa exp con los
parámetros de la estimulación. Estudian la relación tanto de las caras estimulares como de la exp sensorial con los distintos
cs del sistema visual. Se interesa por identificar esos cs y determinar su rel con los parámetros estimulares y con la exp de
color. La investigación psicofísica ha sido la primera y ha preparado el terreno que ha hecho posible la investigación
fisiológica. En la actualidad los dos tipos de estrategias son usadas complementariamente.
4. Los atributos del color 3 atributos psicológicos básicos: matiz, saturación y brillo/claridad. Hacen referencia a nuestra
experiencia consciente y deben ser diferenciados de las dims físicas del estímulo con las q están reldas.
El matiz: diferencia un color de otro; nos permite clasificarlo con términos como rojo, verde o azul. Como vimos, en el
espectro luminoso hay una alta correlación entre longitud de onda y matiz, como aparece en el arco iris. Estos colores
forman parte del grupo de colores espectrales. Pero no confundir el matiz con la longitud de onda. Hay colores q no están
reldos con una longitud de onda det, como los colores no espectrales, como los púrpuras y morados, q sólo pueden
obtenerse mediante la mezcla de dos o más luces monocromáticas. A los colores tanto espectrales como no espectrales se
llaman cromáticos. Otros como el blanco, gris y negro se comprenden mejor en rel con la dim de claridad q con el matiz, y
se llaman acromáticos. En sentido estricto, el matiz hace referencia a los aspectos cualitativamente diferentes de la exp de
color q tienen rel con diferencias de longitudes de onda o con mezclas de difs longitudes de onda.
La saturación: pureza cromática q tiene el color. Permite hacer un juicio sobre el grado en que un E cromático difiere de
un acromático independientemente de su brillo. El E acromático de referencia suele ser el blanco, por ello tb suele definirse
como el grado de mezcla con blanco que presenta un E cromático. Ej: un color rosa es un rojo con poca saturación
resultante de la mezcla de rojo con blanco. Para los colores espectrales, el referente de máxima saturación es el aspecto que
presenta en el espectro visible, ej los colores que se pueden observar en la Fig 2.1.
El brillo y la claridad: dos atributos distintos aunque reldos.
- brillo: sensación visual x el q un E visual aparece más o menos intenso. Hace ref a la mayor o menor cantidad de luz q un
E visual parece emitir y está preferentemente reldo con la luminancia x lo q a veces es definido como luminancia percibida.
Cuando un E varía en brillo, oscila entre valores q van de brillante a tenue. Preferentemente asociado a Es q emiten luz.
- claridad: asociado a la percepción de Es que reflejan luz, como son la mayor parte de las superficies. Está relda más con
la reflectancia, por lo q a veces se define como reflectancia percibida. Todas las superficies coloreadas tienen algún grado
de claridad, oscilando entre valores que van de clara a oscura, pero estos cambios de claridad aparecen de forma más
patente en las superficies acromáticas donde los cambios en claridad producen la aparición de colores que oscilan entre los
blancos y los negros pasando x una amplia gama de grises. Por eso es útil asociar la claridad con la dim blanco-gris-negro
y usar los términos claro y oscuro por aproximación a esta dim. Es conveniente reservar el término brillo para referirse a
los cambios de intensidad de fuentes q emiten luz y usar el término claridad cuando se trata de superficies q reflejan luz.
5. Sistemas de ordenación de los colores 2 sistemas de org del color basados en proceds psicofísicos: uno basado en
juicios sobre la semejanza de pequeñas muestras de material coloreado y otro basado en operaciones d igualación de luces.
El de Munsell es uno de los 1ºs sistemas para medir la apariencia del color sobre la base de las 3 dims de matiz, claridad y
saturación. El segundo ha servido de fundamento a la colorimetría.
- el sistema de colores de Munsell: En 1905 Munsell publicó un sistema de org de los colores en forma de libro, integrado
por un conjunto de pequeños trozos de papel coloreado de igual tamaño que varían en matiz, valor y croma. Los trozos
están organizados de forma q difieren entre sí en intervalos perceptivamente iguales en cada una de las 3 dims cuando se
ven en condiciones perceptivas normalizadas, es decir, a la luz del día y sobre fondo entre el blanco y el gris medio.
Cada pág del libro presenta un conjunto de trozos coloreados q son del mismo matiz pero varían en valor y en croma.
Cada pág está organizada de forma q el eje vertical representa el valor en una escala de 10 intervalos, con el negro en la
parte de abajo, el blanco arriba y la gama intermedia de grises. El eje horizontal representa el croma en una escala de 5
intervalos situando el mínimo a la izquierda -junto al eje del valor- y el máximo a la derecha y aumentando la puntuación
de dos en dos para cada intervalo.
Fig 2.2.B, cada pág está formada por un conjunto de filas y de columnas. Cada
una de las filas corresponde a una puntuación diferente en valor y dentro de cada
fila los trozos tienen el mismo valor y varían en croma estando los más saturados
en la parte derecha de la pág. Así mismo, cada una de las columnas corresponde
a una puntuación diferente de croma y dentro de cada columna los trozos tienen
la misma puntuación en croma y varían en valor de menos (abajo) a más (arriba).
Fig 2.2.B, sólo mezclas de det valor y croma son posibles; la gama de posibles
mezclas está encerrada en el espacio delimitado por la curva.
Si colocáramos el libro de pié y abriéramos las págs alrededor del eje central, la
figura geométrica generada se aproximaría a un cilindro como el que presenta la
Figura 2.2.A, con el eje principal del cilindro representando el valor, el radio del
cilindro representando el croma y el matiz situado en torno al perímetro del
cilindro.
La Figura 2.2.C, mediante un corte perpendicular al eje central, permite representar la org del sistema de Munsell, con el
valor situado en el centro, el matiz a lo largo del perímetro de la circunferencia y el croma a lo largo del radio. La escala de
matices en torno a la circunferencia consta de 10 segmentos con 10 matices cada uno. Las referencias van en intervalos de
veinte en 20 puntos del rojo (SR) al amarillo (5Y), al verde (5G), al azul (5B), al púrpura (5P) y vuelta al rojo. Intercalados
entre esto se indican referencias correspondientes a mezclas intermedias. En realidad el libro de Munsell no presenta los
100 posibles matices sino sólo 40. Cada trozo de color se identifica por 3 símbolos, ej 2,5 GB 5/10, en donde el 1r símbolo
(2,5 GB) indica el matiz (2,5 en el segmento Verde-Azul); el 2º (5) indica el nivel de valor y el 3º (10) el nivel de croma.
El sistema creado de Munsell fue anterior al q veremos más adelante, que es el sistema normalizado de la Comisión
Internacional de Iluminación (CIE). Con posterioridad a la normalización llevada a cabo x la CIE, la Munsell Corporation
acordó producir los trozos coloreados de cada muestra de acuerdo con los valores de la CIE y no x medio de mezclas de
pigmentos.
- la codificación de la longitud de onda: El 1r paso en la codificación de la longitud de onda tiene lugar en el nivel de los
receptores. 2 clases d receptores visuales: bastoncillos y conos, determinan 2 sistemas de visión con caracs muy diferentes.
- El sistema de visión escotópica depende de los bastoncillos, y está adaptado a las sits de bajo nivel de iluminación. Los
bastoncillos son extremadamente sensibles a la luz y no difieren entre sí en su respuesta a la longitud de onda. Pero, la
sensibilidad de los bastoncillos no es la misma para cada una de las longitudes de onda.
El estudio psicofísico de la respuesta del sistema de visión escotópica a la longitud de onda de una luz se realiza mediante
un experimento de igualación escotópica. En esta sit experimental se presenta un campo visual -por ejemplo, un círculo-
dividido en dos mitades. Una de las dos mitades contiene la luz de prueba, que puede tener una distribución espectral fija,
es decir un conjunto det de longitudes de onda. La otra mitad contiene una luz primaria, q tiene una distribución espectral
fija y sólo puede variar en intensidad. La tarea del observador es manipular la intensidad de la luz primaria hasta que
consigue igualarla a la luz de prueba. El resultado es que, en condiciones de baja iluminación -condiciones escotópicas- los
observadores pueden ajustar la intensidad de la luz primaria hasta igualar cualquier luz de prueba. Esto muestra q la
distribución espectral relativa de la luz es irrelevante para el func del sistema visual escotópico; éste sólo es sensible a la
cantidad de luz. Ahora bien, la intensidad de la luz primaria para conseguir la igualación no es la misma para todas las
luces de prueba, lo que indica que el sistema de visión escotópica es más sensible a unas longitudes de onda que a otras.
Fig 2.3 muestra la función de sensibilidad espectral escotópica. Como se ve, el sistema es poco sensible a las longitudes de
onda extremas y muestra su máxima sensibilidad a las longitudes de onda medias en el entorno de los 510 nm.
- El sistema de visión fotópica depende de los conos, está adaptado a sits de alta iluminación y está directamente reldo con
la codificación diferencial de la longitud de onda. No todos los conos responden de la misma forma a la longitud de onda,
unos son más sensibles a las longitudes cortas, otros a las longitudes de onda medias y otros a las largas. El estudio
psicofísico de la respuesta del sistema de visión fotópica a la longitud de onda de una luz se realiza mediante un
experimento de igualación de color, q es el fundamento de la colorimetría y a partir de Helmholtz y Maxwell los
resultados obtenidos en este tipo de experimento dieron los datos fundamentales para su teoría del color.
La sit experimental en un experimento de igualación de color es similar a la del exp de igualación escotópica. El campo
visual dividido en dos mitades contiene una luz de prueba q puede tener cualquier distribución espectral y la tarea consiste
en manipular la intensidad de 3 luces primarias hasta conseguir que los dos lados del campo visual sean indistinguibles.
Durante todo el exp, la distribución espectral de las 3 luces primarias permanece constante y el observador sólo puede
modificar la cantidad de cada luz primaria. El resultado es q, en condiciones de alta iluminación -condiciones fotópicas- los
observadores pueden igualar todas las luces de prueba manipulando las cantidades de luz de las 3 luces primarias. Las dos
partes del campo visual, aunq tienen la misma apariencia, no tienen la misma distribución espectral por lo q al color
resultante de la mezcla de las 3 luces primarias se llama metámero.
El conjunto de luces primarias que se pueden utilizar en un experimento
de igualación de color debe cumplir una condición y es que ninguno de
los colores primarios pueda obtenerse por la mezcla de los otros dos. En
la práctica se ha comprobado que para obtener conjuntos de tres luces
que puedan ser utilizadas como primarias, sus longitudes de onda deben
estar ampliamente separadas en el espectro visible. Para tipificar las
referencias calorimétricas, La Comisión Internacional de Iluminación
(CIE), ha utilizado como primarios de su sistema RGB (rojo, verde, azul)
tres luces de 700, 546.1 y 435.8 nm
La Figura 2.4 muestra la función resultante de un experimento que usó
estas luces primarias. En ella se especifica las cantidades de R [r (/..)], G
[g (/..)] y B [b (/..)] necesarias para igualar los colores de prueba
correspondientes al espectro visible. Estas cantidades se denominan
valores triestímulo y están expresadas en unidades tricromáticas.
Véase en la Fig 2.4 q para igualar las longitudes de onda entre los 435.8 y los 546.1 nm los valores de R q hay q añadir a la
mezcla tienen un valor negativo. Esto significa q la igualación de los colores correspondientes a las longitudes de onda
comprendidas en ese rango no puede lograrse mediante la mezcla de las tres luces primarias, pero sí se logra si la cantidad
de R se mezcla con la luz del E de prueba. En este caso lo q se hace es disminuir la saturación del E de prueba y lograr de
esta forma q el color resultante sea igualado x una mezcla de G y B. Así, en sentido estricto no es verdad q la apariencia de
cualquier color pueda ser igualada por la mezcla de 3 luces primarias, pero sí es verdad q la igualación de cualquier color
puede lograrse mediante la manipulación de 3 luces primarias lo q permite establecer un sistema descriptivo basado en 3
luces primarias q incluya todos los colores.
La ecuación del color es la expresión q determina la cantidad de cada luz primaria necesaria para lograr la igualación del
color (E) correspondiente a una det longitud de onda (A.). Ej: con ref a la Fig 2.4, el color correspondiente a una longitud
de onda de 475 nm tiene la siguiente ecuación del color: 𝐄𝟒𝟕𝟓 = -0.045R + 0.032G + 0.186B
En este caso ha sido necesario proyectar 0,045 unidades tricromáticas de R en el campo de prueba para lograr la
igualación, por eso aparece como un valor negativo en la ecuación.
La mezcla de luces puede expresarse en términos de una ecuación lineal porque cumple las propiedades de:
La homogeneidad supone q una igualación persiste si ambos términos de la ecuación se multiplican por una constante.
La superposición supone q si a ambos lados de la ecuación se suma una constante, la igualación persiste. Esta propiedad
suele conocerse con el nombre de ley aditiva de Grassmann. Aunque esté implícitamente supuesto, es conveniente caer en
la cuenta de que la mezcla de colores tb tiene las propiedades simétrica y transitiva
- el diagrama de cromaticidad: como en toda mezcla de luces, la cantidad de luz en la mezcla es igual a la suma de las
cantidades de cada luz primaria y la apariencia de la mezcla no depende de los valores triestímulo absolutos, se puede
definir un sistema de coordenadas basado en la contribución proporcional de cada luz primaria al total de la mezcla. Ej, la
proporción de R a la mezcla viene dada por la ecuación:

de igual manera puede determinarse la proporción de G y de B. A los valores r, g y b q representan la contribución


proporcional de cada luz primaria a la mezcla se les llama coordenadas de cromaticidad. Un sistema de representación de
los colores basado en coordenadas de cromaticidad puede usar solo 2 coordenadas ya q el valor de la 3ª coordenada viene
det x la diferencia entre uno y la suma de los valores de las dos coordenadas q se usan en la representación bidimensional.
Éste es el caso del diagrama de cromaticidad de la CIE que aparece en la Fig 2.5. Este diagrama está basado en el sistema
X Y Z cuyos valores primarios no corresponden a un conjunto particular de luces primarias sino que son transformaciones
lineales del sistema R G B. Estas transformaciones se hicieron con el propósito de tipificar la representación y teniendo en
cuenta una serie de ventajas, entre ellas la de q los valores triestímulo fueran todos positivos.
En la Figura 2.5, puede verse que las coordenadas X e Y son
suficientes para construir un sistema de representación de todos los
colores. En el perímetro de la línea curva continua se representan las
distintas longitudes del espectro luminoso con sus correspondientes
matices de color en el grado máximo de pureza de excitación. La
línea recta que une el punto de los 400 nm con el de los 700 nm
corresponde a la zona de colores púrpura que no son espectrales. En
el centro del diagrama se sitúa la zona de colores acromáticos con el
punto D correspondiente al valor del estímulo acromático que sirve
de referencia al sistema de unidades tricromáticas usado. Para los
colores situados dentro del diagrama de cromaticidad puede
determinarse su longitud de onda dominante, si la tienen, así como
su pureza de excitación. La longitud de onda dominante de un E de
color está correlda con el matiz perceptivo del mismo. En el
diagrama de cromaticidad se puede determinar mediante una línea q,
trazada desde el punto de referencia D y pasando por el punto
correspondiente al color q se quiere determinar (Q) corte el
perímetro del diagrama. El punto de intersección determina la
longitud de onda dominante (A,d). La pureza de excitación está correlacionada con la saturación y es fácil de entender por
referencia a la recta menciona- da en la definición anterior. La pureza de excitación es el cociente entre la distancia desde
el punto de referencia D al punto correspondiente al color (Q) y la distancia de la recta que une D con A,d pasando por Q.
La pureza de excitación es cero cuando D y Q coinciden y alcanza el valor de 1 cuando Q y A,d coinciden.
El diagrama de cromaticidad nos permite también determinar los pares de colores complementarios10, que son aquellas
parejas de colores que, mezcladas en proporciones adecuadas, producen una igualación con un color acromático
determinado (el de referencia, que en este caso es el blanco). En el diagrama de cromaticidad, los puntos opuestos del
perímetro que están unidos por una recta que pasa por el punto de referencia D, determinan longitudes de onda que son
complementarias. No todas las longitudes de onda tienen complementaria. Como puede verse en el diagrama de la Figura
2.4, los Es de color de longitudes de onda comprendida entre aprox 493,3 y 566,5 no tienen complementario. El punto
opuesto a estas longitudes de onda en el diagrama cae en la recta de los colores púrpura que no son colores espectrales.
La mezcla de pigmentos
Como hemos visto, en este tipo de mezcla de luces de colores, la resultante de la mezcla es igual a la suma de la cantidad
de luz de las luces primarias, por ello se llama tb mezcla aditiva de colores. Pero no toda mezcla de colores es aditiva. Hay
sits en q la resultante de una mezcla no es aditiva respecto a sus cs. El caso más frecuente de mezcla no aditiva es la mezcla
de pigmentos, como la de un pintor. Esta se llama mezcla sustractiva pq hay q considerar las longitudes de onda q son
absorbidas y las q son reflejadas por los pigmentos. Ej: un pigmento azul absorbe longitudes de onda largas y refleja las
cortas q son las q le dan la apariencia azul. Por el contrario, un pigmento amarillo absorbe longitudes de onda cortas y
refleja longitudes de onda largas. En la mezcla de ambos pigmentos, el azul absorbe las largas y el amarillo las cortas por
lo q en la mezcla las longitudes de onda más reflejadas son las medias, q producen una sensación verde. Este resultado es
la consecuencia de una supresión de longitudes de onda provocada por la reflectancia particular de cada pigmento. En una
mezcla de luces, realizada en las debidas proporciones, la mezcla de azul y amarillo hubiera producido un efecto gris ya
que azul y amarillo son colores complementarios.
2. TRICROMATICIDAD
La experimentación con mezcla de luces fue el fund más sólido de la teoría tricromática del color. Propuesta en 1777 por
G. Palmer e independientemente vuelta a descubrir por T. Young en 1802. Dp elaborada por Maxwell y Helmholtz y
conocida como la teoría tricromática de Young y Helmholtz.
- En su vertiente psicofísica, defendía que las sensaciones de color fundamentales eran 3: rojo, verde y azul.
- En su vertiente fisiológica, mantenía la existencia de 3 tipos de receptores sensibles a diferentes longitudes de onda.
Según Helmholtz, cada uno de los receptores respondía preferentemente a un tipo de longitud de onda, uno a las cortas,
otro a las medias y otro a las largas. No obstante, cada uno de ellos era diferencialmente sensible a un rango de longitudes
de onda amplio, por lo q se daba un cierto solapamiento entre las distribuciones de sensibilidad de los tres receptores. Cada
uno de los receptores, considerado de forma aislada, era ciego al color; pero, debido al solapamiento de las funciones de
sensibilidad, cualquier longitud de onda era capaz de estimular de forma diferente a cada receptor. El patrón de activación
producido en los receptores por las distintas longitudes de onda era el responsable directo de la experiencia de color.
La teoría tricromática tenía a su favor los resultados provenientes de experimentos de mezcla de luces como los vistos.
Además explica bien las deficiencias cromáticas. La fisiología actual nos permite afirmar q, en el nivel de los receptores, la
codificación del color tiene lugar de acuerdo con los postulados fundamentales de la teoría tricromática.
Las deficiencias cromáticas
- acromatopsia: verdadera ceguera al color, en muy raros casos, reduce la visión a la dimensión de claridad en la gama de
blancos, grises y negros. Los q la padecen no necesitan más que una luz primaria en un experimento de igualación ya q
sólo pueden basar su discriminación en la dimensión de brillo-claridad.
- dicromatopsia: más frecuente. Quien la padece sólo tiene dos de los 3 tipos de receptores dl color, por lo q un dicrómata
sólo necesita usar dos luces primarias para igualar una luz de prueba en un exp de igualación de colores. Dependiendo del
tipo de receptor que falte, pueden presentarse tres tipos de dicromatopsia:
protanopas: carecen de receptores de onda larga. Si una luz roja se hace más brillante q una luz verde, confundirá estos
colores.
deuteranopas: carecen de receptores de onda media. Es más común que la protanopia y afecta tb a la discriminación entre
el verde y el rojo. La apariencia del color para protanopas y deuteranopas es similar, las longitudes de onda cortas tienden a
aparecer azules y las largas tienden a aparecer amarillas. En medio de estas dos bandas hay un punto acromático de color
gris q permite discriminar a protanopas de deuteranopas ya q para los 1ºs tiene lugar en los 492 nm y para los 2ºs en los
498 nm.
tritanopas: carecen de receptores de ondas cortas y son poco frecuentes entre la población (1 entre 20.000 personas). La
apariencia q toman los colores para el tritanopa es de verde para las longitudes de onda cortas y rojo para las largas. El
punto gris de neutralidad cromática lo presentan en los 570 nm.
Existen otros tipos de anomalías llamadas tricromáticas q son debidas a un func anómalo de los receptores. Quienes las
padecen pueden igualar cualquier color con una mezcla de 3 luces primarias pero la mezcla difiere de la usada por las
personas normales. La investigación del color el estudio de las deficiencias cromáticas influyó poderosamente a favor de la
teoría tricromática. No obstante, la evidencia determinante a favor de la teoría la aportó la invest directa de los receptores.
Fisiología de los fotorreceptores
A mediados del siglo veinte la investigación fisiológica fue capaz de aislar y extraer el fotopigmento de los bastoncillos
llamado rodopsina. Cuando este fotopigmento es expuesto a la luz, sufre una serie de modificaciones químicas que acaban
produciendo un cambio gradual en el potencial de membrana. Una característica de todo este proceso es que no cambia a
pesar de que cambie la longitud de onda que es absorbida. Es decir, aunque los cuantos de longitud de onda corta poseen
más energía que los cuantos de longitud de onda larga, la secuencia de reacciones es la misma cuando se absorben unos
que cuando se absorben otros. A esta propiedad se le da el nombre de univarianza significando con ello q el fotopigmento
establece una correspondencia entre toda la gama de longitudes de onda del espectro visible y un único tipo de output que
es la tasa de absorción. La respuesta de la rodopsina no codifica inf alguna sobre la composición espectral de la luz y por
ello no somos capaces de discriminar luces de diferente color en condiciones de visión escotópica. Obsérvese q univarianza
no significa que la rodopsina absorba de igual forma todas las longitudes de onda; no es así, de hecho es más sensible a las
longitudes de onda media que a las bajas o altas, como se ha visto antes en la función de sensibilidad escotópica.
Univarianza significa que, una vez absorbidos, los cuantos de cualquier longitud de onda tienen el mismo efecto visual.
La propiedad de univarianza permite establecer una relación entre la tasa de absorción del fotopigmento y los resultados de
un experimento de iguala- ción escotópica comparando la funcion de absorción de la rodopsina con la función de
sensibilidad espectral escotópica. Wald y Brown hicieron esa comparación y comprobaron que el grado de solapamiento
entre ambas es prácticamente perfecto. Resultados como éste permiten establecer que la tasa de absorción de la rodopsina
es el fundamento biológico de la igualación escotópica.
Con respecto a los conos, la investigación de los fotopigmentos ha sido más complicada y no han podido ser aislados hasta
hace unos años por proceds de ingeniería genética (Merbs y Nathan). No obstante, utilizando una gran variedad de proceds,
hace tiempo que se había establecido la existencia de tres tipos de conos que presentan una sensibilidad diferente a las
distintas longitudes de onda. Unos conos muestran mayor ca- pacidad de absorción para las longitudes de onda corta, por
lo que son llama- dos conos S; tienen una sensibilidad máxima en torno a los 440
nm12• Otro grupo de conos M muestra mayor capacidad de absorción para las
longitudes de onda medias, con un máximo en torno a los 530 nm. El tercer grupo de
conos L es más sensible a las longitudes de onda largas y su pico máximo se sitúa en
torno a los 560 nm13• Los conos L son los más abundantes en la retina humana, son
aproximadamente el doble que los conos M. Los más escasos son los conos S que
vienen a representar entre el cinco y el diez por ciento de la población de conos. Según
la opinión de Rusell y Karen DeValois (De Valois & De Valois, 1993) la razón entre
los conos L, M y S viene a ser aproximadamente de 10 : 5 : 1.
Fig 2.6 presenta la absorción relativa de cada uno de los tres tipos de conos. Como puede verse, hay solapamiento entre las
distribuciones de absorción de cada uno de ellos aunq el solapamiento es mucho mayor entre las distribuciones de los
conos M y L. La Fig tb pone de manifiesto q, ante una misma longitud de onda, la respuesta de cada tipo de cono es
diferente. En general, el funcionamiento de los 3 tipos de conos es parecido a lo que Helmholtz había anticipado aunq los
detalles de las funciones de absorción son diferentes.
3. PROCESAMIENTO OPONENTE
En el siglo XIX, los investigadores de la percepción con una orientación fenomenológica, siempre concedieron una gran
importancia a la forma en que los colores aparecen en nuestra experiencia consciente. Varios fenómenos reldos con la
percepción del color encontraban difícil acomodo en la teoría tricromática.
Fenómenos que cuestionan la teoría tricromática
a) Tareas de clasificación de colores. Hering observó que, cuando se pedía a los sujetos el agrupamiento de un conjunto
de fichas de diferentes colores, el n1 de cats más frecuentemente utilizado era cuatro: rojo, verde, azul y amarillo. Si los
colores fundamentales fueran 3, ¿por qué se utilizaba el amarillo como categoría independiente de las otras tres?
b) Combinaciones de colores. Aunque la teoría tricromática es capaz de predecir el resultado de la mezcla de luces, no es
capaz de explicar porqué no podemos tener experiencia de dets combinaciones. Ej: el púrpura es un color q parece ser rojo
y azul, el naranja responde a una mezcla de rojo y amarillo, pero no existe experiencia de colores que respondan a
combinación de rojo y verde o de azul y amarillo.
e) Deficiencias cromáticas. hemos visto que guardan una relación estrecha con la falta de dets fotorreceptores, pero tb q la
experiencia visual de un protanopa es semejante a la de un deuteranopa. La pérdida de la experiencia de color no ocurre de
forma individualizada para cada uno de ellos, sino que tiene lugar por pares, y los emparejamientos no son arbitrarios sino
que afectan al par rojo-verde o al par azul-amarillo.
d) Posefecto de color. Si uno fija su vista en una superficie coloreada durante cierto tiempo y, a continuación, cambia su
mirada a una superficie blanca, esta superficie adquirirá la apariencia del color oponente al que tenía la primera superficie.
Este fenómeno se conoce con el nombre de posefecto de color y está íntimamente reldo con el fenómeno de adaptación
cromática q consiste en la perdida de sensibilidad para un det matiz como consec de una exposición repetida a ese matiz.
Fenómenos como estos llevaron a muchos autores a defender la existencia de más de tres colores fundamentales. Ej: Ernst
Mach, físico y filósofo austriaco, propuso la existencia de 6 colores funds: rojo, verde, azul, amarillo, blanco y negro. Sin
embargo, la teoría q se opuso con más fuerza a la teoría tricromática fue la de Ewald Hering.
Teoria de Hering
Hering sostuvo la existencia de 6 colores fundamentales, reldos en pares amarillo-azul, rojo-verde y blanco-negro. Pero, su
teoría de los receptores defendía la existencia de 3 sistemas retinianos, por lo que el nº de receptores postulados no era
diferente del postulado por la teoría tricromática. La diferencia fund radicaba en la forma de entender el func de esos mes.
Para Hering, cada receptor estaba preferentemente dedicado al procesamiento de un par de colores oponentes y la respuesta
de los receptores no era monofásica (excitatoria), sino bifásica (excitatoria e inhibitoria). Hering asumió la existencia de 3
sustancias visuales en la retina, cada una capaz de experimentar un cambio químico en una de dos direcciones antagónicas.
Hering llamó a estos cambios asimilación y desasimilación y relacionó la fase de asimilación de cada sustancia con la
codificación del azul, el verde y el negro, y la fase de desasimilación con la codificación del amarillo, el rojo y el blanco
respectivamente, de forma q en cada uno de los tres pares, amarillo-azul, rojo-verde, y blanco-negro el primer miembro del
par estaba asociado con la desasimilación y el segundo con la asimilación.
Los teóricos del color se dividieron entre partidarios de la teoría tricromática o de la teoría de procesos oponentes. Hasta
sXX, la teoría preferida fue la teoría tricromática, aunq ya en 1905 von Kries y dp Müller y Schrodinger manifestaron q las
dos teorías no tenían por qué ser incompatibles. Ambas podían ser correctas pero en fases diferentes del procesamiento del
color. Pero, para la gran mayoría aceptar una teoría de doble proceso resultaba una complicación excesiva y una
innecesaria violación del principio de economía explicativa. No obstante, los trabajos de Hurvich y Jameson (1957)
abrieron definitivamente la puerta a una teoría de doble proceso.
Teoría de Hurvich y Jameson
Hurvich y Jameson usaron un proced psicofísico conocido como experimento de cancelación de matiz. En este exp, se
pide al observador q juzgue si una luz de prueba tiene apariencia, por ej, rojiza o verdosa. Si la apariencia es rojiza, el
observador debe añadir luz verde hasta cancelar la impresión de luz rojiza. Si aparece verdosa, la luz que debe añadir es la
roja. La idea central en el proced consiste en la cancelación mutua de los matices oponentes de forma que, una vez que el
matiz rojo o verde de la luz de prueba ha sido cancelado, la luz de prueba, más la luz añadida para cancelar, adquiere una
tonalidad amarilla, azul o gris. El proced es el mismo para cancelar los matices azulados o amarillentos, se utiliza luz
amarilla para cancelar el azul y luz azul para cancelar la amarilla.
Figura 2.8 muestra la valencia cromática del espectro visual obtenida mediante la aplicación de este método.
En la parte A se representa la fuerza del par azul-amarillo. En las longitudes de onda cortas -valores menores de 500 nm
aprox- predomina el matiz azulado, mientras q en las largas - por encima de 500 nm- predominan los matices amarillentos.
En el apartado B se representa la fuerza del par rojo-verde. Obsérvese que el matiz rojo está presente en las longitudes de
onda cortas aunq en menor medida q en las largas; en las longitudes de onda medias predomina exclusivamente el verde.
El apartado e representa la superposición de las funciones anteriores con la particularidad de que, para acentuar el carácter
oponente de cada par de colores, se ha dado a los matices azul y verde valores negativos. Se trata solamente de una
convención que no debe hacernos olvidar que los valores de las luces utilizadas son siempre positivos.
Sobre la base de estos datos psicofísicos, Hurvich y Jameson propusieron una teoría de la codificación del color de dos
fases que reconciliaba la teoría tricromática de Helmholtz con la teoría de los procesos oponentes de Hering. La teoría
tricromática era correcta en el nivel de los receptores puesto que solamente existían 3 tipos de fotorreceptores en la retina q
se activaban en distinto grado ante cada longitud de onda. Pero, en una segunda fase se producía una nueva codificación en
términos de procesos oponentes de forma que determinados mecanismos cerebrales codificaban el par rojo-verde mientras
otros mecanismos codificaban el par azul-amarillo. Hurvich y Jameson postularon además la existencia de un 3r mec no
oponente para el par blanco-negro encargado de procesar la claridad.
El modelo de Hurvich y Jameson estaba fundamentado en los datos psicofísicos procedentes de experimentos de
cancelación de matices. En la más pura tradición de la psicología experimental, postulaba la existencia de dets mecs
neuronales para explicar los datos psicofísicos, pero no estaba apoyado en evidencia fisiológica directa. No obstante, la
influencia de sus investigaciones fue grande y dieron un fuerte impulso a la investigación fisiológica del color.
Investigaciones de DeValois
Las ideas de Hurvich y Jameson, y en consecuencia la teoría de los procesos oponentes, encontraron apoyo fisiológico en
las invests de Rusell DeValois y sus cols. Estos descubrieron en el núcleo geniculado lateral (NGL) del tálamo de primates,
células q respondían selectivamente al color de forma similar a la postulada por la teoría de los procesos oponentes. Unas
células eran activadas x la luz roja e inhibidas x la verde y otras se activaban ante la luz verde e inhibidas x la roja. Lo
mismo ocurría para el par azul-amarillo. Además encontraron células no oponentes, algunas de las cuales eran excitadas
por cualquier tipo de longitud de onda e inhibidas por la ausencia de luz y otras que eran activadas por la ausencia de luz e
inhibidas x su presencia. En conjunto, las células descubiertas por De Valois y cols presentaban un patrón de codificación
del color que estaba de acuerdo con la teoría de los procesos oponentes. Esto, junto con los 3 tipos de fotorrectores del
color, dieron un impulso definitivo a las teorías duales de proces del color como la propuesta por Hurvich y Jameson.
Avances recientes
- investigación empírica: la investigación fisiológica descubrió muy pronto que el procesamiento oponente del color no
tenía su comienzo en el núcleo geniculado lateral del tálamo, sino que se iniciaba ya en la retina, en el nivel de las células
bipolares y ganglionares. De hecho, la especialización de las vías nerviosas en lo referente a la transmisión de la inf
cromática se inicia ya en las células bipolares y ganglionares y continúa hasta la corteza a través de 3 vías diferentes:
l. La vía P se origina en las células bipolares enanas y deja la retina a través de las células ganglionares del mismo nombre.
Este grupo de células comprende tanto neuronas de centro on como neuronas de centro off y tanto las unas como las otras
contactan con un único cono L y M en el centro de la fóvea. Los conos S, que son menos abundantes q los L y M, parece
que solamente hacen contacto con bipolares enanas de centro off. Para todas estas células el contorno oponente al centro
parece estar controlado por señales procedentes de una mezcla de los otros tipos de conos. Las células ganglionares envían
la inf a las capas parvocelulares del núcleo geniculado la- teral que a su vez la proyecta sobre la capa 4Cb de la corteza
visual primaria. La vía P es la principal portadora de información sobre el color.
2. La vía M. se origina en las células bipolares difusas que envían su información a las células ganglionares parasol. Estas
células contactan preferentemente con grupos de bastoncillos y con grupos de conos L y M que contribuyen de forma
conjunta, por lo que las células no pueden dar una base para discriminar entre diferentes longitudes de onda. Las células
parasol envían su información a las capas magnocelulares del núcleo geniculado lateral que desde allí se proyecta sobre la
capa 4Ca y 4B de la corteza visual primaria. Aunque no envía inf cromática diferenciada, esta vía proporciona la principal
inf q determina las funciones de luminosidad escotópica y fotópica.
3. La vía K. origen en unas células ganglionares llamadas pequeñas biestratificadas que poseen un centro on activado por
un cono S y un contorno inhibitorio que recibe inf de conos L y M. Estas células ganglionares proyectan su información
sobre las capas K19 del núcleo geniculado lateral y desde allí a la zona de las gotas (blobs) en las capas 2 y 3 de la corteza
visual primaria. Esta vía transmite hasta la corteza inf oponente relda con los conos S por lo que parece razonable pensar q
está preferentemente relda con la codificación del par de colores azul-amarillo.
- elaboración teórica: desde la teoría el interés se ha centrado en la construcción de modelos que, siendo fieles a los
descubrimientos empíricos, puedan explicar la forma en que la codificación tricromática que tiene lugar en los receptores,
se transforma en una codificación en pares colores oponentes y, en última instancia, en la experiencia de color como
aparece en nuestra consciencia. Uno de los modelos más influyentes ha sido el propuesto por los DeValois.
El modelo que han propuesto los DeValois es un modelo de 4 fases que tienen lugar en zonas diferentes de los centros
nerviosos reldos con el procesamiento visual del color.
- La 1ª fase el nivel de los receptores y es de naturaleza tricromática. Tenemos 3 tipos de receptores del color
diferencialmente sintonizados a longitudes de onda largas (conos-L), longitudes de onda media (conos-M) y longitudes de
onda corta (conos-S). La proporción de conos L: M:S es 10:5:1.
- La 2ª fase es de naturaleza oponente y tiene lugar en la retina y en el núcleo geniculado lateral del tálamo. En la retina,
una red neuronal formada por las conexiones e interacciones de los fotorreceptores con las demás células retinianas da
origen a seis tipos de células ganglionares enanas oponentes. Tres de ellas, llamadas L𝑜 , M𝑜 y 𝑆𝑜20 , tienen un centro
activado directamente por conos L, M y S respectivamente y un contorno que en todas ellas es inhibido por influencias
indirectas provenientes de conos L + M + S. Así, la inf q converge en una célula Lo puede representarse como L - (LMS),
la que converge en Mo como M - (LMS) y la de So como S - (LMS). Las otras 3 enanas oponentes, -Lo-Mo y -So tendrían
una org on off opuesta a las anteriores ya que sería inhibidas en su centro por conexiones directas con conos L, M y S y
excitadas en su contorno por las influencias indirectas de conos L+ M + S. La representación de la inf convergente sobre
cada una de estas células sería -L + (LMS), -M + (LMS) y -S + (LMS). Estos 6 tipos de células ganglionares enanas
mandan la inf al núcleo geniculado lateral (NGL) a través de la vía P. En la retina tiene lugar tb la codificación de la
información q se transmite por la vía M pero no nos detendremos en ella ya q el modelo de los DeValois se centra en la inf
transmitida por la vía P. A partir de ahora nos centraremos exclusivamente en la vía P.
En el núcleo geniculado lateral del tálamo tiene lugar una organización más precisa del contorno de las unidades
acentuando la naturaleza oponen- te de las mismas. Así, las células con un centro relacionado con un cono L reciben en su
contorno un input antagonista proveniente exclusivamente de conos M y viceversa. En este nivel las células adquieren una
estructura que puede representarse así: Lo como L-M, -Lo como -L+M, Mo como M-L, -M como -M+L, So como S-LM, y
So como -S+LM. Por tanto, en este nivel la codificación del color adquiere un carácter claramente oponente en su
estructura centro-contorno. Esta org proporciona a las células del NGL la posibilidad de responder tanto a variaciones en el
color como a variaciones en la luminancia de los estímulos. Esta idea se puede entender mejor examinando la Figura 2.9.
En la parte izquierda de la figura se puede ver la estructura centro-contorno de una
célula Lo que tomamos como ejemplo. Dependiendo del tipo de estimulación que
incide sobre esta célula, el campo receptivo de la misma puede ser de dos formas
diferentes. Si la célula es estimulada por una luz acromática blanca, que contiene
todas las longitudes de onda, la respuesta de la célula será excitatoria en su centro
e inhibitoria en su contorno, es decir la respuesta ordinaria de una célula on-off a
los cambios de luminancia. Esto es lo que aparece en la parte superior derecha de
la figura. Sin embargo, si la luz que incide sobre la célula es roja, entonces el
centro L responderá hasta su máximo posible mientras que el contorno -M, al no
ser sensible a la luz roja, no producirá inhibición. El resultado será un campo
receptivo uniforme respecto al color.
- La 3ª fase es la fase principal para el modelo pues en ella se produce la
separación de la inf referente al color de la información correspondiente a la
luminancia y también tiene lugar la organización del código del color en un
espacio tridimensional siendo estas dimensiones los pares rojo-verde, amarillo-
azul y blanco-negro. Estos dos problemas se resuelven mediante combinaciones particulares de la información que
proporcionan las células del NGL que hemos visto en la fase anterior y tiene lugar en la corteza visual.
La separación del color y la luminancia se puede entender considerando las propiedades de las células ejemplificadas en la
Figura 2.9. Supongamos, por ejemplo, que combinamos el output de una célula Lo con el de una -M cuyo centro es
inhibido por longitudes de onda medias y cuyo contorno es activado por las longitudes de onda largas. Como hemos visto
antes, la célula Lo tiene un campo receptivo de centro excitatorio y contorno inhibitorio (on- off) en respuesta a los
incrementos de luminancia, y tiene un campo uniforme excitatorio de color (rojo) en respuesta a los cambios hacia las
longitudes de onda largas. En estas mismas situaciones de estimulación, la célula -M0responde a los incrementos de
luminancia con un centro inhibitorio y un entorno excitatorio (off-on) y a la luz roja con un campo homogéneo del mismo
color que el producido por Lo ya que su centro inhibitorio no se ve afectado por las longitudes de onda largas. El resultado
de la combinación de Lo y -M puede deducirse fácilmente dado el carácter lineal del modelo. Con respecto a los
incrementos de luminancia los dos campos receptivos (on-off y off-on) se anularán mutuamente. Con respecto a la
estimulación de luz roja las dos células sumarán sus respectivos campos receptivos. El resultado final de esta combinación
es la producción de unidades de procesamiento que son ciegas a la luminancia pero sensibles al color.
Consideremos ahora la combinación del output de una célula L con una 0 célula Mo que tiene un centro excitatorio para las
longitudes de onda medias y un contorno inhibitorio para las largas. En este caso la respuesta a incrementos en luminancia
será on-off para ambas produciéndose la suma de los campos receptivos. Sin embargo, la respuesta a la luz roja será
excitatoria en L e inhibitoria en M produciéndose así la cancelación del color. El resultado oo final de esta combinación es
la producción de unidades que son ciegas al color pero sensibles a la luminancia.
Resumiendo, la integración de la información procedente de Lo y – Mo suma color y cancela luminancia mientras que la
de Lo y + Mo suma luminancia y cancela color. Lo mismo puede decirse para Mo y - L y para M y + L. El resultado final
consigue separar el procesamiento del color del procesamiento de la luminancia.
La org del espacio tridimensional de los procesos oponentes es el
resultado de añadir el output de las células So y -S a las combinaciones
que acabamos de estudiar.
La Fig 2.10 representa el diagrama completo del modelo propuesto por
los DeValois. Las líneas horizontales representan combinaciones que
cancelan el color y codifican la luminancia, una dando lugar a
acromáticos claros y otra a acromáticos oscuros. Las líneas verticales
representan las combinaciones particulares que llevan a la codificación
de los 4 colores funds q forman los dos pares oponentes cromáticos:
rojo, amarillo, verde y azul. El diagrama pone de manifiesto tb los
supuestos fundamentales del modelo. En esencia, los DeValois
proponen q a lo largo de la vía P, el eje predominante en la
codificación del color es el formado por las células que reciben en el
centro de sus campos receptivos inputs que provienen de los conos L y M. El papel del sistema oponente S es romper esa
predominancia cuando la información llega a la corteza visual modulando la actividad del sistema L M de dos formas
diferentes que dan lugar a los ejes rojo-verde y amarillo-azul. Así pues, los tres sistemas oponentes L M y S participan en
la codificación de los colores pero L y M son los principales. Incluso en la codificación del azul, la contribución de Mo es
mayor q la de So.
4. La cuarta fase y última en el modelo asume la existencia de células complejas que responden selectivamente a un color y
no a otros. En opinión de los DeValois, estas células deben darse en zonas corticales posteriores a Vl y no tienen el carácter
oponente que tienen las células que participan en las fases anteriores. Estas células complejas disparan a una determinada
región espectral y no producen respuesta alguna a otras. Esto no significa que el procesamiento del color pierda su carácter
oponente en esta fase, sino que el procesamiento es oponente entre células diferentes y no dentro de cada célula como lo
era en las fases anteriores. Ej: aunq son células diferentes las que disparan al rojo y al verde, estas células nunca disparan
las dos al mismo estímulo, cuando disparan las células sensibles al rojo no lo hacen las sensibles al verde y viceversa. Pero,
las células q disparan al rojo y las que lo hacen al amarillo, pueden disparar ambas ante el mismo E.
El modelo de los DeValois es uno de los más completos e influyentes en la investigación actual y constituye una buena
muestra de la complejidad que los actuales modelos de procesamiento del color van adquiriendo. Merece la pena destacar
algunos de sus aspectos más interesantes. En primer lugar, el modelo muestra cómo la información cromática y la
acromática pueden ser proporcionadas por los mismos mecanismos. El modelo asume que la infor- mación acromática, no
sólo es conducida por la vía M sino también por la vía P. En segundo lugar, el modelo muestra cómo pueden surgir células
especia- lizadas en la respuesta a seis colores, organizados en tres pares oponentes, a partir de los tres fotorreceptores
cromáticos. Además, el modelo proporciona una explicación aceptable de la calidad de la percepción de las longitudes de
onda cortas a pesar de la escasez de receptores especialmente sensibilizados a las mismas. Finalmente, desde un punto de
vista computacional el modelo es sencillo pues mantiene, a lo largo de sus principales fases, un funcionamiento lineal para
todas las unidades de procesamiento. La investigación futura se encargará de ir estableciendo la consistencia de los
principales supuestos del modelo.
4. LA CONSTANCIA DEL COLOR
Las teorías q hemos tratado se han centrado en el procesamiento de Es muy sencillos, luces y superficies monocromáticas
aisladas. La inf q nos ha proporcionado ha sido de gran valor, pero no es menos verdad que el estudio de la percepción del
color exige la consideración de Es más complejos y de fenómenos q no pueden ser explicados por las teorías estudiadas.
A mediados del sXX, el físico E. Land, famoso por haber inventado la técnica fotográfica de revelado instantáneo y
fundador de la Polaroid Corporation, hizo investigaciones que causaron un fuerte impacto en la comunidad científica.
Land, que había desarrollado su técnica para fotografía en blanco y negro, estaba investigando la forma de ampliarla para
obtener fotografía en color. En el proceso, comprobó q los principios de la colorimetría no le permitían predecir la
apariencia de los colores. Uno de los experimentos q provocaron en él mayor sorpresa y dedicación a la investigación fue:
tomó dos fotografías en blanco y negro de una misma escena rica en colores, una de ellas la tomó a través de un filtro rojo,
y la otra a través de un filtro verde. Después de hacer las correspondientes filminas, proyectó a través de un filtro rojo en
una pantalla la imagen tomada con el filtro rojo y superpuso a esta imagen la segunda, q había tomado con el filtro verde,
pero proyectada sin filtro, es decir, proyectada con luz blanca. Sobre la base de la mezcla de luces, era de esperar que el
resultado de la superposición fuera una escena o roja, o blanca o un rosa intermedio entre las dos luces mezcladas. Para
sorpresa de todos, Land observó que la superposición de las dos filminas reproducía toda la gama de colores presentes en
la escena inicial, casi con la misma viveza que si se tratara de una fotografía ordinaria en color. La reacción de Land en
contra de la teoría tricromática fue frontal pero el tiempo se ha encargado de demostrar que las observaciones de Land sólo
ponen de manifiesto la insuficiencia de la teoría tricromática para predecir la apariencia de los colores aunque sea útil para
predecir cuándo dos luces parecerán iguales.
Las observaciones de Land eran una demostración más de la constancia del color. La percepción del color no depende
exclusivamente de la cantidad de luz q un objeto refleja, o de la longitud de onda reflejada x el objeto sino de un conjunto
de fs que tienen q ver con la naturaleza del objeto y con el contexto en q aparecen los colores. Supongamos q a plena luz
del sol, a mediodía, exponemos un trozo de carbón a los rayos del sol. Por mucha luz que refleje, el carbón continúa
apareciendo negro. Si comparamos la cantidad de luz reflejada por el carbón al mediodía con la reflejada por una hoja de
papel blanco al anochecer, podríamos comprobar que, en términos absolutos, la cantidad de luz reflejada por el carbón al
mediodía es mayor que la del papel blanco al anochecer. Pero el carbón continúa viéndose negro al mediodía y el papel
continúa viéndose blanco al anochecer. Los colores de los objetos nos aparecen como una propiedad de los objetos q nos
permite muchas veces reconocerlos como tales objetos. Esto no es posible si nuestra exp de color variara en función de las
variaciones q sufre la luminancia de los objetos. Nuestro sistema visual responde a una carac intrínseca de los objetos,
como es su reflectancia, y no a las cantidades absolutas de luz q llegan a la retina, pero ¿cómo puede conocer nuestro
sistema visual la reflectancia de un objeto si lo único que llega a la retina es su luminancia?
Fig 2.11 presenta 2 casos de contraste simultáneo, uno acromático y otro cromático, q ponen de manifiesto la
dependencia del contexto q tiene nuestra percepción del color. En la parte superior de la fig, los dos cuadrados de los
extremos tienen exactamente las mismas propiedades físicas y por lo tanto provocan el mismo tipo de reacción local en los
fotopigmentos de los receptores retinianos. Sin embargo, los dos cuadrados son percibidos con distinta claridad debido al
gradiente de claridad q caracteriza al entorno. En la parte inferior de la fig, la distribución espectral de las dos “X” es la
misma y esto se puede observar si fijamos la vista en el punto donde ambas coinciden. A pesar de ello, el color de cada
“X” es diferente, demostrando q la apariencia del color no depende de la estimulación local de los fotorreceptores sino de
la estructura espacial de la imagen como un todo. Las filminas q Land superpuso en el experimento mencionado antes son
una demostración más dramática aún de que nuestro sistema visual no atribuye color a los objetos en función
exclusivamente de la luz que los objetos reflejan sino teniendo en cuenta complejas rels de la escena como un todo.
La constancia de la claridad
Para entenderla, debemos recordar los conceptos de iluminancia, luminancia y reflectancia. Los valores de luminancia q
llegan a la retina son el producto de la reflectancia del objeto por la iluminancia q recibe dicho objeto. Además, el rango de
variación de los valores de luminancia en la retina como resultado de cambios en iluminancia, es mucho mayor q el rango
de variación debido a cambios en reflectancia. El problema es descubrir cómo puede nuestro sistema visual distinguir los
cambios en luminancia debidos a diferencias en iluminación de los cambios debidos a la reflectancia del objeto a partir de
los cambios en luminancia que es la única inf q recibe a través de los receptores. El hecho empírico innegable es que
nuestra percepción de la claridad responde adecuadamente a los cambios en reflectancia. ¿cómo es posible?
Helmholtz propuso que la luminancia de una región en la imagen retiniana era comparada con la intensidad percibida de la
iluminación en esa parte de la escena visual. Para Helmholtz, el problema se reducía a un cálculo de la claridad similar al
que hacen los físicos cuando calculan la reflectancia de una superficie. La luminancia retiniana dividida por la iluminancia
percibida nos daba la reflectancia percibida -es decir, la claridad- de la misma forma que la luminancia de una superficie
dividida por su iluminancia nos proporciona su reflectancia. El razonamiento de Helmholtz presentaba problemas lógicos y
empíricos. Uno de los primeros en resaltar sus problemas lógicos fue Hering, quien tildó al razonamiento de Helmhotz de
circular. Dada la luminancia de una superficie, uno necesita conocer la reflec- tancia de la misma para poder inferir su
iluminancia, pero es precisamente la reflectancia lo que se trata de encontrar. La circularidad parece inevitable: ne-
cesitamos conocer la reflectancia para inferir la iluminancia y ésta para inferir la reflectancia. Desde un punto de vista
empírico, el problema viene dado por la adaptación a la luz que nos hace insensibles a los niveles absolutos de iluminación
en condiciones de visión normal. No parece, por tanto, probable que el sistema visual tenga acceso a la iluminancia de una
superficie de forma directa e independiente de la luminancia retiniana.
Hering, a su vez, puso mucho énfasis en atribuir la constancia de la claridad, y del color en general, a mecs sensoriales por
un lado, tales como el tamaño de la pupila y la adaptación, y a mecanismos cognitivos como la memoria del color. La
opinión de Hering fue refutada por Katz en su famoso libro El Mundo del Color (1935) donde demostró que la constancia
del color persistía en situaciones que excluían la influencia de los factores defendidos por Hering.
Los psicólogos de la Gestalt fueron los primeros en rechazar la idea de que la luminancia fuera el estímulo responsable de
la percepción de la claridad y pusieron el énfasis en el papel desempeñado por los gradientes y por la razón entre
luminancias. Dentro de esta tradición investigadora, el experimento realizado por Hans Wallach (1948) fue determinante
para encauzar definitivamente la investigación. Wallach utilizó una situación que aparece representada en la Figura 2.12.
Presentó a los observadores dos Es distintos, cada uno formado
por dos círculos concéntricos. Los círculos interiores de cada
estímulo estaban iluminados por proyectores diferentes de los
que iluminaban los círculos envolventes. En cada ensayo, los
dos círculos concéntricos de un estímulo eran iluminados por el
experimentador con una intensidad fija y diferente para cada
uno de ellos. También el círculo envolvente del otro estímulo
era iluminado por el experimentador con una intensidad
diferente a la del círculo envolvente del primer estímulo. A
modo de ej, supongamos que la intensidad de los círculos del
primer estímulo era fijada por el experimentador en 80 unidades
para el envolvente y 20 unidades para el interno, y, a su vez, la
intensidad del círculo envolvente del segundo estímulo se fijaba
en 40 unidades. La tarea del observador consistía en manipular
la cantidad de luz del proyector que iluminaba el círculo interno
de la presentación variable hasta conseguir para el mismo una
apariencia igual a la del círculo interno de la presentación fija.
Wallach encontró que los observadores ajustaban la intensidad
del círculo de forma que la razón entre su luminancia y la de su
círculo envolvente era igual a la razón entre la luminancia del
círculo interno y la de su envolvente en la presentación fija. En el caso de nuestro ejemplo, los sujetos iluminabanel círculo
interno con 10 unidades de intensidad. Los resultados de Wallach pusieron de manifiesto la respuesta del sistema visual, no
a los valores absolu- tos de iluminación, sino a los valores relativos. La investigación posterior ha puesto de manifiesto que
la comparación entre la luminancia de la superficie interna y la de la superficie envolvente toma en consideración
preferentemen- te los bordes donde se produce el tránsito de un nivel de luminancia a otro.
La Figura 2.13 ilustra un efecto, conocido con el nombre de efecto Craik-O'Brien-Cornsweet. En la figura aparece una
superficie oscura junto a otra más clara. De hecho la distribución de luminancia es la misma para las dos, como lo
muestran las dos rampas de luminancia que aparecen en la parte de abajo de la figura, pero el efecto perceptivo viene
determinado por las di- ferencias en el borde central que se propaga a toda la superficie.
La teoría retinex propuesta por Land y cols fue una de las primeras teorías que utilizó el cálculo de las razones de
luminancia en los bordes como fundamento de su teoría para explicar la constancia del color. La teoría fue formulada para
explicar preferentemente la constancia cromática pero, como veremos más adelante, su explicación de la constancia de la
claridad es el fundamento de toda la teoría. Por eso, comenzaremos aquí su estudio y volveremos a ella al tratar de la
constancia cromática.
Land y MeCano comenzaron por tomar en consideración la naturaleza de las superficies y de las imágenes. En su opinión,
la reflectancia tiende a ser constante en el espacio delimitado por una superficie excepto en los bordes donde se produce un
cambio abrupto entre objetos o entre pigmentos. Sin embargo, los cambios en iluminancia tienden a ser graduales y no
producen transiciones bruscas. Por tanto, al analizar los cambios de luminancia en una imagen, los cambios escalonados en
la función de luminancia serán indicadores de cambios en reflectancia mientras que los cambios graduales indicarán
cambios en iluminancia. Land y MeCano estudiaron el alcance de estas ideas en un contexto experimental como el que
aparece en la Fig 2.14.
El conjunto de colores que aparecen como estímulo en el apartado B se conoce con el nombre de Mondrian por su parecido
con los planos rectan- gulares de colores puros creados por el pintor holandés Piet Mondrian. Un Mondrian proporciona un
estímulo adecuado para estudiar el efecto conjun- to de múltiples cambios de reflectancia al pasar de un plano a otro25• En
el apartado A de la figura se presenta un Mondrian acromático en blanco gris y negro apropiado para el estudio de la
constancia de la claridad.
Land y McCann estudiaron la percepción de estos estímulos bajo distintas condiciones de iluminación. Los planos de un
Mondrian formados de distin- tos niveles de gris repartidos de forma aleatoria en la superficie del cuadro, constituyen un
estímulo mucho más complejo que la organización de círculos concéntricos utilizada por Wallach. En el caso de Wallach
sólo se daba un tipo de borde entre los círculos concéntricos y las superficies a comparar eran sólo dos, pero en un
Mondrian los bordes que delimitan cada plano son muchos más, también son más las posibles superficies de comparación
y se encuen- tran a distancias distintas. A pesar de ello, el gris de cada plano se mantiene constante. Como la luminancia de
cada plano es el resultado de multiplicar la iluminancia por la reflectancia de la superficie, el problema al que se enfrenta el
sistema visual es recuperar la reflectancia a partir de las luminancias.
La teoría retinex propone que la claridad de las superficies es el resultado de la integración global de las razones de
luminancia determinadas localmen- te en los bordes. Land y McCann demostraron que la razón entre las lumi- nancias de
cualesquiera dos rectángulos en un Mondrian es igual al producto de las razones de las luminancias correspondientes a los
bordes que hay que cruzar en la trayectoria que va de uno a otro. Por ejemplo, si tomamos dos rectángulos a y e en el
Mondrian de la Figura 2.14, que están separados por una tercera superficie b, la razón entre la luminancia de a y la de e es
igual al producto de dos razones de luminancias: la que existe en el borde que separa a y b entre la luminancia de a y la
luminancia de b, y la que existe en el borde que separa b y e entre la luminancia de b y la luminancia de c. Land y McCann
demostraron que esta relación se daba para cualquier número de rectángulos intervinientes y para cualquier trayectoria que
se trazara entre cualesquiera dos planos de un Mondrian.
La teoría retinex es un buen ejemplo de teoría basada en propiedades intrínsecas de la imagen. La relación entre las razones
de las luminancias de los planos de un Mondrian forma un conjunto entrelazado de invariantes que son, en última
instancia, los responsables de la constancia de la claridad. La teoría es también un buen ejemplo de teoría computacional
pues un retinex es un mecanismo hipotético de cómputo -en última instancia realizable en un mecanismo neuronal- cuyo
funcionamiento equivale a un algoritmo que calcula las razones de luminancia e integra en el espacio correspondiente a la
superficie del Mondrian la información correspondiente a los bordes para reconstruir la imagen sobre la base de la
reflectancia.
La teoría retinex es capaz de explicar que la información local de la lu- minancia en los bordes es suficiente para recuperar
la reflectancia relativa de todas las regiones de un Mondrian pero es importante caer en la cuenta de que la reflectancia
relativa sólo nos informa de las diferencias entre las reflec- tancias de las regiones del cuadro, no nos dice nada de los
valores absolutos de reflectancia. La importancia de este punto para la percepción de la claridad es grande, porque las
diferencias relativas entre distintos niveles de claridad pueden ser iguales para la diferencia entre un blanco y una gama de
grises claros que para la diferencia entre un gris medio y una gama de grises oscuros que terminen en negro. ¿cómo puede
el sistema visual determinar que se trata de una gama que oscila entre blancos y grises o una gama entre grises ynegros?
Los investigadores han etiquetado este problema con el nombre de problema del anclaje porque se trata de fijar un punto de
la gama que permita interpretar el significado de las diferencias en términos absolutos. Land y Mc- Cann propusieron una
regla simple. Asumieron que el sistema visual asigna el color blanco al valor de máxima reflectancia y atribuye al resto
valores menores de claridad dependiendo de su relación con el primero26• Esta regla ha resultado ser aplicable en muchas
ocasiones cuando se trata de situaciones simples que implican la comparación de dos áreas. Sin embargo, incluso en
situaciones simples la asignación del blanco parece depender no sólo de fac- tores fotométricos como es la luminancia sino
de factores geométricos como es el área. En su formulación más simple, la regla del área viene a decir que cuanto más
grande es un área más clara parece. Las dos reglas funcionan bien cuando el área más grande es también la de mayor
luminancia pero la cosa se complica cuando hay conflicto entre las dos reglas. Gilchrist y colaboradores (1999) han
formulado una regla del área que combina ambos factores y que puede formularse de la siguiente manera: en una situación
estimular simple, cuando la más oscura de las dos regiones tiene el área relativa más grande, a
medida que el área más oscura crece, su claridad aumenta. Al mismo tiempo, la región más pequeña y más clara al
principio parece blanca, después parece una luz blanca fluorescente y finalmente parece una fuente emisora de luz. Un
ejemplo de esta situación final es la apariencia de la luna en la noche. La luna es una superficie que refleja luz pero su
apariencia no es blanca sino que parece emitir luz.
En el caso de situaciones estimulares complejas el problema es mucho mayor pues la atribución de claridad a las
superficies depende de factores que determinan la organización de la escena. Aunque no nos vamos a detener en ellos
ahora pues los estudiaremos con mayor detenimiento más adelante, me- rece la pena mencionar algunos resultados que nos
ayuden a entender la com- plejidad que puede llegar a alcanzar algo aparentemente tan sencillo como es la determinación
de la claridad de una superficie. Por ejemplo, Gilchrist (1980) demostró que, incluso en situaciones tan simples como la
utilizada por Wallach, la razón entre las luminancias sólo es efectiva cuando las dos su- perficies aparecen como
coplanares, es decir, pertenecientes al mismo plano en profundidad. Si, manipulando las claves de profundidad, los dos
círculos aparecen como sustentados en planos de profundidad diferentes, la constan- cia de la claridad se rompe. Vemos,
por tanto, que la asignación de claridad interactúa con otros factores
que determinan la interpretación última. La Fi- gura 2.15 presenta
los conocidos anillos de Kofka y Benussi que ejemplifican la
importancia de factores que afectan a la organización de la escena.
En la parte A de la figura, el anillo central parece uniforme. En la parte B la uniformidad se rompe mediante la separación
de las superficies que sirven de fondo, de modo que la mitad de la izquierda, que se inscribe en el fondo más oscuro,
aparece más clara que la mitad de la derecha. En C las diferencias en claridad de las dos partes del círculo se hace mucho
más compleja por la reorganización de la figura central producida por el simple cambio relativo de las posiciones de las
dos mitades de la figura.
La influencia de estos factores que afectan a la interpretación final de la claridad pone de manifiesto la insuficiencia de las
teorías que ponen el énfasis explicativo exclusivamente en factores fotométricos. Para la teoría retinex el papel de factores
no fotométricos, como los que acabamos de ver, afecta a un supuesto central de la teoría, el relacionado con el efecto
gradual de la iluminancia y la interpretación de los cambios bruscos de luminancia en términos de cambios en reflectancia.
Este supuesto funciona bastante bien a la hora de explicar la percepción de un Mondrian pero hay situaciones múltiples en
la experiencia perceptiva que no pueden explicarse así. Imaginemos, por ejemplo, una escena a plena luz del día en la que
un edificio que interfieren los rayos del sol proyecta una sombra nítida sobre el suelo o sobre cualquier otra superficie. El
borde que divide la zona sombreada de la iluminada es el resultado de un cambio brusco de luminancia en las dos zonas
que lo delimi- tan producido por las diferencias en iluminancia de las dos superficies, pero en este caso el cambio brusco
no es interpretado por el sistema visual como una diferencia en los pigmentos de las superficies, es decir, no es interpretado
como un cambio de reflectancia sino que el sistema visual acierta a interpre- tarlos como un cambio en la iluminación que
reciben las superficies, es decir, como un cambio en iluminancia. Existen por tanto cambios bruscos en lumi- nancia
producidos por bordes de iluminación que el sistema visual atribuye a cambios en la iluminancia de la escena y cambios
bruscos de luminancia producidos por bordes de reflectancia que el sistema visual atribuye a cambios de claridad en las
superficies. Las razones últimas de esta interpretación estánpor determinar pero algunas han sido ya identificadas y su
estudio forma parte de la investigación actual. Por ejemplo, el grado de nitidez del borde influye haciendo que cuanto
mayor sea la nitidez más predomine la interpretación del borde como borde de reflectancia27• También la magnitud de la
diferencia entre las luminancias que determinan el borde parece importante ya que los bordes de iluminación pueden
producir diferencias en luminancia mucho ma- yores que los bordes de reflectancia. Ya hemos mencionado antes la
importan- cia asociada a que los estímulos aparezcan como coplanares y de otros factores organizativos. A ellos hay que
añadir la importancia de factores locales de la imagen como son las conjunciones en forma de T, de Y o de 'P que pueden
formar la unión de bordes en figuras planas o en prismas. La investigación de estos factores forma parte de los temas más
actuales de la investigación en este campo. Una idea bastante generalizada entre los investigadores es la existencia de
marcos de referencia (Gilchrist, 1999) o ventanas adaptativas (Adelson, 2000) que delimitan una región en el espacio
dentro de la cual tienen lugar los cómputos que determinan la asignación de claridad a una superficie y los
principios de agrupamiento que la configuran. Los factores que están fuera de una determinada ventana adaptativa no
ejercen un efecto en la determinación de la luminancia que esa ventana acota. Las ventanas adaptativas pueden cam- biar
de tamaño y de forma dependiendo de factores diversos, por ejemplo, si el número de elementos en una escena es muy
grande la ventana adaptativa se hace más pequeña, y si el número de elementos es escaso la ventana se hace mayor. El
concepto de ventana adaptativa nos proporciona una idea de la fle- xibilidad que posee el sistema implicado en el
procesamiento de la claridad. La determinación de razones de luminancia y el conjunto de cómputos que acaban
determinando la claridad de una superficie no se efectúan siempre de una forma rígida y predeterminada sino de forma
flexible y adaptativa como lo requieren las diferentes situaciones estimulares que confronta el organismo.
La constancia cromática
La constancia de la claridad se ha centrado en el estudio del eje blanco-negro y ahora se trata de ampliar esos conocs al eje
rojo-verde y al amarillo- azul. El problema se complica en cuanto al número de ejes que tiene que tomar en consideración
el sistema visual a la hora de determinar el color de una superficie, pero la naturaleza del problema no es muy diferente del
problema. En ambos casos elsistema visual tiene que recuperar la reflectancia de las superficies sobre la base de las
luminancias que a partir de esas superficies llegan a la retina.
Land aplicó su teoría retinex a la visión cromática extendiendo las ideas q antes hemos estudiado a los tres fotorreceptores
retinianos. Hemos visto que un retinex es un mec hipotético encargado de hacer el cómputo de las razones entre las
luminancias que delimitan los bordes de una escena con el fin de recuperar la reflectancia de las superficies que conforman
un Mondrian. Con respecto al color, Land supuso que existen tres tipos diferentes de mecs retinex cada uno encargado de
llevar a cabo un cómputo de la claridad similar al que hemos estudiado antes pero cada uno de ellos restringido al cómputo
de la claridad correspondiente al rango de sensibilidad espectral de cada uno de los fotorreceptores. Para entender mejor
esta idea, supongamos q tomamos una fotografía en blanco y negro de una escena rica en colores diferentes con un filtro
que sólo deja pasar las longitudes de onda largas. El resultado será una fotografía monocromática en la que los objetos
rojos aparecerán con mucha claridad, los objetos verdes aparecerán más oscuros y los azules aparecerán más oscuros
todavía. Si el filtro con el que tomamos la fotografía sólo deja pasar las longitudes de onda cortas, los objetos más claros en
la escena monocromática serán los azules y los rojos serán más oscuros. Si el filtro favorece a las longitudes de onda
medias, los objetos más claros serán los verdes. Cada filtro producirá una fotografía monocromática pero la claridad de los
objetos en cada fotografía dependerá de la reflectancia de sus superficies o pigmentos. El funcionamiento de cada retinex
en la teoría de Land produciría un efecto parecido, aunque más complicado, al de los filtros. Todos los mecs retinex hacen
el cómputo de razones de luminancia de la misma forma y todos producen como resultado del cómputo y de las
operaciones de anclaje un mapa de las reflectancias - y por tanto de la claridad- correspondientes a cada zona de la escena.
Sin embargo, cada uno de los tres mecanismos retinex se especializa en el cálculo de las reflectancias correspondientes a
un conjunto de longitudes de onda diferentes. El resultado final de estas operaciones da lugar a tres mapas diferentes de
claridad para una determinada escena, cada mapa registrando la claridad de los elementos de una escena para una det banda
de longitudes de onda. La teoría retinex aún necesita asumir otra fase de procesamiento que, mediante la comparación de
los tres registros de claridad para cada parte de la escena, asigna el color dominante a cada parte de la escena sobre la base
de los valores de claridad calculados por cada retinex. Si un determinado objeto tiene mayor claridad en el retinex
correspondiente a la banda de longitudes de onda larga, el objeto aparecerá rojo y de la misma forma se asignará el color a
cada objeto. Zeki (1993) ha resumido la teoría retinex como una comparación de comparaciones. “El color_según la teoría
retinex_es el producto final de dos comparaciones: la 1ª consiste en comparar la reflectancia de distintas superficies para
luz de la misma banda de ondas, generando así el registro de claridad de la escena para esta banda, y la segunda, en
comparar los 3 registros de claridad de la escena para diferentes bandas de ondas, dando lugar así al color”.
Los problemas de la teoría retinex apra explicar la constancia del clor son parecidos a los q tiene para explicar la constancia
de la claridad. Ya hemos visto que los bordes debidos a transiciones bruscas de luminancia no siempre son bordes de
reflectancia, como asume la teoría de retinex, sino q hay bordes de iluminación q son percibidos como tales. Tb hemos
visto que hay fs de agrupamiento y de org de la escena q influyen sobre la asignación de la claridad. Estos fs tb influyen en
el color. La teoría retinex no es una teoría completa de la constancia del color pero ha sido una teoría muy influyente y ha
puesto de manifiesto la importancia de fs relevantes. Un aspecto de la teoría q merece la pena destacar es su capacidad para
generar investigación fisiológica. De la isma forma que las invests psicofísicas de Hurvich y Jameson llevaron a DeValois
a buscar células oponentes en los nucleos geniculados laterales del talamo, asi tb los trabajos de Land sobre la psicofísica
de la constancia del color llevaron a la nvest de células en la cortexa q respondieran específicamente al color propio de la
reflectancia de una superficie por oposición a la longitud de onda. Las invests de Zeki en la uni de Londres apuntan a que
en el área V4 de la cortexa occipital extraestriada existen esas células. Zeki realizó ss invests tanto con técnicas de registro
unicelular en macacos como con técnicas de neuroimagen en personas. En sus invests con macacos comparó la respuesta
de células en V1, V2 y V4 ante Es tipo Mondrian. Comprobó que mientras las células V1 y V2 respondían a las distintas
combinaciones de lonitudes de onda, independientemente del color de las superficies, las células V4 respondían al color de
las superficies del mondrian y no a las distintas combinaciones de ongitudes de onda.
En sus investigaciones con personas Zeki estudio las zonas implicadas en la percepción del color comparando la activación
de distintas zonas cerebrales a un Mondrian acromático con su activación a un Mondrian cromático de formas iguales al
anterior. Encontró que la zona del cerebro que respondía específicamente al color era la formada por el giro fusiforme
situado en la zona ventral de la corteza occipital (ver Figura 2.16 en p. 100).
Zeki se refiere a estas zonas de la corteza cerebral humana como equiva- lentes al área V4 en el macaco, aunque no hay
acuerdo en este punto.
La observación clínica de pacientes ha puesto también de manifiesto que la lesión de estas zonas del cerebro da lugar a una
forma de acromatopsia cortical que reduce al paciente a un tipo de visión exclusivamente acromáti- ca32. Vemos, por
tanto, que existe evidencia fisiológica importante a favor de zonas cerebrales cuya respuesta está asociada con aspectos
importantes de la apariencia del color como es su constancia a pesar de los cambios en luminan- cia que puedan introducir
en una escena las variaciones en iluminación. Zeki (Zeki & Marini,1998) es el investigador que más fuerte ha apostado por
re- lacionar V4 con el cómputo que Land atribuía a sus mecanismos hipotéticos. Según Zeki son los campos receptivos de
V4 los idóneos para llevar a cabo las comparaciones entre zonas remotas de una misma escena como postula la teoría
retinex ya que reciben información no sólo de las células de V1 y V2 del mismo hemisferio sino también las del hemisferio
cerebral contrario a través de conexiones del cuerpo calloso.
Con el estudio de la constancia del color completamos el tratamiento de los principios fundamentales que gobiernan la
percepción del color. Hemos visto cómo una codificación inicial de la longitud de onda de naturaleza tri- cromática da
lugar a una codificación en términos oponentes de los colores fundamentales. También hemos visto cómo, en fases
posteriores de procesa- miento, el sistema visual realiza determinados cómputos que permiten alcan- zar información
acerca de los objetos. La consecución de la constancia del color, y de todas las demás constancias, es uno de los principales
logros del sistema visual para proporcionarnos un mundo objetivo al que poder adaptar nuestro comportamiento con éxito.
En las primeras fases, el procesamiento del color tiene lugar de forma relativamente encapsulada, es decir, relativa- mente
independiente de otros aspectos de la percepción visual, como son la forma o la profundidad. En el establecimiento de la
constancia, sin embargo, el sistema visual utiliza información procedente de otros módulos visuales para resolver el
problema de la asignación de colores a superficies. Una ca- racterística general de los procesos que tiene lugar en las fases
que hemos estudiado es que predomina en ellos el procesamiento de abajo arriba. No excluimos que factores atencionales,
de aprendizaje u otras influencias cog- nitivas puedan modular el funcionamiento de esos procesos33, pero no son
necesarios para llevar a cabo el procesamiento que tiene lugar en esas fases.
Sin embargo, la percepción del color no termina con la determinación de la constancia. Al igual que cualquier otro aspecto
de la percepción, el color tiene que entrar en contacto con nuestro conocimiento del mundo, y en par- ticular con nuestro
conocimiento de los objetos y de los colores, para adquirir significación, para contribuir al reconocimiento de los objetos y
para facilitar la adaptación al medio. A esta nueva fase del proceso perceptivo, en la que la información que fluye desde el
medio ambiente hacia el organismo establece contacto con el conocimiento del organismo, la llamamos de forma genérica
categorización perceptiva y es la fase que vamos a estudiar a continuación.

CATEGORIZACIÓN DEL COLOR


El espectro visible está formado por una banda continua de longitudes
de onda que, en general, se extiende entre los 400 y 700 nanometros.
Toda esta gama de longitudes de onda es codificada 1º por 3 tipos
diferentes de receptores y recodificada dp sobre la base de tres pares de
colores oponentes: rojo-verde, amarillo-azul y blanco-negro. Sin
embargo, nuestro vocabulario está repleto de términos referentes a
colores que van mucho más allá de los seis colores mencionados: rosa,
marrón, malva, naranja, pardo, morado, marfil, oro, púrpura, caqui, cian,
violeta, beige, crema, burdeos, bermellón, etc., son sólo unos cuantos de
los numerosos matices que podemos discriminar entre los colores,
aunque no todas las personas podrían afirmar ser capaces de ello.
El mundo de los colores, está abierto al aprendizaje discriminativo y es tb el resultado de influencias culturales que,
mediante la creación de cats perceptivas, nos enseñan a ver el mundo de una forma det. Debemos preguntarnos por la
naturaleza del conocimiento acerca de los colores porque, en última instancia, el mundo de las cats respecto al color va a
actuar como filtro último a la hora de asignar un nombre a una experiencia particular de color. El problema es el grado de
generalidad o de relativismo particular q cabe esperar en el mundo de las cats del color.
Durante algún tiempo se pensó en términos de mero relativismo cultural:
las personas de distintas culturas aplican nombres distintos a los colores de acuerdo con su experiencia. Es famoso el ej del
antropólogo Franz Boas sobre el nº de palabras que los esquimales tienen para referirse a la nieve. Si eran capaces de
discriminar más de 12 tipos de nieve distintas era debido a su adaptación al medio ambiente polar y a la necesidad de
asignar significación a aspectos q pasan desapercibidos para miembros de otras culturas. La generalización de esta tesis
llevó a pensar q la forma en que las distintas culturas fragmentan el espectro luminoso en cats de color era arbitraria.
Berlín y Kay, antropólogos, hicieron un estudio sobre los términos básicos del color q demostró q hay unas tendencias
comunes entre las distintas culturas. Comenzaron x definir como términos básicos d color los q tuviesen estas condiciones:
- Debían ser términos formados x un único lexema. Esto excluía los nombres compuestos de colores cm azul marino, etc.
- Debían ser términos referidos al color y no a un objeto o material det del que el color tomara el nombre. Esto excluía
términos como dorado, marfil, crema, etc.
- Debían ser ampliamente usados para designar el color de una gran variedad de objetos, lo q excluía términos locales
como rubio o moreno que sólo se aplican a objetos dets como la piel o el pelo.
- Debían tener una frecuencia alta de uso en la lengua de la cultura, excluyendo los términos demasiado técnicos.
Con esta definición de términos básicos de color, Berlín y Kay estudiaron directamente 20 lenguas diferentes con métodos
experimentales y otras 78 por medio del análisis de escritos. Encontraron que en todo el conjunto de lenguas estudiadas se
podían discriminar doce términos básicos de color: rojo, verde, amarillo, azul, blanco, negro, gris, marrón, rosa, naranja,
púrpura, y un azul claro que en muchas culturas tiene un término único para designarlo. Dp Kay y McDaniel ampliaron
este conjunto de 12 a 16 para incluir términos muy comunes en varias culturas q hacen referencia a subconjuntos de los
doce anteriores. Los cuatro términos añadi- dos fueron: cálido, que puede referirse a rojo o a amarillo, frío para el azul o
verde, claro-cálido, que abarca a blanco o rojo o amarillo, y oscuro-frío, para el negro o azul o verde.
El segundo descubrimiento que Berlín y Kay hicieron fue la utilización de únicamente 22 conjuntos diferentes de colores
de entre los millones q pueden hacerse con esos 16 términos básicos. Entre estos 22 conjuntos descubrieron un patrón que
podía interpretarse como un orden det en el desarrollo de los términos de color. Así, si una lengua det tenía solo 2 términos
básicos para designar el color, los términos usados eran claro-cálido y oscuro-frío; si tenía 3 términos básicos, eran blanco,
cálido y oscuro-frío; si eran 4, el oscuro frío se dividía resultando blanco, cálido, negro y frío; si la lengua tenía 5 términos,
el q se dividía era el cálido, dando lugar a blanco, rojo, amarillo, negro y frío; finalmente, si la lengua tenía 6 términos, se
dividía el término frío y los utilizados eran blanco, rojo amarillo, negro, azul y verde. Lejos, por tanto, de un relativismo
cultural, sus resultados pusieron de manifiesto q los términos básicos de color se mueven en torno a los 6 colores funds que
Hering había postulado, aunque el modo de agrupamiento en cada cultura sea diferente.
En el caso de las veinte lenguas que Berlin y Kay estudiaron con métodos experimentales, investigaron con especial interés
la manera de llevar a cabo la categorización de los colores. Para ello utilizaron un gran nº de fichas de distintos colores
tomados del libro del color de Munsell y pidieron a los sujetos q las clasificaran en distintas cats. Encontraron q la
tendencia predominante era agrupar las fichas de colores en torno a un conjunto de colores funds que actuaban como
colores focales mientras q los límites entre las diferentes cats eran mucho más difusos. Parece, por tanto, q las cats
conceptuales referentes a los colores están organizadas de forma q unos colores dets son los más representativos y actúan
de prototipo de la cat, mientras q el resto se categoriza x semejanza con los distintos prototipos q sirven de puntos focales.
Recientes investigaciones de Zeki han dado importantes indicios sobre las estructuras neuronales q pueden estar implicadas
en las fases superiores de procesamiento del color. Recordemos q fueron las investigaciones de Zeki las que relacionaban
la constancia del color con el procesamiento que tiene lugar en V4. Recordemos también que en esas investigaciones los
estímulos utilizados por Zeki fueron conjuntos de colores al estilo Mondrian. En sus últimas invests, Zeki y Marini han
utilizado escenas de objetos reales que en unos casos eran acromáticas y en otros estaban dotadas de color. Además, en este
último caso, los colores podían ser apropiados para los objetos representados (fresas rojas, por ej) o inapropiados (fresas
azules). Utilizaron resonancia magnética funcional para registrar la actividad cerebral ante la proyección de las escenas.
Los resultados mostraron q, al comparar las activaciones producidas por los objetos con colores apropiados con las
producidas por los mismos objetos pero acromáticos, se producía una mayor activación del giro fusiforme pero, en este
caso, implicaba a zonas del giro fusiforme que no se activaban ante la presencia de un Mondrian. Otras zonas que también
se activaron diferencialmente fueron el giro parahipocampal, situado en la zona media del lóbulo temporal, y el mismo
hipocampo. Estas zonas no se activaron cuando los objetos mostraban colores inapropiados. Zeki lo interpretó en el sentido
de q estas estructuras neuronales no llevan a cabo un análisis abstracto del color sino q están reldas con la interacción del
color con los objetos y con la memoria de los colores de los objetos. Es probable q sean estas estructuras las que estén
preferentemente reldas con la categorización del color.

6. RESUMEN Hemos visto q las fases tienen un alto grado de org serial, pero tb en cada una de las fases hay un alto grado
de interacción en paralelo de carácter intramodular, en las primeras fases, e intermodular en las últimas. A medida q el
procesamiento del color se hace más complejo, mayor es la intervención de todo el conocimiento a disposición del sistema
visual para precisar la inf que necesita el organismo.
T.3 PROCESAMIENTO VISUAL INICIAL
La percepción de la forma es central pq la forma el determinante principal del reconocimiento visual de los objetos.
3 aportaciones: (la 1ª) invest fisiológica del sistema visual, la invest psicofísica y la teoría computacional de la visión (la
última). Aunq no sean teorías completas de la percepción de la forma, son determinantes del modo de entenderla pq cada
una plantea un punto de partida diferente xa entender los 1ºs pasos del proces q son la base sobre la q construir los demás.
1. LAS INVESTIGACIONES DE HUBEL Y WIESEL
Kuffler descubrió la org de los campos receptivos de las células ganglionares en términos oponentes entre el centro y el
contorno. En el cap anterior estudiamos el func de este tipo de células. Hubel y Wiesel trataron de extender la invest de los
campos receptivos a las células de la corteza estriada y encontraron diferentes clases de células q tenían difs tipos de
campos receptivos. Clasificaron estas células en 3 clases con el nombre de células simples, complejas e hipercomplejas.
1.1 Tipos de células
- células simples: tienen campos receptivos con una forma más complicada q las ganglionares o las del núcleo geniculado
del tálamo cuyos campos receptivos son circulares. Pero continúa teniendo la estructura antagónica centro-contorno en la q
tanto uno como otro puede ser excitador (on) o inhibidor (off). Un punto de luz proyectado sobre una zona excitadora (on)
es un E suficiente para aumentar la tasa de disparo de una célula y un punto de luz proyectado sobre una zona inhibidora
(off) disminuye la tasa de disparo. Cuando los Es son mayores q un punto de luz la respuesta de la célula aumenta de forma
lineal a medida q aumenta la cantidad de luz que cae sobre una zona excitadora o dism a medida q aumenta la cantidad de
luz q cae sobre una zona inhibidora. Esta naturaleza lineal de la respuesta es una de las caracs principales de las simples.
El estímulo óptimo para una célula simple es aquel que mejor se ajusta a la forma de su campo receptivo y la geometría de
los campos receptivos da lugar a diferentes tipos de células simples. La mayor parte tienen campos receptivos alargados y
responden preferentemente a líneas o bordes de una det orientación y posición en la retina.
- Unas tienen un área excitadora en un lado y otra área inhibidora en el otro lado por lo que responden preferentemente a
bordes de luminancia formados por la transición de luz a oscuridad; por ello se les llama a veces detectores de bordes.
- Otras tienen campos receptivos con una zona central alargada, que puede ser excitadora o inhibidora, flanqueada a uno y
otro lado por zonas antagónicas. Estas células responden preferentemente a líneas claras u oscuras de una det orientación y
posición en la retina y son a veces llamadas detectores de líneas o detectores de barras. En general las distintas formas de
campos receptivos q se han encontrado son pocas y responden a tipos diferentes de bordes, líneas o barras. Pero para cada
una de estas formas se ha encontrado una gran cantidad de células cada una de las cuales responde a una orientación y
posición retiniana particular pero q en conjunto cubren con sus respuestas todas las orientaciones posibles en el campo
visual. El tamaño de los campos receptivos de las simples depende de su posición en la retina con rel a la fóvea. En la zona
de la fóvea los campos receptivos son más pequeños q en la periferia.
Aún no se sabe cómo las células simples se relacionan con las ganglionares y con las de los núcleos geniculados del tálamo
cuyos campos receptivos son circulares. Hubel propuso un modelo sencillo como el de la Fig 3.1.
La fig ilustra las conexiones entre 4 células con campos receptivos circulares y una célula
simple. Cada una de las 4 células que conectan con la simple tiene un campo receptivo de centro
on y contorno off y los centros de estas cuatro células se encuentran dispuestos a lo largo de una
línea. Si suponemos q muchas células como estas 4 se estan conectadas a una simple, podemos
entender que el campo receptivo de la célula simple consistirá en una región excitadora estrecha
y alargada q estará flanqueada por una región inhibidora y que un estímulo luminoso semejante a
una línea será capaz de activar a su máximo nivel a esa célula simple. El modelo de la Fig 3.1 es
solo un modelo hipotético, más adelante veremos q hay otras formas de interpretar el func de las células «simples».
- Las células complejas: las 1ªs descubiertas x Hubel y Wiesel, las más abundantes en la corteza visual estriada; el 75% de
esta corteza está formada por células complejas. Comparten con las simples la cualidad de responder solo a líneas q tienen
una orientación específica. Diferencias respecto a las simples:
l. Tienen campos receptivos algo más grandes que las células simples.
2. No responden de forma específica a la posición de una línea dentro del campo receptivo. Con tal que se mantenga la
orientación de la línea, cualquier posición dentro del campo receptivo es capaz de provocar la excitación de estas células.
3. Son muy sensibles al movimiento de las líneas que sirven de estímulo.
No responden si son estimuladas encendiendo o apagando pequeños puntos de luz estacionarios. Incluso las líneas
estacionarias producen una respuesta débil y no mantenida. Pero si una línea orientada adecuadamente se mueve a lo largo
del campo receptivo, su respuesta es máxima y se mantiene desde q el E entra en el campo visual hasta q lo abandona.
4. Así, la R de las complejas no es lineal respecto a la cantidad de luz recibida, al contrario q la respuesta de las simples.
Fig 3.2 hipotético modelo de las rels entre las células simples y las complejas propuesto por Hubel. Representa una célula
compleja q recibe inf de 3 simples aunq habría q suponer q son muchas más las simples q convergen en una compleja. Los
campos receptivos de las simples tienen todos la misma orientación pero están distribuidos de forma q se solapan sobre la
totalidad del campo receptivo de la compleja.
La célula compleja se activará siempre que su campo receptivo sea estimulado por una línea con la orientación apropiada,
pero la excitación de la célula será breve si la estimulación es estática, pero si el E se mueve a lo largo del campo receptivo
de compleja, un nº mayor de simples disparará sucesivamente, evitando el problema de la adaptación de las simples y
manteniendo de esta forma la excitación sostenida de la célula compleja.
Aunq existe un pequeño porcentaje de las mismas, entre un 10 y un 20% en las láminas superficiales de la corteza estriada,
q muestran selectividad a la dirección del movimiento de forma q tienden a disparar preferentemente cuando el mov del
estímulo va en una det dirección y no disparan o lo hacen menos intensamente cuando el mov es en dirección contraria.
- células hipercomplejas: campo receptivo más selectivo q las complejas. Carac fund: disminución de su R cuando la
longitud de la línea q la estimula aumenta por encima de un límite. Esto es sorprendente pq tanto las simples como las
complejas muestran un aumento en la R cuando aumenta la longitud de la línea q se usa como E. Es como si las nuevas
células respondieran preferentemente a líneas q presentan una terminación. Hoy se llaman células con inhibición final pq
responder a líneas con terminación no está sólo asociada a células q presentan caracs complejas sino tb a células simples.
Es decir, hoy se piensa q las células hipercomplejas son grupos particulares tanto de células simples como complejas q
tienen una sensibilidad gradual a la presencia de una terminación.
1.2 La arquitectura de la corteza estriada Tanto las invests de Hubel y Wiesel, como posteriores, principios de su org:
1) org retinotópica. La corteza estriada preserva la topografía propia de la retina en el sentido de que áreas que son
adyacentes en la retina proyectan sobre áreas en la corteza que también son adyacentes. La representación de la distancia
entre las líneas radiales tiende a igualarse en la autorradiografía a pesar de que en el estímulo la distancia entre las líneas es
muy diferente. Esta diferencia entre las rels métricas de la representación en la corteza y en el estímulo se conoce como
magnificación cortical y es una distorsión característica de la representación retinotópica de la corteza estriada debida a q
la zona central de la retina ocupa un área más amplia en la corteza q la zona periférica. Esta distorsión es una consecuencia
de la mayor densidad de receptores existente en el centro de la retina en comparación con la periferia. El análisis q la
corteza visual realiza en el centro de la retina que es más detallado que en la periferia.
2) columnas de dominio ocular. una de las 1ªs caracs de su arquitectura q fue descubierta. Si se introduce un electrodo en
la corteza estriada de forma perpendicular a su superficie, puede comprobarse q todas las células a lo largo de esa
trayectoria responden de forma preferente a la estimulación presentada a un det ojo y no lo hacen, o en menor medida, a la
presentada al otro ojo. Si el electrodo se introduce de forma oblicua a la superficie, tan en paralelo a la misma como sea
posible, el predominio de un ojo sobre el otro en la excitación de las células alterna. Primero predomina un ojo y luego otro
y la secuencia alternante se repite a lo largo de la trayectoria. Estos resultados obtenidos con técnicas de registro unicelular,
ponen de manifiesto una org de la corteza en columnas, cada una de ellas formada por conjuntos de células que responden
a un ojo con preferencia al otro y todas ellas organizadas de forma alternante respecto al ojo dominante. Fig 3.4 esquema
de un corte realizado tangentemente a la superficie del área V1 de un mono. El corte muestra la org alternante de columnas
claras y oscuras correspondientes al ojo derecho e izquierdo respectivamente. En general, el tipo de transición brusca q se
produce de las zonas claras a las oscuras es propio de la capa 4C de la corteza, en el resto de las capas la alternancia de
columnas de dominio ocular es más suave y gradual pasando de columnas con clara preferencia por un ojo a otras en que la
preferencia es menor y a otras claramente binoculares antes de llegar a las columnas con preferencia por el otro ojo.
3) columnas de orientación. la forma en que se organiza esa preferencia a la orientación (carac tanto de las simples como
de las complejas) tiene tb una curiosa regularidad. Al igual q la preferencia ocular, la preferencia por una det orientación
permanece constante si la penetración del electrodo de registro es perpendicular a la superficie de la corteza. Todas las
capas de la corteza desde la superficie hasta la sustancia blanca muestran preferencia por una det orientación excepto la
capa 4 q no muestra preferencia. Si la penetración del electrodo se hace de forma paralela a la superficie, aparece una
secuencia regular de cambios en la preferencia por la orientación de forma que cada vez que el electrodo avanza unas 50
micras se produce un cambio en la preferencia por la orientación de unos 10 grados de ángulo bien en el sentido de las
agujas del reloj bien en sentido contrario. Esta distribución del cambio hace q en un espacio de aprox un milímetro el
cambio de preferencia en la orientación sea de unos 180 grados.
1.2.4. org modular. Hubel y Wiesel propusieron una org funcional de la corteza estriada q resumía las preferencias
oculares y de orientación. Según Hubel las 6 capas de la corteza están organizadas en módulos o hipercolumnas que se
distribuyen de forma perpendicular a la superficie. Las dims de los módulos varían de una capa a otra, pero la org
funcional es la misma. Fig 3.5: idealización de la org que caracteriza a cada módulo. Como se ve, la org del módulo
resume la estructura de columnas q hemos comentado en 2 y 3. Por un lado el conjunto de
columnas alternantes de dominio ocular I D I D... organizan la inf del ojo izquierdo y
derecho respectivamente. Por el otro, se muestra la org de las columnas de orientación
especificando los cambios en orientación a los q las distintas columnas son sensibles.
Estas unidades funcionales son el mosaico fund q organiza la corteza estriada.
Las invests de Hubel y Wiesel demostraron tb q la org de la corteza visual estriada no sólo depende de fs de herencia sino
tb de fs reldos con el medio. Estudiando la conducta de las células de la corteza estriada de gatos pequeños en condiciones
normales y de privación visual comprobaron que, si bien hay células q responden selectivamente a la orientación en los
recién nacidos, hay tb periodos críticos en las primeras semanas de maduración durante los cuales es necesaria la
estimulación ambiental para lograr un desarrollo normal en el func de las células de la corteza estriada.
El periodo crítico no es el mismo xa todas las propiedades de la estimulación visual q son procesadas x la corteza estriada.
Está reldo con el nivel q ocupan las células en el sistema visual y tiene lugar antes para las células q ocupan un nivel más
bajo, ya q su maduración es un requisito necesario para el desarrollo de células que operan a un nivel más alto. El periodo
crítico de la sensibilidad a la orientación oscila entre la 1ª y la 5ª semana de vida.
El periodo crítico para el dominio ocular entre la 5ª y la 10ª semana de vida.
Los trabajos de Hubel y Wiesel son una de las principales aportaciones al estudio de la percepción visual en el sXX. Su
influencia fue enorme ya que sus descubrimientos parecían apoyar a las teorías basadas en detectores de características.
2. APROXIMACIÓN PSICOFÍSICA
2.1 El análisis de la frecuencia espacial Para Hubel y Wiesel lo q hacen las células de la corteza estriada es responder de
forma selectiva a caracs estimulares simples como la orientación y el movimiento de líneas y bordes. Estas células son
detectores de características. A 1ª vista esta interpretación parece la más simple y ligada a los hechos experimentales.
Pero tiene estas dificultades:
- es verdad q una línea luminosa puede aparecer como el mejor E para una det célula, pero no se puede descartar q otros Es
posibles puedan estimularla tb. Ningún experimento puede agotar el conjunto de Es eficaces posibles para una célula.
- suponer que el análisis más elemental del patrón estimular que realiza el cerebro lo hace en términos de líneas y bordes
requeriría una teoría capaz de mostrar que todo el conjunto de formas y objetos q podemos percibir se puede descomponer
en términos de líneas y bordes. No es negar la existencia de células q responden preferentemente a líneas de una det
orientación; esto es un hecho experimental; sino preguntarse si esa respuesta es el nivel más elemental de análisis.
La teoría de la frecuencia espacial surgió como una alternativa a la teoría de los detectores de características:
- Sostiene q el análisis más elemental de los objetos q realiza el sistema visual es en términos de cs de frecuencia espacial.
- El patrón estimular debe ser considerado como una onda compleja de intensidad luminosa q es analizada por el cerebro
en términos de sus cs elementales de frecuencia espacial. Las células de la corteza estriada llevan a cabo ese análisis de cs
pq actúan como filtros espaciales q responden selectivamente a una det banda de frecuencias espaciales con preferencia a
otras frecuencias.
2.2. El concepto de frecuencia espacial Por muy compleja que sea una onda, siempre se puede analizar en sus cs simples
llamados ondas sinusoidales. Fig 3.6. A: onda sinusoidal referida al dominio
del espacio. En B aparece el E correspondiente a la onda sinusoidal. El eje
horizontal de la onda representa el espacio estimular cuyos cambios en
intensidad están representados en el eje vertical. El E varía en intensidad a lo
largo de la dim horizontal con oscilaciones suaves de zonas claras y oscuras
de igual amplitud que se repiten en intervalos iguales. Este E se llama
enrejado y el de la Fig 3.6 es un enrejado sinusoidal en el q las transiciones
entre las zonas claras y las oscuras son suaves y continuas. Cuando estas
transiciones son bruscas (fig 3.7) el enrejado se llama onda cuadrada. Igual
q las ondas sinusoidales son los els más simples q podemos analizar una onda, los enrejados sinusoidales son los Es más
simples xa estudiar la sensibilidad del S visual a la frecuencia espacial. Todo enrejado sinusoidal 4 parámetros: la
frecuencia, amplitud y fase de las ondas sinusoidales q lo caracterizan y la orientación del patrón respecto a la vertical.
1. La frecuencia espacial de un enrejado viene dada por la anchura de las
zonas claras y oscuras que lo componen. Un enrejado en el que las zonas
claras y oscuras son anchas tendrá menor frecuencia espacial q un enrejado
en el q las zonas son estrechas ya q el nº de ciclos por unidad de distancia
en la onda asociada al enrejado será mayor en el 2º caso. La unidad de
distancia q se usa es el grado de ángulo visual.
El concepto de ángulo visual es sencillo y nos permite relacionar todas las
medidas con el observador. En la Fig 3.8 puede verse q una flecha (h)
colocada cerca del observador (o) produce una imagen retiniana mayor que
otra flecha (h') q está más alejada. Si para cada flecha trazamos dos líneas
q intercepten sus dos extremos y converjan en el ojo del observador,
tendremos dos ángulos visuales alfal y alfa2 tales q alfa1 es mayor que
alfa2. Los ángulos, por tanto, están directamente reldos con el tamaño de la
imagen retiniana y éste, a su vez, está directamente reldo con el tamaño del
E e inversamente reldo con la distancia a la q el E se encuentra. En el caso
de la frecuencia espacial se usa el nº de ciclos por grado de ángulo visual (c/gav), porque nos indica directamente las caracs
espaciales del E q llega al observador independientemente del tamaño del E o de la distancia a la que esté.
2. La amplitud de onda de un enrejado es la mayor o menor intensidad luminosa de sus zonas claras u oscuras. Un
concepto importante derivado de la amplitud es el de contraste: la diferencia entre zonas claras y zonas oscuras y q se
define así: Contraste = (Imax - Imin) / (Imax + Imin)
Donde Imax es el punto de máxima intensidad e Imin el punto de mínima intensidad luminosa en el enrejado. Se puede ver
claramente que el contraste será cero cuando lmax sea igual a Imin y será igual a 1 cuando Imin sea cero. Por tanto, el
índice de contraste oscila entre 0 - cuando no hay diferencias de intensidad luminosa y tenemos un campo uniforme de luz-
y 1, cuando la diferencia entre las zonas sea máxima.
3. La fase de un enrejado se refiere a la posición de la oscilación de la onda sinusoidal en un momento det que sirve de
punto de referencia. La fase se mide en grados en relación con ese punto de referencia. La onda sinusoidal de la Fig 3.6 en
el punto en que comienza está en fase de 0°, también llamada fase seno porque es el punto de comienzo de la inflexión en
sentido positivo. Si la onda comenzara en el punto de su máximo valor positivo de amplitud se diría que está en fase de
90°, también llamada fase coseno. Si comenzara en el punto de comienzo de la inflexión en sentido negativo estaría en fase
de 180° (fase antiseno) y si lo hiciera en el punto de mínimo valor de amplitud estaría en fase de 270° (fase anticoseno). La
fase es, por tanto, una medida de posición y puede variar entre Oy 360 grados.
4. La orientación de un enrejado se refiere al grado de desviación de la vertical que presentan sus zonas claras y oscuras.
Se suele expresar en grados a partir de la vertical y en sentido contrario al de las agujas del reloj.
2.3. El análisis de Fourier una de las grandes ventajas de estudiar el patrón de estimulación visual en términos de ondas,
es q la teoría de análisis de ondas está bien establecida en física y podemos usarla para investigar la validez y el alcance de
esta concepción estimular en la percepción visual. En 1822 Fourier propuso su teorema fund sobre las ondas: cualquier
onda, tenga la forma q tenga, se puede expresar de manera única como la superposición (suma) de ondas sinusoidales de
frecuencias y amplitudes definidas. La fig 3.9: aplicación de este teorema al análisis de una onda compleja como es una
onda cuadrada. En la fila F el gráfico de dicha onda. Teóricamente sus cs armónicos son
infinitos en nº, pero en la práctica una onda cuadrada puede aproximarse mediante la
suma de un nº finito de cs. La fila E en la fig muestra cómo la suma de los cs A, B, C y D
produce una onda compleja q se aproxima a la onda cuadrada. La adición de armónicos
de mayor frecuencia aproximaría la onda compleja al ideal representado en F.
Los cs de una onda cuadrada son ondas sinusoidales que guardan entre sí un conjunto de
rels peculiares. El 1r c es el llamado fundamental que consiste en una onda sinusoidal de
igual frecuencia y amplitud que la onda cuadrada. El resto de los cs se llaman armónicos
cuya frecuencia es un múltiplo impar de la frecuencia fundamental y cuya amplitud varía
en función de su orden. Así, el 2º c corresponde al 3r armónico y tiene 3 veces la
frecuencia del fundamental y un tercio de su amplitud, el 3r c corresponde al 5º armónico
y tiene 5 veces la frecuencia del fundamental y un quinto de su amplitud, etc. Así, cada
nuevo armónico q se añade contribuye al total una amplitud cada vez más pequeña, por lo q en la práctica la síntesis de una
onda cuadrada puede aproximarse de forma bastante satisfactoria usando un pequeño conjunto de armónicos aunq en teoría
el nº de cs sinusoidales de una onda cuadrada sea infinito. Fig 3.9: la suma de los 3 primeros armónicos al fundamental da
una buena aprox a la onda cuadrada aunq necesitaríamos añadir más para hacer regulares los puntos máximos y mínimos.
Igual q una onda cuadrada, la onda compleja correspondiente a la imagen de un objeto puede ser analizada en sus cs
fundamentales. Una idea general del papel que los distintos cs de frecuencia espacial juegan en la determinación de una
imagen, puede obtenerse considerando la Fig 3.10 en la q aparece en el centro una fotografía de Einstein. La imagen a la
izquierda muestra la misma pero una vez se han eliminado los cs de frecuencia espacial alta. La imagen de la derecha es
trás haber eliminado los cs correspondientes a las frecuencias espaciales bajas. Como puede comprobarse, los cs de
frecuencia espacial baja dan inf sobre los aspectos globales de la imagen, mientras q los de alta frecuencia de los detalles.
2.4. El análisis de Fourier como modelo así, la imagen de intensidad luminosa que da un patrón de estimulación visual
puede describirse en términos de análisis de ondas y esta forma de entender el E da un proced preciso para su estudio.
Fourier nos da un instrumento de análisis del E útil pero sin una significación psicológica particular. Hay q preguntarse si
el sistema visual tiene filtros diferencialmente sintonizados a un det rango de frecuencias espaciales con preferencia a
otras_ Si éste fuera el caso, cabe pensar q la corteza visual se comporta como un analizador Fourier q, a través del func de
estos filtros, descompone el patrón estimular en sus elementos constituyentes de frecuencia espacial. Vimos cómo 3
receptores q responden diferencialmente a distintas longitudes de onda son suficientes para producir las señales primarias
necesarias para codificar el color. Ahora se trata de asumir la existencia de receptores q responden diferencialmente a
distintas frecuencias espaciales de modo q las frecuencias espaciales altas serían procesadas por canales diferentes a los q
procesan las frecuencias espaciales medias y bajas. La existencia de esos hipotéticos filtros de frecuencia espacial sería un
1r paso para poner la teoría de la percepción de la forma sobre un sólido fundamento. Los defensores de la teoría de la
frecuencia espacial opinan q esos receptores de frecuencia espacial existen y han dado evidencia experimental:
2.5. Evidencia experimental más relevante a favor de la existencia de filtro de frecuencia espacial es psicofísica:
La psicofísica es la parte de la invest psicológica q trata de establecer rels entre las caracs físicas de los Es y la experiencia
consciente usando métodos comportamentales. La carac principal de los métodos conductuales es q analizan la ejecución
del sujeto en tareas muy precisas q permiten hacer inferencias sobre la naturaleza de los procesos que intervienen en la
tarea. Se han usado tareas de detección para medir el umbral de contraste de los sujetos y ha sido el comportamiento del
sistema en sits de umbral el q ha permitido inferir la existencia de diferentes filtros de frecuencia espacial. El umbral de
contraste es el contraste mínimo necesario para distinguir un enrejado sinusoidal de una escena de luminancia homogénea.
Para determinar la cantidad de contraste necesaria para determinar el umbral es frecuente usar el método de ajustes como
método psicofísico. En éste, el sujeto controla el contraste hasta q el enrejado resulta mínimamente perceptible. Cm valor
de contraste correspondiente al umbral suele tomarse el q es capaz de producir un porcentaje de respuesta correctas det.
2.5.1. La Función de Sensibilidad al Contraste (FSC) Si hacemos un experimento psicofísico de medición del umbral de
contraste usando un variado nº de enrejados sinusoidales de diferentes frecuencias espaciales podemos obtener la función
de sensibilidad al contraste de un observador determinado. La sensibilidad al contraste es el valor recíproco del umbral de
contraste ya q la sensibilidad al contraste de una persona será mayor cuanto menor sea el valor de contraste de su umbral.
La función de sensibilidad al contraste es la función q relaciona la sensibilidad al contraste con la frecuencia espacial de los
enrejados utilizados. Fig 3.11: FSC típica de una persona adulta en condiciones de visión fotópica. Como se ve, la función
tiene la forma de U invertida. Todos los puntos en la curva representan la sensibilidad máxima para cada frecuencia
espacial. El punto óptimo de sensibilidad se sitúa entre los 4 y los 5 ciclos por grado de ángulo visual y decae
progresivamente a medida q aumenta la frecuencia espacial, de forma q por encima de aprox los 50 ciclos por grado de
ángulo visual no somos capaces de percibir diferencias entre un enrejado y una superficie de luminancia homogénea.
La función de sensibilidad al contraste permite caracterizar la sensibilidad A de un det sistema visual. Si el experimento de
se hiciera en condiciones de visión escotópica la sensibilidad a todas las frecuencias sería mucho menor pero afectaría más
a las altas que a h las bajas frecuencias porque al faltar la contribución de los conos se perdería b la agudeza visual que
permite percibir los detalles de un objeto.
2.5 .2. Predicciones a partir de la FSC la función de sensibilidad al contrate es un instrumento para poder explorar la
posible existencia de filtros especialmente sintonizados a un det rango de frecuencias espaciales. Campbell y Robson
usaron la FSC de sus sujetos experimentales para comparar su sensibilidad a las ondas cuadradas con su sensibilidad a las
ondas sunusoidales. El fundamento de sus invests consistía en suponer q, si el sistema visual posee filtros sintonizados a
diferentes frecuencias espaciales y realiza un análisis del patrón estimular en términos de cs sinusoidales, entonces la
respuesta correspondiente al umbral de detección de un enrejado de onda cuadrada está det por la respuesta de los filtros a
los distintos cs sinusoidales de la onda cuadrada. Una 1ª predicción de este supuesto es que si comparamos el umbral de
detección de una onda cuadrada de 26 c/gav con el de una onda sinusoidal de la misma frecuencia no debe haber ninguna
diferencia pq en ambos casos el sistema visual está respondiendo únicamente a una onda sinusoidal de 26c/gav. Aunq la
onda cuadrada tiene más cs sinusoidales, el sistema visual no es sensible a los mismos ya q incluso el armónico de menor
frecuencia, que tendrá 78 c/gav, no cae dentro del rango de frecuencias que el sistema visual puede detectar. Por otra parte,
si comparamos el umbral de detección de una onda cuadrada de 2 c/gav con el de una onda sinusoidal de la misma
frecuencia, entonces el umbral para la detección de la onda cuadrada debe ser más bajo, es decir la sensibilidad más alta, q
para la onda sinusoidal porque la onda cuadrada tendrá, además del c fundamental de 2 c/gav, un armónico de 6 c/gav cuyo
umbral de detección es más bajo que el correspondiente al fundamental según la FSC. Así, comprobaron que predicciones
como éstas eran confirmadas por los datos experimentales y concluyeron q el sistema visual está dotado de filtros
sintonizados a rangos dets de frecuencia espacial.
2.5.3. Los posefectos de frecuencia espacial al ver el proces oponente dl color vimos q si miramos una superficie de un
color fundamental, ej rojo, y dp miramos hacia una superficie blanca, veremos la superficie blanca coloreada con el matiz
complementario, el verde. Esto se llama posefecto de color, y tiene lugar pq los receptores q responden al rojo, dbido a la
exposición prolongada al E, pierden sensibilidad y se adaptan (se hacen menos sensibles al E). Así, cuando la mirada se
centra en la luz blanca, los receptores del rojo responden con menor intensidad que los de su oponente, el verde. Los
posefectos, en general, son un fenómeno q da inf sobre la existencia y naturaleza de distinto tipo de receptores. En el
estudio de los filtros espaciales, se ha aplicado tb la lógica de los posefectos xa poder inferir la existencia de múltiples
filtros espaciales. El razonamiento se entenderá mejor con la Fig 3.12: posible rel entre la FSC y un conjunto de hipotéticos
filtros espaciales. Lo importante es q la fig hace patente q si hay múltiples filtros espaciales, la FSC es el resultado de la
actividad d todos ellos. Técnicamente se dice q es la envolvente q encierra y reúne el
comportamiento de muchos más canales cada uno de ellos sintonizado a un rango limitado
de frecuencias espaciales.
Supongamos q sometemos a un sujeto a una exposición prolongada de un enrejado
sinusoidal de una frecuencia espacial particular. Si a continuación comprobamos la
sensibilidad al contraste del sujeto verificando el estado de su FSC y lo comparamos con el
estado de la FSC previo a la adaptación, podemos sacar conclusiones acerca de la
existencia o no de múltiples filtros o canales de frecuencia espacial. Consideremos 1º la
hipótesis de q no existen múltiples filtros sino q la frecuencia espacial se procesa por un
único canal y que la FSC refleja el estado de ese canal. Entonces la adaptación producida
por la exposición prolongada al enrejado afectará a todas las frecuencias espaciales y la
FSC posterior a la adaptación mostrará una menor sensibilidad, es decir un umbral más alto, para todas las frecuencias
espaciales del dominio de la función. Sin embargo, si hay varios canales sintonizados a diferentes frecuencias espaciales, la
adaptación producida por la exposición prolongada afectará únicamente a los receptores sintonizados con esa frecuencia
por lo que la FSC posterior a la adaptación mostrará una menor sensibilidad únicamente para las frecuencias iguales a las
usadas en la fase de adaptación, mostrando una especie de bache en la zona correspondiente a esas frecuencias espaciales.
Blakemore y Campbell confirmaron la aparición de baches de sensibilidad en la zona de las frecuencias utilizadas en la
fase de adaptación de sus experimentos mientras q la sensibilidad para las frecuencias q no habían sufrido adaptación
permanecía sin cambio. Estos datos favorecen la existencia de canales múltiples en el proces de la frecuencia espacial.
2.5.4. Manipulación de la fase de los enrejados otro experimento favorable a la existencia de múltiples canales o filtros
en el procesamiento de la frecuencia espacial ha usado el hecho de q la síntesis de dos
ondas sinusoidales q están en la misma fase produce una onda compleja cuya amplitud
es igual a la suma de las amplitudes de los cs sinusoidales; pero la síntesis de dos ondas
sinusoidales cuyos componentes tienen una diferencia de fase de 180° produce una onda
compleja cuya amplitud es igual a la diferencia de las amplitudes componentes. Fig 3.13
muestra la forma de las ondas de los enrejados usados por Graham y Nachmias. La fila
inferior muestra la forma de las ondas complejas usadas como E. Las dos primeras filas
muestran los cs sinusoidales usados para sintetizar los Es. La amplitud y frecuencia de los cs es la misma para ambos Es.
Lo único q varía de un E a otro es la secuencia de fase de sus cs. El razonamiento de Grahamy Nachmias fue: si el sistema
visual funciona de acuerdo con un modelo de canal único en el q el E se procesa como una totalidad, el E correspondiente
a la onda A será más fácil de detectar q el correspondiente a la onda B ya q el contraste es mayor en A que en B. Pero si el
sistema visual analiza el E respondiendo diferencialmente a sus cs sinusoidales, los dos Es mostrarán el mismo umbral de
detección ya q la amplitud y frecuencia de sus cs es la misma. Resultados: el umbral de detección era igual para los 2 Es.
Existe una gran cantidad de experimentos que muestran de forma convincente la existencia de filtros espaciales. No aún no
se ha podido aislar esos filtros en el nivel fisiológico.
2.6. Función de la corteza visual primaria algunos autores piensan que las células encontradas por Hubel y Wiesel en la
corteza estriada son en realidad filtros espaciales y proponen una interpretación de lo que hacen las células simples y
complejas en términos de análisis de frecuencia espacial en lugar de en términos de detectores de características. Tal es el
caso de Russell y DeValois. En el lab de los DeValois, Albrecht estudió cuidadosamente la respuesta de células simples de
la corteza visual ante una barra estrechablanca y negra. Observó que la respuesta de las células presentaba oscilaciones
adicionales a ambos lados de la respuesta principal a la barra tal como se muestra en la Fig 3.14. Curiosamente este tipo de
R es el q se puede predecir a partir de la R q estas células dan a enrejados de difs
frecuencias espaciales. DeValois encontraron tb campos receptivos de difs tamaños,
unos grandes q responden a una estructura espacial gruesa y otros pequeños que
responden a una estructura espacial fina. Por otra parte existe una correlación entre el
tipo de campo receptivo y el nº d oscilaciones colaterales q presenta la R d las células.
- células con campos receptivos pequeños tienden a presentar mayor nº de
oscilaciones q las de campos receptivos más grandes.
DeValois interpretaron todos estos resultados en el sentido de q la función de al
menos algunas células de la corteza visual es analizar la frecuencia espacial del patrón
estimular. En opinión de los DeValois estas células serían la realización fisiológica de
los filtros espaciales q llevan a cabo un análisis local de las frecuencias espaciales. El
análisis se llama local pq está restringido a los pocos grados de ángulo visual q
registra el campo receptivo de cada célula. La forma q adoptan estos campos
receptivos puede describirse por medio de una función de Gabor, equivalente a
multiplicar una función sinusoidal por una función normal como se muestra en la Fig
3.15. Obsérvese la semejanza entre la forma de la función de Gabor en esta figura con
la respuesta de las células de la Fig 3.14. Los DeValois midieron cuidadosamente la R
de las células simples y complejas de Hubel y Wiesel a la frecuencia espacial.
Encontraron q el grado de respuesta a la frecuencia espacial se extendía en un
continuo q iba desde células q tenían un campo receptivo finamente sintonizado a dets
frecuencias espaciales a células con una sintonía mucho más amplia. En general las
células q responden a frecuencias espaciales altas tienen campos receptivos más
estrechos q las sintonizadas a frecuencias espaciales bajas.
Tb suele ocurrir q las simples tienden a responder a una banda de frecuencias más
estrecha q las complejas aunq la diferencia no es muy grande. El grado de
selectividad a la frecuencia espacial está correldo con el grado de selectividad a la
orientación: las células q responden a bandas estrechas de frecuencia espacial tb
responden a un rango estrecho de orientaciones diferentes y las q responden a un rango amplio de frecuencias espaciales tb
lo hacen a un amplio rango de orientaciones.
Para los DeValois tb la corteza estriada está organizada funcionalmente en módulos, pero han propuesto una ampliación de
la idea de Hubel y Wiesel añadiendo una 3ª dim: la frecuencia espacial. El módulo cortical sería parecido al de la fig 2.5
pero ampliando la representación de la superficie que muestra la orientación de las líneas. En esta superficie la frecuencia
espacial estaría representada desde el centro hacia la periferia de cada orientación. Así las bajas frecuencias espaciales
estarían representadas en el centro mientras q la representación se desplazaría hacia la periferia a medida q la frecuencia
espacial aumentara. Para losDeValois, por tanto, el hecho de q las células de la corteza estriada procesen frecuencia
espacial no es un hecho contrario a la propuesta de Hubel y Wiesel respecto a las mismas sino complementario. Tb las
implicaciones para una teoría de la percepción no necesitan ser antagónicas. En el cap sobre la percepción del color vimos
q la teoría tricromática y la de los procesos oponentes fueron consideradas antagónicas durante mucho tiempo y dp se pudo
ver que eran complementarias a distintos niveles de procesamiento. Es posible q lo mismo pueda ocurrir con las dos
interpretaciones del func de las células de la corteza estriada. Es posible que en un 1r nivel de procesamiento tenga lugar
un barrido del patrón estimular q lo descomponga en términos de frecuencias espaciales y q los detectores de caracs
representen un nivel de proces posterior. Una propuesta como ésta fue de hecho formulada por Marr al exponer su primera
fase en el procesamiento de los objetos visuales. Pero la propuesta de Marr estuvo hecha desde una perspectiva de carácter
computacional y es este tipo de aprox el 3r punto de interés de este tema que ahora pasamos a considerar.
3. LA APROXIMACIÓN COMPUTACIONAL
En el cap primero vimos q la aprox computacional ha aportado a la teoría de la percepción el interés por la especificación
precisa de los procesos mediante su formalización en términos de programas. También q la teoría de David Marr fue en su
momento un verdadero punto de inflexión dentro de la teoría de la percepción visual, influyendo en la forma de pensar
acerca de los procesos perceptivos. Al exponer la teoría de Marr, mencionamos 3 niveles de org del procesamiento visual:
esbozo primario, el esbozo 2. 1/2-D, y el esbozo 3-D. En este cap estudiamos la fase correspondiente al esbozo primario en
el que Marr abordó el problema referente a la representación perceptiva más elemental o primitiva.
3.1. El esbozo primario El objetivo de la 1ª fase (esbozo primario) es hacer explícitos tanto los cambios de intensidad de
la imagen que proporcionan las vías visuales, como la distribución de esos cambios en la escena y su org geométrica. La
descripción explícita de esos cambios se hace especificando las características primitivas simbólicas de la imagen q, según
Marr, son 4: bordes, barras, terminaciones y manchas y los parámetros fundamentales de cada una de esas caracs
primitivas que son: posición, tamaño, orientación y contraste.
El punto de partida de esta fase es la imagen bidimensional proporcionada por los receptores visuales que representa la
distribución de luminancia de la escena y q es una representación analógica de la misma.
El resultado final es una representación simbólica formada por los 4 tipos de caracs q describen los cambios de intensidad
y q, organizadas en conjuntos resultantes de la aplicación de principios de agrupamiento, servirán como descripción básica
a los restantes niveles de procesamiento. Para Marr, por tanto, el sistema visual se hace simbólico muy pronto, en la 1ª fase
de proces, dando lugar a una descripción de la imagen considerablemente reducida en comparación con la original pero q
sigue conservando los aspectos importantes necesarios para el análisis de la imagen.
Para lograr los objetivos del esbozo primario, Marr asume q los mecs visuales operan con un conjunto supuestos generales;
respecto a la naturaleza de las imágenes; q hacen referencia tanto a la naturaleza de las superficies en el mundo visual
como al modo en q esas superficies se representan en la imagen. Ej: Marr cree lógico suponer q el mundo visible está
compuesto de superficies lisas q tienen funciones de reflectancia cuya estructura espacial podemos descubrir. Tb piensa q
las funciones q describen las superficies pueden hacerlo en escalas diferentes; unas nos describen los aspectos globales de
la superficie, otras los aspectos referentes al detalle, etc. En general asume q las superficies constitutivas de las imágenes
visuales son estables, tienen un alto grado de homogeneidad y las transiciones de luminancia dentro de ellas tienden a ser
suaves y no bruscas. Estos supuestos permiten orientar el func del sistema en esta 1ª fase. 2 subfases del esbozo primario:
1) esbozo primario bruto: los procesos que permiten pasar de la descripción analógica proporcionada por la distribución
de luminancia q describe la escena, a la descripción simbólica basada en las características primitivas.
2) esbozo primario completo: está dedicada a la exposición de los principios de org que permiten agrupar las
características primitivas en conjuntos y zonas que estructuran la escena.
3.2. El esbozo primario bruto El punto de partida del proces visual es la imagen más simple q pueden producir el
conjunto de nuestros receptores: una representación bidimensional de los difs niveles de intensidad luminosa que tienen los
puntos q la componen. Es una representación monocromática, monocular y estática. Imaginarla como la superficie de una
tv en blanco y negro compuesta x puntos elementales o píxeles cada uno con un nivel particular de intensidad luminosa.
Aunq la distribución de los receptores en la retina no tiene la homogeneidad espacial de los píxeles de una pantalla.
El objetivo dar una descripción de los cambios de luminancia existentes en la imagen en diferentes escalas y clasificar los
que sean relevantes en las 4 cats de caracs primitivas. Tanto Marr como la mayor parte de los investigadores en inteligencia
artificial han prestado especial atención a la clasificación de los bordes, por ello nos centraremos en su estudio y nos
servirán como ej en la comprensión del esbozo primario bruto.
A partir de la imagen en nivel de gris, la detección de los bordes tiene lugar por medio de un conjunto de operaciones que
pueden ser desglosadas de la forma que a continuación se indica.
3.2.1. Filtrado de la imagen. La imagen es analizada a distintos niveles de detalle, unos más globales y otros más
precisos. En este punto Marr y Hildreth incorporan la idea de los filtros espaciales que hemos estudiado anteriormente.
Para ellos la forma de los filtros espaciales es parecida al sombrero mexicano propio de una curva normal (gaussiana)
bidimensional, y dependiendo del mayor o menor tamaño del campo receptivo de los filtros, se producirá un mayor o
menor grado de apariencia difuminada en la imagen. La fig 3.10: resultado de la actuación de estos filtros. La imagen en
(a) es la fotografía original, los filtros amplios proporcionan en (b) una
imagen más difuminada que la proporcionada en (e) por los estrechos,
debido a q son sensibles a las frecuencias espaciales bajas que son las q dan
inf sobre los aspectos globales de la escena. Por el contrario, los filtros
estrechos dan inf de los detalles de la imagen ya que son sensibles a las
frecuencias espaciales altas. El filtrado de la imagen se puede entender tb
por referencia a los píxeles d una pantalla de tv o de un monitor. Un filtrado
de la imagen es equivalente a sustituir el valor de luminancia de cada píxel
por el valor de luminancia promedio de un conjunto de píxeles d su entorno.
Cuanto mayorsea el nº de píxeles que forman el conjunto de puntos q se
promedian, más ancho será el filtro. El filtrado de la imagen permite un análisis de la misma escena en diferentes escalas y
una determinación de las diferencias en luminancia para cada escala de filtrado de la imagen.
3.2.2. Localización de los puntos de cruce de cero. Para entender este 2º paso repasar algunos conceptos elementales
reldos con el análisis de imágenes. La Fig
3.16 será útil para esto.
A: imagen sencilla formada x un borde
producido por un cambio brusco en la
luminancia de la escena.
B: la fig ha sido digitalizada, es decir
sustituida x una matriz cuyas entradas
representan puntos en la imagen y en la que
el valor numérico de cada entrada
representa la intensidad luminosa de cada
punto. Podemos observar q el borde está
situado en la parte de la figura en la que se
produce la transición desde una intensidad
baja (02, en unidades arbitrarias) a una alta
(10).
C: se presenta el gráfico q muestra la intensidad luminosa para cada punto en la dirección horizontal de la imagen en A.
Unas nociones elementales de cálculo nos enseñan q la derivada de una función en un punto nos informa sobre el cambio
de los valores de la función en ese punto.
D: nos presenta el gráfico de la función derivada de la función representada en C. Este gráfico representa el cambio de
intensidad que tiene lugar para cada punto en la dirección horizontal de la imagen. En una imagen digitalizada, como la de
B, se puede hallar la función derivada a lo largo del eje horizontal calculando la diferencia entre los valores de los puntos
vecinos a lo largo de dicho eje. En el campo de la inteligencia artificial estos cálculos se llevan a cabo por medio de
operadores de bordes como los representados en E. Un operador de bordes es un esquema de cómputo para integrar los
valores de intensidad de un determinado entorno de píxeles adyacentes en la imagen; el resultado del cómputo es un nº que
nos informa sobre la existencia o no existencia de un borde. Ej: los operados q se muestran en E indican el peso o signo q
debe darse a cada valor de intensidad antes de proceder a la suma de los valores a los que se aplica. El primero de ellos, El,
se aplica a conjuntos de dos puntos e indica que el valor de intensidad del primer punto debe ir dotado de signo negativo
mientras q el valor de intensidad del segundo es positivo. Al aplicar este esquema de cómputo a dos puntos contiguos lo q
se hace es calcular la diferencia entre las intensidades de los dos puntos. Si no hay diferencia el resultado será igual a cero.
Si hay diferencia, el nº resultante nos indicará la magnitud de la diferencia y el signo la dirección del cambio ya que un nº
positivo indica un cambio de menos a más intensidad y un negativo indica un cambio de más a menos intensidad. Si se
aplica de forma sistemática este operador a la imagen digitalizada del apartado B, comenzando por la parte superior
izquierda y procediendo hacia abajo, obtendremos los valores q aparecen en la 1ª columna de la matriz mostrada en F. El
resto de los valores de la matriz se obtiene repitiendo la misma operación de arriba abajo pero comenzando una columna
más a la derecha. Obsérvese q todos los valores de la matriz en F son iguales a cero para los puntos en q no hay cambio en
los valores de intensidad y son distintos de cero en los puntos en los q se produce el cambio de intensidad con un valor (+8)
igual a la magnitud de la diferencia en intensidades y un signo apropiado a la dirección del cambio. La operación q
acabamos de realizar, consistente en hallar la suma ponderada de sus intensidades para cada dos puntos de la imagen a lo
largo de todos los puntos de la imagen, recibe el nombre de convolución de un operador de bordes con una imagen.
Obsérvese q si trazáramos el gráfico de los valores de la matriz en F para los puntos de la matriz en la dirección horizontal,
el resultado sería igual que el gráfico mostrado en D que es el de la derivada de la función de intensidad.
Un operador como este se llama de operador diferencial de primer orden porque calcula la diferencia simple entre píxeles
contiguos. El resultado de la convolución del operador con la imagen nos permite detectar los puntos en los q tiene lugar
un cambio de intensidad dando lugar a un borde. El borde viene indicado por los valores extremos de la matriz resultante.
El operador mostrado en el apartado E2 de la Fig 3.16 presenta un esquema
de cómputo más complejo que el anterior. Es un operador diferencial de
segundo orden porque su convolución con una imagen equivale a calcular la
segunda derivada de la función de intensidad de la imagen. El apartado G de
la Fig 3.16 presenta el resultado de aplicar este operador a la imagen
digitalizada en B y el apartado H presenta el gráfico de los valores obtenidos
en G que corresponden a la segunda derivada de la función de intensidad. Al
punto en el que la función pasa por el valor cero cuando baja desde su valor
máximo (+8) a su valor mínimo (-8) se le llama punto de cruce de cero. En la
figura aparece indicado por una flecha. Los puntos de cruce de cero son los
indicadores de un borde cuando se utiliza un operador diferencial de segundo
orden. Obsérvese que no son puntos de cruce de cero todos los puntos de la
imagen en los q el valor de la segunda derivada de la función de intensidad es
cero sino sólo aquellos en los q la segunda derivada cruza un valor cero
flanqueado por valores extremos. Obsérvese tb q los puntos de cruce de cero
producidos por un operador diferencial de segundo orden son en la imagen los
mismos q muestran un valor extremo como resultado de la aplicación de un
operador diferencial de primer orden.
Ahora estamos en condiciones de entender un poco mejor la teoría de Marr
respecto al esbozo primario bruto. Para cada imagen filtrada a diferentes
niveles de frecuencia espacial se lleva a cabo la convolución de esa imagen
con un operador diferencial de segundo orden como el mostrado en la Fig 3.17 para determinar los puntos de cruce de cero
indicadores de la presencia de un borde. La fig 3.18 da un ej del resultado de las fases correspondientes a la diferenciación
de la imagen de una planta situada detrás de una alambrada.
En A aparece la imagen en nivel de gris de la planta. En B la imagen resultante de la convolución de la imagen en A con un
operador laplaciano, como el de la fig 3.17, dp de ser filtrada por un filtro gaussiano con una desviación típica equivalente
a 8 píxeles. En C se muestran respectivamente en blanco y negro los valores positivos y negativos resultantes de la
convolución anterior. En D solo se muestran los puntos de cruce de cero. Como se ve, los puntos de cruce de cero dan una
buena base sobre la que determinar los bordes de la imagen.
La Fig 3.19 da otro ej del valor informativo q dan los puntos de cruce de cero. La imagen de la derecha muestra los puntos
de máximo contraste de la imagen de la izquierda hallados mediante un operador diferencial de segundo orden. En la
imagen de la derecha se ha variado la intensidad de las líneas de modo q las q tienen un mayor contraste sean más intensas.
Los puntos de cruce de cero son en la teoría de Marr el principal proced por el que el sistema visual sienta las bases para
pasar de una representación continua de carácter analógico a una representación discreta de carácter simbólico.
3.2.3. La determinación de las características. A partir de la determinación de los puntos de cruce de cero y para llegar a
la descripción simbólica final, el sistema visual necesita integrar la inf q procede de los filtros de dif tamaño. Los cambios
de luminancia q dan origen a un punto de cruce de cero pueden estar provocados por fs muy diferentes en el mundo físico:
cambios en la iluminación de la escena, cambios en la reflectancia de las superficies, en la orientación o distancia de las
superficies con respecto al observador, etc. El sistema visual tiene q discriminar qué puntos de cruce de cero corresponden
a un mismo fenómeno físico y cuales a fenómenos físicos diferentes. Según Marr, el sistema visual consigue asignar los
puntos a fenómenos físicos integrando la inf proporcionada por los puntos de cruce de cero de las distintas escalas q
proporcionan los filtros de diferente tamaño. El principio fundamental q orienta esta fase del procesamiento se conoce
como supuesto de coincidencia espacial y dice así:
Si en un conjunto de canales independientes, de una gama continua de tamaños (filtrados mediante un operador laplaciano) está
presente un segmento de puntos de cruce de cero y este segmento tiene la misma orientación y posición en cada canal, entonces el
conjunto de segmentos de puntos de cruce de cero indica la presencia de un cambio de intensidad en la imagen q se debe a un único
fenómeno físico (un cambio en la reflectancia, iluminación, profundidad u orientación en la superficie).
Si no existiera coincidencia espacial en los distintos canales, probablemente los puntos de cruce de cero tendrían su origen
en distintos fenómenos físicos o en distintas superficies. Mediante la aplicación de este y otros supuestos reldos se acaba
logrando, según Marr y Hildreth, la descripción simbólica de la imagen en términos de las 4 caracs primitivas: bordes,
barras, manchas y terminaciones. La Fig 3.20 muestra la forma q adopta la descripción final del esbozo primario bruto de
la imagen de la Fig 3.18. En A y B se muestran los puntos de cruce de cero correspondientes a dos filtros de tamaño
diferente; el usado en A es más fino q el usado en B. En los siguientes apartados la fig muestra el resultado de la
integración de ambos filtros para generar un mapa de bordes orientados (D) y de los análisis q originan un mapa de
manchas (C) y otro de barras (E). El resultado final del esbozo primario bruto es un conjunto de 4 mapas con la descripción
de las caracs, cada una de ellas especificada por los parámetros correspondientes a su posición, orientación, contraste, y
tamaño, éste último expresado en términos de longitud y anchura.
3.3. Bases fisiológicas del esbozo primario bruto
En esta etapa de proces visual Marr tb prestó atención a los aspectos reldos con la realización física de estos procesos en el
cerebro humano. Especialmente se interesó por los mecs capaces de realizar el cómputo de los puntos de cruce de cero.
Marr pensó q el campo receptivo de las células ganglionares y de las células del núcleo geniculado lateral del tálamo
muestran caracs similares a las del operador utilizado por ellos que aparece en la Fig 3.17. En el apartado G y H de la Fig
3.16 hemos visto q los puntos de cruce de cero están flanqueados por valores extremos de la segunda derivada de la
función de luminancia. Marr asumió q las células del núcleo geniculado organizadas como aparece en la Fig 3.21, de forma
q un conjunto de células con centro off y entorno on estén alineadas y adyacentes a un conjunto alineado de células con
centro on y entorno off, forman la base para lograr el cómputo de los puntos de cruce de cero.
Siempre que ambas filas de células estén activas simultáneamente se producirá la presencia de puntos de cruce de cero
entre ellas. Si otro conjunto de células en un nivel de procesamiento superior recibe inf de ambas células y solamente
dispara cuando ambas están activas estas células Y actuarán como verdaderos detectores de puntos de cruce de cero. Si a su
vez estas células están sintonizadas a orientaciones diferentes y se organizan entre sí en alineamientos de una det
orientación, tendremos la base para la detección de segmentos de puntos de cruce de cero q, como hemos visto, forman en
la teoría de Marr la base sobre la cual se lleva a cabo el cómputo de las caracs primitivas. Para Marr la función q llevan a
cabo las células simples de la corteza estriada es precisamente detectar los puntos de cruce de cero como se ha explicado.
3.4. Valoración de la teoría de David Marr fue la 1ª teoría computacional de la visión general y que organizó las
principales contribuciones q las invests en inteligencia artificial habían aportado al campo de la percepción visual. En este
tema su aportación tb fue pionera y el esquema de detección de bordes basado en operadores laplacianos de una gaussiana
continúa dominando en los modelos de sistemas biológicos de detección de bordes. Más problemática para la teoría de
Marr y Hildreth fue la forma en que resuelve el problema de la integración de escalas de puntos de cruce de cero, pq nunca
dieron un algoritmo preciso. Pero la principal aportación de Marr fue la nueva forma de pensar q introdujo al teorizar sobre
la percepción visual apuntando a los problemas centrales q toda teoría debe resolver en cada nivel de procesamiento.

CONCLUSIÓN Hemos visto q en torno a la interpretación de la función de las células de la corteza estriada se han
acuñado las principales teorías de la percepción de la forma. A las invests fisiológicas de Hubel y Wiesel siguieron las
aportaciones teóricas desde la psicofísica de Campbell, Robson, Blakemore, Graham y los DeValois a favor de la defensa
de filtros de frecuencia espacial. La interpretación inicial de Hubel y Wiesel sobre el func de las células de la corteza
cerebral se hizo en términos de detectores de caracs entendiendo este término de forma demasiado simple, como la
respuesta directa de una célula a las caracs elementales del E. Cuando la invest posterior mostró la existencia de células q
respondían a caracs más complejas o incluso a objetos, se perdió la confianza en un tipo de teoría q todo lo resolviera a
base de encontrar una célula para cada objeto o parte de un objeto. La invest se orientó hacia la búsqueda de una
descripción del E q fuera elemental en sus cs básicos, aplicable de forma generalizada a todo E posible y realizable por las
células de la corteza.
T.4 EL ESPACIO TRIDMENSIONAL Explicamos cómo el sistema visual consigue una representación de espacio
tridimensional, cómo se logra recuperar la profundidad de la escena visual, pero desde una perspectiva constructivista q,
concibe la percepción visual como un conjunto de procesos q, a partir de la inf q da la luz, construye una representación de
la escena q permita reconocer los objetos. Dsd la perspectiva constructivista, la forma de abordar el proces d la profundidad
consiste en buscar en la escena bidimensional las claves o indicios q permiten alcanzar una representación tridimensional.
Una alternativa es la perspectiva ecológica ligada a las invests de Gibson. Desde este punto de vista no tiene sentido buscar
claves en una representación bidimensional pq la percepción visual es directa, no está mediada x una representación. La
percepción consiste en la extracción por el observador de la inf presente en el E y la inf acerca de la profundidad está tan
presente en la inf proporcionada por el patrón general de estimulación como cualquier otra.
1. LAS CLAVES DE PROFUNDIDAD
Las claves Monoculares, q están disponibles para cada uno de los ojos con independencia del otro:
- las claves estáticas, provenientes de una escena visual sin movimiento. Dentro de las estáticas distinguiremos:
claves oculares: tienen su origen en el func mecánico de la musculatura ocular, y
claves pictóricas: por su estrecha rel con la pintura y del dibujo.
- las claves dinámicas, provenientes de una escena visual en mov, pq hay mov en los objetos o pq se mueve el observador.
Las claves Binoculares, q resultan de la integración de la inf de los dos ojos, como la convergencia y de la estereoscopia.
1.1 Claves monoculares
1.1.1 claves estáticas Pueden ser de dos tipos, oculares y pictóricas.
1.1.1.1 claves oculares
Acomodación: cambio en la forma del cristalino para mantener la imagen del objeto focalizada sobre la retina. Cuando el
objeto está alejado del observador el cristalino tiende a disminuir de grosor y a hacerse más plano para facilitar el enfoque
de los rayos q desde el objeto llegan al cristalino en paralelo. Pero cuando se aproxima al observador, los rayos procedentes
del mismo divergen a medida q se acercan al ojo. En este caso el cristalino aumenta su convexidad aumentando de grosor y
de esta forma facilita el enfoque de la imagen sobre la retina. La forma del cristalino cambia por los músculos ciliares cuya
contracción provoca el aumento de grosor y cuya relajación lo disminuye. Si el sistema visual tiene inf sobre la tensión de
los músculos ciliares, entonces tb puede tener inf sobre la distancia a la q está el objeto focalizado.
El valor de la acomodación como indicador de distancia es efectivo sólo en distancias cortas, inferiores a 2’5m aprox.
Incluso dentro de este rango de distancia, los observadores no usan la inf sobre distancia q da la acomodación cuando
tienen q hacer juicios directos sobre la distancia de un objeto sino al hacer juicios sobre el tamaño de los objetos.
El sistema visual calcula el tamaño de los objetos tomando en cuenta la inf proporcionada por la acomodación.
Un aspecto interesante de este indicador es q da inf sobre la distancia absoluta a la q se encuentra un objeto. La mayor
parte de los indicadores monoculares de profundidad dan inf sobre la distancia relativa de los objetos señalándonos cual de
dos o más objetos está más próximo a nosotros, pero no nos informan de la distancia a la q esos objetos están de nosotros.
El conocimiento de la distancia absoluta a la que se encuentran los objetos es necesario para poder alcanzarlos con
precisión y para moverse en su entorno sin tropezar con ellos.
1.1.1.2 claves pictóricas
- perspectiva lineal: En el uso común: reglas q permite a los artistas crear proyecciones bidimensionales precisas de las
formas esquemáticas de objetos tridimensionales. El plano sobre el q se llevan a cabo esas proyecciones es el plano de
proyección y está perpendicularmente a la línea de visión q va del observador al objeto.
En la Percepción visual: las rels existentes dentro de la escena visual q subyacen a ese conjunto
de reglas y tb en parte a la percepción de la distribución espacial.
Una de las reglas más básicas de la perspectiva lineal es la convergencia de paralelas según la
cual las líneas paralelas en el espacio tridimensional se representan en dos dims por líneas q
convergen hacia un único punto llamado punto de fuga. La exp común de convergencia de las
vías de un tren cuando estando entre ellas miramos a lo lejos es tb un ej de perspectiva lineal.
Fig 4.1 el punto de fuga está en la línea del horizonte de la superficie q sirve de punto de ref
para dividir el espacio visual en dos zonas, una superior y otra inferior. En general, la línea del horizonte de una superficie
es la línea q pasa por dos o más puntos de fuga de conjuntos de líneas paralelas q se extienden en la superficie.
La perspectiva lineal basada en la convergencia de paralelas produce una compresión lateral de las superficies implicadas.
Fig 4.2 muestra el contorno de una superficie cuadrada q está inclinada con respecto a un eje horizontal en el plano frontal.
La inclinación produce en el observador una proyección trapezoidal de la superficie de
forma que el borde que se inclina hacia el observador aparece más largo que el que se
inclina lejos del observador provocando una compresión lateral que tiende a
concentrarse en el punto de fuga.
La convergencia de paralelas propia de la perspectiva lineal nos permite entender la
relación entre el punto de fuga y la orientación de los bordes de una superficie. Si se
mide la orientación de un borde por ref a un marco fijo del medio ambiente, entonces
todos los bordes q tienen la misma orientación son paralelos entre sí y la proyección de este conjunto de bordes paralelos
en el plano de proyección es un conjunto de líneas q convergen en un único punto de fuga. El punto de fuga de un borde
puede concebirse como el término final de la proyección de un borde cuando se extiende infinitamente en la distancia.
Existe, por tanto, una rel uno a uno entre el punto de fuga y la orientación de un det conjunto de bordes, de forma q para
cada orientación det de un borde hay un correspondiente punto de fuga y cada punto en el plano de proyección es el punto
de fuga de un conjunto de bordes paralelos q tienen la misma orientación. El punto de fuga de un borde contiene, x tanto,
inf específica sobre su orientación. Esta rel entre punto de fuga y orientación de los bordes no varía aunq cambie el punto
de observación; cada punto de fuga permanece fijo en su posición de correspondencia con las orientaciones fijas de los
bordes en el medio ambiente. La correspondencia entre los distintos puntos de fuga y la orientación de los bordes, cuyas
proyecciones convergen en esos puntos, contribuye a estructurar un entramado de rels altamente informativas sobre la org
tridimensional de una escena.
- altura relativa: La posición de los objetos en rel con la línea del horizonte es un importante indicador de profundidad
incluso en escenas en las q la convergencia de paralelas en un punto de fuga no está presente. Generalmente aquellos
objetos q se encuentran próximos a la línea del horizonte de una superficie bidimensional son percibidos como más
lejanos. La potencia de la altura relativa como clave de profundidad o de distancia depende de la presencia de un marco de
ref q, por lo general, es la línea del horizonte. El efecto de profundidad se acentúa por la presencia de textura dentro del
marco de ref. En ausencia de un marco de ref, el efecto de profundidad queda casi anulado.
- perspectiva aérea: cambios en contraste y en color q experimenta la percepción de los objetos cuando están a gran
distancia del observador. El contraste tiende a reducirse haciendo q la imagen de los objetos aparezca más borrosa debido a
la dispersión de la luz q provocan las partículas de polvo y agua suspendidas en la atmósfera. Con respecto al color, la
lejanía de los objetos tiende a acentuar las tonalidades azuladas debidas tb a q las longitudes de onda cortas son más
fácilmente perturbadas por las partículas suspendidas en la atmósfera q las de onda largas y por lo tanto experimentan una
dispersión mayor.
- tamaño relativo: si dos objetos son presentados en el campo visual simultáneamente o en próxima sucesión, aquel que
produce una imagen retiniana mayor, parecerá estar más cerca. En la Fig 4.2 la influencia de la perspectiva lineal para
producir profundidad en la percepción, se ve reforzada por el tamaño relativo de los dos segmentos horizontales q forman
parte del trapezoide. El segmento largo aparece más cercano al observador que el corto. En este ej, los dos segmentos están
conectados, pero no es preciso que exista conexión para que esta clave de profundidad tenga efecto.
- tamaño familiar: experimentos que han utilizado objetos familiares para los participantes, tales como cartas de una
baraja o monedas de uso corriente, han puesto de manifiesto que, si se conoce el tamaño real de un objeto, el tamaño de la
imagen proyectada sobre el observador es un buen indicador de la distancia a la que se encuentra el objeto. El tamaño
familiar es un ejemplo claro de la influencia que la experiencia puede tener sobre los procesos de percepción.
- gradiente de textura: casi todas las superficies tienen una estructura q consta de unidades o elementos, relativamente
homogéneos en tamaño y forma, distribuidos por la superficie con relativa regularidad. A la cualidad producida por este
tipo de estructura se le da el nombre de textura. La distribución de granos de arena en una playa y la de las baldosas de un
cuarto de baño son ejs de superficies con texturas diferentes. Gradiente: es la proporción en q una det propiedad cambia a
lo largo de un continuo. El gradiente de textura hace ref al cambio gradual q la percepción de la textura de una superficie
experimenta a medida q ésta está más alejada del observador. Los principales cambios afectan al tamaño de los elementos,
q se hacen progresivamente más pequeños, y a la densidad de los mismos, que aumenta a medida q la superficie se aleja.
La Fig 4.3 A un ej de superficie en la q el gradiente de textura proporciona una fuerte
sensación de profundidad.
Además de informar sobre la profundidad, el gradiente de textura tb puede dar inf sobre otras
caracs de la superficie, como su orientación en profundidad o su curvatura. En la fig anterior,
imagen B, se muestra cómo un cambio en el gradiente puede informar sobre la existencia de
una esquina, mientras q en C, la ruptura entre los dos gradientes proporciona inf sobre la
existencia de un borde. Gibson, q formuló la aproximación ecológica al estudio de la
percepción, consideró que el gradiente de densidad de textura es uno de los aspectos de la
estimulación que mayor inf proporciona sobre la profundidad porque afecta a la estructura
general del patrón estimular. El gradiente de densidad de textura proporciona una escala
absoluta de distancia respecto a la que se puede medir toda otra distancia.
- sombreado y sombras. La posición relativa existente entre la fuente de la iluminación, las superficies iluminadas y el
observador, determina la cantidad de luz q acaba llegando al ojo del último. Sombreado hace ref a los cambios en el
patrón de luminancia q se produce como consecuencia de la variación en el ángulo q forman la luz q incide sobre una
superficie y la superficie misma. Existen diferentes tipos de sombreado:
- sombreado especular el propio de superficies brillantes como un espejo y depende fund de la posición del observador y
de la dirección de la iluminación.
- sombreado difuso o Lambertiano el propio de las superficies mate cuya reflectancia es igual en todas las direcciones.
La cantidad de luz reflejada por cada punto de la superficie depende de su orienración respecto a la fuente de luz, siendo
máxima en los puntos en q la luz incide perpendicularmente sobre la superficie. Por ello, cuando superficies de la misma
reflectancia presentan ángulos diferentes respecto a la misma fuente de iluminación, pueden dar lugar a bordes de
iluminación. El sombreado es un potente indicador de los aspectos volumétricos de las formas, en particular sus
concavidades y convexidades. Gibson llamó la at sobre el hecho de q la percepción de una escena tiende a organizarse
como si estuviera iluminada x una sola fuente de luz y desde arriba. Probablemente este supuesto interpretativo actúa como
una constricción en el sistema perceptivo y es el resultado de un largo proceso evolutivo de adaptación
al medio terrestre.
La Fig 4.4 ilustra la fuerza de este supuesto en un caso relativamente simple. Los objetos circulares de
la fila superior aparecen como bultos convexos que se aproximan hacia el observador, mientras que los
de la fila inferior aparecen como pequeñas concavidades que tienden a alejarse del observador. El
efecto es perfectamente reversible si el lector da la vuelta a la página.
Este cambio se debe al supuesto q estamos comentando de q los objetos circulares están recibiendo la luz de una misma
fuente situada sobre ellos. Los objetos circulares iluminados en su parte superior y obscurecidos en su inferior son
percibidos como convexos, ya q su patrón de sombreado corresponde al de un objeto esférico iluminado desde arriba. En
los obscurecidos en su parte superior e iluminados en su inferior, el patrón de sombreado corresponde al de una concavidad
iluminada desde arriba y en consecuencia son percibidos como una oquedad. Ramachandran ha puesto de manifiesto que el
supuesto que parece realmente enraizado en nuestro sistema visual es el de la existencia de una sola fuente de luz. La
localización de la fuente depende para su determinación de diferentes fs que interactúan entre sí.
La Fig 4.5 presenta un ej proporcionado por este autor. Las máscaras que aparecen son en efecto
máscaras, pero fotografiadas por su lado cóncavo, el que se ajusta a la cara de la persona que se la
pone, e iluminadas desde arriba. Sin embargo son claramente percibidas como máscaras vistas
por su lado convexo e iluminadas desde abajo. El efecto pone de manifiesto la importancia que
factores tales como la experiencia previa y el contexto pueden tener en la determinación de
nuestra percepción. En este caso, ante un estímulo extraño como es el lado cóncavo de una máscara, nuestro sistema visual
prefiere ver caras normales convexas aunque para ello tenga que asumir que la luz viene de abajo. El efecto del contexto
puede comprobarse si fijamos nuestra atención sobre los dos círculos que aparecen entre las dos máscaras. Si aislamos su
percepción del influjo de las caras tapándolas, el círculo de la izquierda tiende a percibirse como cóncavo y el de la derecha
como convexo, de acuerdo con una percepción que asume que la fuente de luz viene de arriba. Sin embargo, cuando los
dos círculos se incluyen en las caras, donde predomina la percepción de la iluminación desde abajo, el cír· culo de la
izquierda aparece convexo, parecido a un bulto en la cara, y el de la derecha cóncavo.
Una sombra cuando un objeto se interpone entre una fuente de iluminación y una superficie, proyecta sobre ésta una
sombra que proporciona inf sobre la escena tridimensional. La forma de la sombra depende de: la proximidad de la fuente
de iluminación, su dirección, la forma del objeto que proyecta la sombra, el relieve de la superficie sobre la que es
proyectada y la posición relativa entre la fuente, el objeto y la superficie. La sombra puede estar unida al objeto o separada
del mismo. Las sombras unidas al objeto indican que el objeto está apoyado sobre la superficie.
Fig 4.6 dos escenas iguales en todo, excepto en la posición de las sombras respecto al objeto
que las produce. En A, las sombras están unidas al objeto, lo que provoca la percepción de
las esferas como si estuvieran descansando sobre la superficie y alineadas diagonalmente en
profundidad de izquierda a derecha. En B las sombras se van separando de los objetos y
permanecen alineadas en dirección perpendicular a la línea de visión dando ocasión a una
percepción de las esferas como si estuvieran a diferentes alturas respecto de la superficie
pero en el mismo plano frontal.
- interposición: los objetos q están más alejados pueden quedar total o parcialmente ocultos
a un observador por otros objetos interpuestos en la línea de visión. Cuando un objeto
aparece parcialmente encubierto, nuestro sistema visual tiende a percibir como más alejado
al objeto tapado y como más cercano al interpuesto. La interposición es uno de los más potentes indicadores de
profundidad aunq se limita a darnos inf ordinal sobre la distancia de los objetos en relación al observador. Si el objeto A
oculta al objeto B y éste, a su vez, oculta a C entonces C es el más alejado del observador y A es el más cercano. La
interposición no nos informa de la magnitud de las distancias entre los objetos y el observador.
1.1.2 Claves dinámicas
El movimiento del observador y de los objetos da lugar a nuevas claves de profundidad y de distancia. El estudio de la
percepción del movimiento tiene una gran importancia en sí mismo y por ello le dedicamos un cap.
1.1.2.1. Paralaje de movimiento. Cuando un observador se mueve en dirección lateral, ej: de derecha a izquierda, con
respecto a su campo de visión, los objetos que se encuentran a distancias diferentes proyectan unas imágenes en la retina
que se mueven en sentido y a velocidades diferentes. Paralaje de movimiento: el desplazamiento diferencial de las
imágenes, proyectadas por distintos objetos, debido a un cambio lateral en la posición del observador y a la distancia
relativa de los objetos con respecto al punto de fijación.
Una forma sencilla de entender esta claveconsiste en colocar el dedo pulgar de cada mano a distintas distancias en la línea
de visión y alinearlos con un tercer objeto más alejado que sirva de ref. Si en esa sit, con los dedos y el objeto a distintas
distancias en la misma línea de visión y el punto de fijación situado en el objeto más alejado, movemos la cabeza hacia la
derecha, notaremos que los dos dedos se mueven hacia la izquierda en relación con el tercer objeto pero que el dedo más
cercano se mueve más lejos y más rápidamente. Si movemos la cabeza hacia la izquierda, el movimiento de los dedos
respecto al objeto cambiará de sentido pero, de nuevo, el dedo más cercano se moverá más lejos y más rápidamente. En
general, los objetos más cercanos parecen desplazarse más lejos y a mayor velocidad mientras que para los más alejados el
desplazamiento es menor y más lento. Pero el sentido del mov no depende únicamente de la distancia a la q están los
objetos sino también de la posición del punto de fijación. Los objetos que están situados en una posición más cercana al
observador que aquella en la que cae el punto de fijación, se mueven en sentido contrario al observador, mientras que los
situados en una posición más alejada que el punto de fijación se mueven en el mismo sentido que el observador. Si no ha
bajado usted los dedos, compruebe este efecto fijando ahora la mirada en el dedo que está entre el objeto que antes servía
de punto de referencia y el dedo más cercano a usted. Observe cómo el objeto más alejado se desplaza en el sentido del
movimiento de su cabeza, mientras que el dedo más cercano a usted lo hace en sentido contrario.
El paralaje de mov es una clave de profundidad muy efectiva a grandes distancias incluso cuando no están presentes otras
claves de profundidad. Pero su efectividad aumenta cuando la inf espacial es rica y proporciona varios puntos de ref.
1.1.2.2. Flujo óptico. Para Gibson el análisis de la clave que hemos llamado paralaje de movimiento no es más que una
consideración par- cial de un patrón global de estimulación que él denominó flujo óptico. Con este término Gibson quiso
poner el énfasis en la necesidad de tomar en consideración las transformaciones del patrón global de estimulación cuando
un observador se mueve en el medio ambiente. Como vimos anteriormente en el estudio de la textura, también en este
contexto Gibson acentuó la importan- cia de los gradientes de movimiento refiriéndose a los cambios graduales en
velocidad y dirección que tienen lugar en la escena visual.
La Figura 4.7 presenta un esquema del flujo óptico de
una escena cuando el observador se mueve lateralmente
de derecha a izquierda con la mirada fija en el punto
central (F) de la escena.
Las flechas del esquema son vectores que indican, con
su punta el sentido de las distintas direcciones que corren
paralelas unas a otras, y con su longi- tud la mayor o
menor velocidad del conjunto de puntos organizados en
una determinada dirección. Como vimos al hablar de la
clave paralaje de movimiento, el sentido del movimiento
para todos los puntos que se encuentran por delante del punto de fijación es contrario al sentido del movimiento del
observador, mientras que el de los puntos que se sitúan por detrás del punto de fijación es igual que el del observador.
Además, el esquema hace explícita la representación del gradiente de velocidad presente en la escena, donde la velocidad
se va haciendo menor a medida q las direcciones se aproximan al punto de fijación y aumentan a medida q se alejan.
El análisis del flujo óptico cuando el movimiento del observador es lateral respecto de la escena no produce resultados muy
diferentes del análisis del paralaje de movimiento, aunque es importante tomar en consideración el valor informativo de los
gradientes. Una aportación más original de Gibson fue el análisis del flujo óptico cuando el movimiento del observador se
dirige directamente hacia un objeto o se aleja de él en el plano frontal. Al acercarse a una superficie u objeto, se produce un
fenómeno de expansión óptica consistente en que el punto de fijación permanece estático en la fóvea mientras que el resto
de puntos en el campo visual divergen hacia su exterior en todas las direcciones a partir del punto de fijación y a una
velocidad que es tanto mayor cuanto más alejados están del punto de fijación. Cuando la velocidad de expansión es alta, el
patrón de expansión produce la impresión de que la superficie se echa encima del observador. Por el contrario, cuando el
movimiento consiste en alejarse de un punto de referencia, el patrón que se produce es de contracción óptica en el que los
puntos del campo visual tienden a converger hacia el punto de fijación (ver Fig 5.9).
Los patrones de flujo óptico pueden resultar muy complejos y difíciles de analizar en términos matemáticos. Los ejemplos
que acabamos de estudiar permiten entender la naturaleza de estas claves de carácter global, que forman parte de la
contribución de Gibson al estudio de la percepción espacial.
1.1.2.3. El Efecto de profundidad cinética. No sólo resultan informativos respecto a la distancia o a la profundidad los
cambios en el flujo óptico producidos por el movimiento del observador, también los cambios en el patrón de estimulación
producido por el movimiento de un objeto pueden proporcionar inf sobre la profundidad. Un efecto q ha sido muy
investigado en la psicología de la percepción visual y q ejemplifica lo que acabamos de afirmar es el efecto de
profundidad cinética q Wallach y O'Connell mostraron por primera vez. Lo entenderemos mejor x referencia a la Fig 4.8
La sit q genera la estimulación es parecida a la usada para producir sombras chinescas.
Un objeto, en este caso un palo, colocado perpendicularmente sobre un eje vertical, que
puede hacerse rotar, se sitúa entre una fuente de iluminación y una pantalla traslúcida
sobre la que se proyecta la sombra del objeto. El observador se encuentra al otro lado de
la pantalla de forma que sólo es capaz de ver las sombras del objeto proyectadas en la
pantalla. Cuando el objeto está estático, no se percibe profundidad alguna, solamente la
sombra bidimensional del palo. Cuando se hace rotar el objeto en torno al eje vertical, la
sombra del palo aparece rotando tb en profundidad. Lo realmente curioso en este efecto
es q el patrón bidimensional de cambios en la sombra proyectada en la pantalla consiste
en una sucesión de líneas que varían en longitud y en orientación pero lo que el observador percibe no son las
deformaciones bidimensionales de un conjunto de líneas sino la forma invariante de un palo que rota en profundidad sobre
un eje. El hecho es que, de entre las distintas interpretaciones perceptivas que la estimulación puede tener, el sistema visual
impone una determinada: la de una forma rígida rotando en profundidad. Parece como si el sistema visual estuviera
sesgado a favor de esa forma de percibir mientras los datos que proporciona la estimulación sean consistentes con ella.
Se han dado varias explicaciones de carácter general a este fenómeno.
Los psicólogos de orientación empirista opinan que el sesgo está det por la experiencia ya que la rotación de formas rígidas
es más frecuente en el medio ambiente que las deformaciones plásticas bidimensionales. Los psicólogos de la Gestalt
opinan que la interpretación en términos de una forma rígida que rota es más simple. La verdad es que no tenemos un por
qué satisfactorio para este efecto, pero el efecto es robusto y demuestra sin lugar a dudas que el sistema visual es capaz de
recuperar la forma y el movimiento en profundidad de los objetos a partir de los cambios en longitud y en orientación de
formas bidimensionales. El efecto de profundidad cinética es un buen ejemplo del carácter constructivo de la percepción a
partir de una estimulación ambigua.
1.2. Las Claves binoculares
Son las q dan inf sobre la distancia combinando inf de cada uno de los ojos.
1.2.1. Convergencia binocular. Cuando fijamos la vista en un objeto, las líneas de visión de cada uno de los ojos
convergen en el punto de fijación. El ángulo de convergencia es el ángulo formado por estas líneas con vértice en el punto
de fijación. Su tamaño varía en función de la distancia a la q está el punto de fijación. Si el objeto se aproxima a nosotros,
el ángulo de convergencia tiende a hacerse mayor, y si el objeto se aleja, el ángulo tiende a disminuir.
La convergencia binocular, al igual que la acomodación, es una clave fisiológica porque el tipo de inf que proporciona se
refiere a los ajustes oculomotores que controlan la posición de los ojos.
Figura 4.9 ayuda a entender la forma en que la desviación de los ojos necesaria para producir
la convergencia binocular puede proporcionar inf sobre la distancia a la q está un objeto.
En la fig, el punto de fijación está en el punto P donde convergen las líneas de visión del ojo
derecho D e izquierdo I. La distancia a la que se encuentra el objeto está representada por la
línea discontinua (d), mientras que la distancia I- D corresponde a la distancia interpupilar q
en el adulto medio es de unos 65 milímetros. Sobre la base de las relaciones angulares que
aparecen en la figura puede calcularse la distancia a la que está el objeto. De forma sencilla,
puede considerarse la distancia interpupilar como el arco de un círculo y la distancia (d) como
su radio, con lo cual resulta que el valor del ángulo C: C = 65 / d
cuando C se expresa en radianes. El valor de C en esa ecuación puede conocerse ya que es
igual a la suma de los ángulos Ci + Cd que son los ángulos correspondientes a la desviación
de cada ojo al converger sobre el punto de fijación.
La ecuación muestra que el ángulo de convergencia puede ser usado por el sistema visual
para determinar la distancia al punto de fijación. Ahora cabe preguntarse si de hecho el
sistema visual utiliza esa inf. La respuesta es afirmativa pero solamente para distancias cortas.
porque la variación en el ángulo de convergencia sólo tiene lugar en distan- cias no superiores
a uno o dos metros. Más allá de los tres metros de distancia la posición de los ojos no cambia
por mucho que el objeto se aleje.
Normalmente la convergencia binocular actúa conjuntamente con la acomodación. A medida que un objeto se aleja, tanto
la convergencia como la acomodación varían por eso resulta difícil estudiar el papel de una de las claves y mantener
constante la otra. Podría parecer q tapando un ojo al observador anularíamos la influencia de la convergencia y aislaríamos
el efecto de la acomodación pero incluso en una situación así continúa funcionando el mecanismo de convergencia. Al
parecer, la inf proporcionada por la acomodación del cristalino del ojo no tapado es suficiente para guiar al mec de
convergencia. En conclusión, tanto la convergencia como la acomodación son claves útiles en distancias cortas y dan inf
sobre la distancia absoluta a la que se encuentra un objeto, cosa que pocas claves de distancia proporcionan.
1.2.2. La estereoscopia
La estereoscopia es una clave que nos proporciona información acerca de la distancia relativa de los objetos sobre la base
del desplazamiento lateral que la proyección de un objeto experimenta en las retinas de los dos ojos. En este apartado,
primero explicaremos los conceptos que nos ayudarán a caracte- rizar esta clave, posteriormente expondremos los
procedimientos utilizados en su estudio y terminaremos con una aproximación a los mecanismos que la producen. La
estereoscopia ha sido una de las claves cuyo estudio ha atraído en mayor medida el interés de los investigadores, por ello
merece la pena que le dediquemos una atención especial.
- conceptos fundamentales:
En la Figura 4.9 la imagen del punto de fijación (P) se proyecta en el centro de la fóvea de cada una de las dos retinas, la
derecha y la izquierda. Los puntos de cada retina sobre los que cae la proyección se llaman puntos correspondientes
porque, si superpusiéramos la retina de un ojo sobre la retina del otro, los puntos coincidirían. En general, un punto a en la
retina derecha y un punto b en la retina izquierda son puntos correspondientes cuando ambos tienen la misma posición en
su respectiva retina. No sólo son puntos corres- pondientes los que, situados en las fóveas, reciben estimulación del punto
de fijación, cada punto de una retina tiene su correspondiente punto en la otra. La estimulación de puntos correspondientes
en las dos retinas provoca fusión binocular puesto que el objeto es visto como un único objeto en el espacio a pesar de ser
dos los puntos estimulados en las retinas.
Horópter. Recibe este nombre el conjunto de puntos en el espacio visual que, dada una determinada fijación ocular,
proyectan su imagen en puntos correspondientes de las dos retinas. Hay que notar que el horópter se define en relación al
punto de fijación y por lo tanto cambia cuando cambia el punto de fijación. Aún así, desde el siglo diecisiete los
investigadores han tratado de estudiar la forma que tiene.
Desde una aproximación teórica, basada en la óptica geométrica, supo- niendo que los ojos son esferas perfectas y que
rotan en torno a ejes que solamente pasan por el punto nodal de cada ojo5, el horópter longitudinal, que se define en el
plano horizontal, está constituido por una circunferencia que pasa por el punto de fijación y por el punto nodal de cada ojo.
Esta cir- cunferencia suele conocerse como circunferencia de Vieth-Müller en honor de quienes la propusieron por primera
vez. En el plano vertical, el horópter vertical está definido por la recta perpendicular al plano de visión.
Cuando se determina empíricamente el conjunto de puntos del espacio visual que, para una determinada fijación ocular,
proyectan su imagen en puntos correspondientes de las dos retinas, los resultados muestran desviaciones sistemáticas
respecto a la posición de los puntos determinada teóricamente. La Figura
4.10 muestra con líneas discontinuas las desviaciones tanto para el
horópter longitudinal como para el vertical.
Como puede verse, el horópter vertical tiende a estar inclinado en la di-
rección de la línea de visión, alejándose del observador por encima del
punto de fijación y acercándose a él por debajo del punto de fijación. El
horópter longitudinal tampoco se ajusta a la predicción sino que tiende a
quedarse en una posición próxima a la circunferencia de Vieth-Muller
pero desviada en dirección a la línea que pasa por el punto de fijación y
es paralela a la distancia interocular6 •
Disparidad Binocular. Cuando un punto en el espacio visual no
proyecta su imagen en puntos correspondientes de las dos retinas, las imágenes del ob- jeto en cada uno de los dos ojos
resultan tanto más diferentes cuanto mayor es el desplazamiento lateral de una proyección respecto de la otra. Este des-
plazamiento relativo de las dos proyecciones recibe el nombre de disparidad binocular. El fenómeno puede hacerse
patente si repetimos el ejercicio que realizamos al estudiar el fenómeno de paralaje de movimiento. De nuevo po- demos
alinear nuestros dos pulgares con un tercer objeto más lejano que nos
sirva de punto de fijación pero esta vez lo hacemos cerrando el ojo izquierdo y apuntando con el ojo derecho. En estas
condiciones, cuando los dedos y el objeto están bien alineados, cerramos el ojo derecho y abrimos el izquierdo. Veremos
que los tres objetos han dejado de estar alineados y que los dedos se han desplazado hacia la derecha de la línea de visión,
siendo el desplazamiento del dedo más cercano mayor que el del dedo en posición intermedia. La ligera diferencia entre la
visión de la escena proporcionada por el ojo derecho y por el izquierdo está ocasionada por las distintas proyecciones que
reciben debido a la separación existente entre ellos. Si repetimos el ejercicio pero situando el punto de fijación en el dedo
más próximo a nosotros veremos que al cerrar el ojo derecho y abrir el izquierdo tanto el dedo en posición intermedia
como el objeto lejano se desplazan a la izquierda de la línea de visión y en este caso el des- plazamiento del objeto lejano
es mayor que el del dedo en posición intermedia.
El fenómeno de la disparidad binocular es parecido al fenómeno de paralaje de movimiento; de hecho fue denominado
paralaje binocular en los comienzos de la psicología experimental. No obstante se diferencian en que el desplazamiento
de la imagen en la disparidad binocular está fijado por la distancia interocular, mientras que en la clave de paralaje de
movimiento el des- plazamiento de la imagen depende de la amplitud del movimiento lateral que realice el observador.
Además, en la disparidad binocular el desplazamiento de las imágenes es simultáneo mientras que en la clave de paralaje
de movimiento el desplazamiento de las imágenes es sucesivo. Obsérvese, por tanto, que el ejemplo que estamos utilizando
de alineamiento de los dedos pulgares con un objeto alejado es, en sentido estricto, un ejemplo de paralaje de movimiento
que produce sucesivamente un desplazamiento de la imagen igual al desplaza- miento simultáneo producido por la
disparidad binocular.
La disparidad binocular puede proporcionarnos información respecto a la posición de los objetos en el espacio
tridimensional, tanto por medio del sentido del desplazamiento que produce, como por la magnitud del mismo. El sentido
de la disparidad nos informa de la posición del objeto respecto al punto de fijación. Si repetimos el ejercicio que hemos
realizado anterior- mente, de alineación de los dedos con un objeto alejado, apuntado ahora la mirada hacia el dedo situado
en posición intermedia, veremos que al cerrar el ojo derecho y abrir el izquierdo el objeto lejano se desplaza a la izquierda
de la línea de visión mientras que el dedo más cercano se desplaza a la derecha. En general, el desplazamiento de los
objetos más próximos que el punto de fijación se produce en sentido contrario al desplazamiento de las imágenes
producido por nuestro abrir y cerrar de ojos, y por ello se le da el nombre de disparidad cruzada. Por el contrario, los
objetos más alejados de nosotros que el punto de fijación se desplazan en el mismo sentido que el del desplaza- miento de
las imágenes y por ello la disparidad que producen se denomina no cruzada. La Figura 4.11 presenta la situación de
desplazamiento simultáneo de la imagen propia de la disparidad binocular.
En la figura, el punto de fijación está situado en P. Los puntos más cerca- nos al observador
que el punto de fijación, que dan origen a una disparidad cruzada, como es el caso del punto
C, producen el desplazamiento de sus pro- yecciones hacia la zona lateral de las retinas. Por
otra parte, los puntos más alejados del observador que el punto de fijación, que dan origen a
disparidad
no cruzada, como es el caso del punto F, producen el desplazamiento de sus proyecciones
hacia la zona nasal de las retinas.
Finalmente, la magnitud del desplazamiento es un indicador cuantitativo de la distancia a la
que se encuentra un objeto: a medida que un objeto se ale- ja del punto de fijación
aproximándose al observador, su disparidad cruzada aumenta, y a medida que un objeto se
aleja del punto de fijación alejándose también del observador, su disparidad no cruzada
aumenta. El aumento de la disparidad cruzada está, por tanto, asociado con una
aproximación del objeto al observador y el aumento de la disparidad no cruzada está
asociado con un alejamiento del objeto respecto al observador. Y, a la inversa, la
disminución de la disparidad cruzada está asociada con un alejamiento del objeto respecto
al observador mientras que la disminución de la disparidad no cruzada está asociada con un acercamiento del objeto al
observador.
La disparidad binocular puede producir dos efectos perceptivos diferentes dependiendo de su magnitud. Puede producir
estereoscopia o puede producir imágenes dobles que ponen en marcha un proceso de rivalidad binocular. Cuando la
disparidad es pequeña, las imágenes de los dos ojos se fusionan en una sola pero situada a una distancia del observador
diferente de la distancia que corresponde al horópter. Esta diferencia en profundidad es lo que se denomina estereoscopia.
En pocas palabras, podemos definir estereoscopia como la percepción de la profundidad producida por la disparidad
binocular. Dependiendo de la dirección de la disparidad los objetos aparecen por delan- te o por detrás del horópter
longitudinal. La disparidad cruzada produce la
percepción del objeto por delante del horópter mientras que la disparidad no cruzada produce la percepción del objeto por
detrás del horópter. En ambos casos, la dirección de la línea de visión al objeto fusionado es el promedio de las direcciones
visuales predichas a partir de las dos imágenes monoculares.
- Procedimientos estereoscópicos: La investigación de la estereoscopia ha estado relacionada con la invención y
utilización de estereogramas, que son pares de imágenes prácticamente iguales pero que difieren en el des- plazamiento
lateral de sus elementos. Cada imagen del par recibe el nombre de media-imagen. Cuando cada media-imagen estimula un
ojo diferente al mismo tiempo, la imagen fusionada produce una ineludible sensación de pro- fundidad. Los estereogramas
fueron inventados hacia 1838 por Wheatstone, que también inventó el estereoscopio, aparato que permitía la presentación a
cada ojo por separado de los componentes de un estereograma. La Figura 4.12 presenta un
ejemplo de estereograma tradicional en el que las dos me- dias-imágenes están desplazadas hacia
el exterior.
Si cada media-imagen es presentada simultáneamente a un ojo diferente8, se producirá la
segregación de la imagen fusionada en tres planos diferentes de profundidad. Los pequeños
cuadrados aparecerán por delante de los cír- culos y estos, a su vez, por delante de los cuadrados
grandes. Esta posición relativa de las figuras geométricas se debe a que el desplazamiento de las
imágenes del estereograma se ha realizado hacia el exterior (disparidad cruzada). Si el
desplazamiento hubiera sido hacia el interior, en sentido nasal (dispari- dad no cruzada), entonces
el orden de aparición de las figuras hubiera sido el inverso; primero los cuadrados grandes,
después los círculos y más alejados los cuadrados pequeños.
Hasta los años 60, se utilizaron estereogramas tradicionales como el de la Fig 4.12. Hasta
entonces se pensaba q la percepción estereoscópica de la profundidad era la consecuencia de la
disparidad retiniana del contorno y de los bordes de cada media-imagen. En consecuencia, se
pensaba tb q la percepción monocular de la forma era un requisito previo para q tuviera lugar la
fusión binocular. Para el sistema visual, el problema fundamental a resolver, q es el llamado
problema de la correspondencia, quedaba así muy simplificado.
- El problema de la correspondencia. uno de los problemas principales q tiene que resolver el sistema visual para poder
fusionar las dos imágenes monoculares es determinar qué puntos o partes de la imagen de un ojo corresponden a qué
puntos o partes de la imagen del otro ojo. Este es el llamado problema de la correspondencia. Para la concepción trad de la
estereoscopia este problema estaba relativamente simplificado pq -se suponía- la forma y los bordes de la imagen
monocular podían guiar el proceso de fusión de la imagen estereoscópica. La revolución en el estudio de la estereoscopia
se produjo cuando Julesz demostró q se podía producir estereoscopia usando estereogramas de puntos aleatorios.
- Estereogramas de puntos aleatorios. consiste en una pareja de medias-imágenes, cada una de las cuales consiste en
miles de puntos colocados aleatoriamente, cuyo desplazamiento lateral produce una fuerte sensación de profundidad
cuando las dos medias-imágenes se ven estereoscópicamente. Julesz construyó sus primeros estereogramas generando por
medio de un ordenador un patrón de puntos en una matriz bidimensional de 100 x 100. Cada celda de la matriz estaba
ennegrecida (esto generaba un punto) o se dejaba en blanco de acuerdo con una secuencia puramente aleatoria. Esta matriz
era la media-imagen de uno de los ojos, supongamos que el derecho. La correspondiente al otro ojo era idéntica a la
anterior excepto que los puntos correspondientes a una pequeña submatriz rectangular situada en el centro habían sido
desplazados una columna en sentido lateral. Este proced tiene la virtud de mantener las propiedades relacionales de los
puntos de la matriz grande inalterados mientras q proporciona a los puntos de la submatriz una disparidad retiniana
correspondiente a una columna. La visión estereoscópica de este estereograma provoca la percepción de una superficie
rectangular (la submatriz) situada a distinto nivel de profundidad q la matriz grande.
Fig 4.13 estereograma de puntos aleatorios construido en la forma que
acabamos de describir. Si se utiliza un proced de convergencia ocular
cruzada para conseguir la fusión de las imágenes, se verá un cuadrado
pequeño que se destaca por delante de un fondo formado por el resto de
puntos.
Los estereogramas de puntos aleatorios demostraron q la forma y los
bordes de la imagen monocular no son necesarios para guiar la
resolución del problema de la correspondencia. Es suficiente una mera
disparidad de puntos para que se produzca la segregación de una imagen
o de una escena en diferentes planos de profundidad. Por otra parte, estos estereogramas tb ponen de manifiesto que la
estereoscopia no es un resultado tardío en el procesa- miento de información visual, que necesite un procesamiento previo
de la forma de las imágenes monoculares. Más bien, la estereoscopia, al menos en sus primeras fases, aparece como un
proceso que tiene lugar relativamente pronto y que incluso proporciona información sobre la forma de los objetos.
- Características de la estereoscopia humana. La sensibilidad estereoscópica de nuestro sistema visual es muy grande.
La investigación experimental coincide en afirmar que, bajo las mejores condiciones perceptivas, la agudeza
estereoscópica se encuentra en el rango de los dos a los seis segundos de ángulo. También se ha encontrado que la
sensibilidad es mayor para la disparidad cruzada que para la no cruzada. Con todo, la sensibilidad estereoscópica depende
de factores espaciales tales como la excentricidad de los estímulos y la distancia entre los estímulos y el punto de fijación.
Para las dos variables, excentricidad y distancia, la sensibilidad disminuye cuando aumentan sus valores.
En el otro extremo, la magnitud de disparidad dentro de la cual se produce estereoscopia está limitada a un área en torno al
horópter que se conoce con el nombre de área de fusión de Panum. El tamaño de esta área de fusión no es igual para todo
el horópter sino que es menor en el entorno del punto de fijación que en la periferia. Es de algo menos de 10’ de ángulo
para la visión central y alcanza valores por encima de los 30’ de ángulo a partir de una distancia de unos 15º en la periferia.
Fig 4.14 muestra el área de fusión de Panum y su relación con el horópter.
Tb muestra las proyecciones de dos puntos en el horópter, uno (F) corresponde al
punto de fijación y el otro (A) se encuentra en el horópter pero proyecta fuera de la
fóvea_ Obsérvese que las proyecciones de A, que son a y a', proyectan sobre
puntos correspondientes en las dos retinas. No ocurre así con el punto B cuyas
proyecciones (by b') muestran una considerable disparidad cruzada.
La interpretación clásica del área de Panum ha considerado, siguiendo a este autor,
que el área representaba propiedades fijas de una región det de la retina. Hoy
sabemos q esta concepción es errónea pues tanto el tamaño como la forma del área
de Panum dependen tanto de las características del estímulo como del proced
utilizado para medirla. Ej: Schor, Word y Ogawa encontraron q los objetos grandes
tenían áreas mayores q los pequeños y lo mismo ocurría con las imágenes borrosas
comparadas con las más nítidas. El área de Panum presenta unas características dinámicas considerables y depende de
mecanismos perceptivos de considerable complejidad. Por tanto, las cifras que hemos dado anteriormente sobre sus
dimensiones deben tomarse sólo como una orientación referida a condiciones típicas de medición.
- Mecanismos fisiológicos de la estereoscopia. El hallazgo de neuronas en la corteza visual primaria (V1) que respondían
de forma selectiva a la disparidad binocular tuvo lugar en 1967 y se debió a las invests de Barlow, Blakemore, y Pettigrew.
Con posterioridad se han encontrado células selectivas a la disparidad en otras áreas de la corteza cerebral como V2 y V3.
Como su mismo nombre indica, estas neuronas muestran alta tasa de disparo cuando un determinado estímulo incide en
puntos de las dos retinas que no son correspondientes. Unas células responden preferentemente a niveles de disparidad
bajos, mientras que otras lo hacen a niveles de disparidad altos. De forma parecida unas responden preferentemente a la
disparidad cruzada mientras que otras lo hacen a la no cruzada. De entre las múltiples invests psicofisiológicas sobre la
estereoscopia merece la pena destacar, por su cuidadoso carácter cuantitativo, las realizadas recientemente por DeAngelis,
Cumming y Newsome en el área temporal medial (MT) de monos. Descubrieron que en esta zona existía una clara org
funcional de la estereoscopia que presentaba 3 características funds:
l. Las neuronas selectivas a la disparidad estaban organizadas en columnas de acuerdo con valores particulares de
disparidad, de forma que las neuronas que mostraban preferencia para una det disparidad binocular formaban parte de la
misma columna.
2. Las neuronas selectivas a la disparidad estaban agrupadas a lo largo de MT formando como una especie de parches
intercalados con otros que no mostraban selectividad a la disparidad.
3. Finalmente, en los parches con buena selectividad a la disparidad, la disparidad preferida variaba de forma gradual y
continua de columna a columna a lo largo de la superficie de MT
Estos resultados indicaban que el área MT contenía un mapa de disparidad binocular, pero DeAngelis y cols quisieron
comprobar que efectivamente las neuronas pertenecientes a este mapa estaban implicadas en la percepción de la
profundidad y para ello estimularon eléctricamente grupos de neuronas mientras los monos realizaban una tarea de
discriminación de la profundidad utilizando estereogramas de puntos aleatorios estáticos. El uso de estereogramas estáticos
era importante porque MT es un área que tb contiene neuronas especializadas en el procesamiento del mov. Los resultados
mostraron q la microestimulación provocaba un sesgo sistemático en los juicios perceptivos de los monos en la dirección
de la disparidad preferida por las neuronas que eran estimuladas. Por tanto, en el área MT se originan señales relevantes
para la percepción de la profundidad estereoscópica.
1.2.3. Rivalidad binocular
Hemos visto que la disparidad binocular, siempre que no sobrepase la magnitud indicada por el área de Panum, produce
estereoscopia. Cuando la disparidad es grande y sobrepasa los valores de dicha área se producen imágenes dobles aunque
por lo general la experiencia consciente de las dos imágenes, fenómeno que se denomina diplopía, no llega a producirse.
La razón de que no se produzca se debe a que las imágenes dobles provocan un fenómeno de rivalidad binocular en el que
ambas imagen parecen competir por acceder a la consciencia. Cuando los estímulos son pequeños, produciendo un ángulo
visual igual o menor a un grado, la rivalidad es total de forma que una imagen domina sobre la otra durante un periodo de
tiempo que oscila entre 1 y 4 segundos y durante ese periodo es la única imagen percibida conscientemente. Después la
experiencia consciente cambia y la imagen que antes estaba suprimida accede a la consciencia y la que se percibía es
suprimida. Así se produce una continua alternancia entre las dos imágenes que se debe probablemente a la fatiga de las
neuronas responsables de su respectiva percepción consciente. Cuando los estímulos son grandes, la rivalidad binocular
produce una imagen consciente compuesta de trozos o partes pertenecientes a cada una de las dos imágenes.
La visión binocular normal implica tanto estereoscopia como rivalidad binocular. Si en nuestra experiencia visual habitual
consciente el campo visual aparece bien unificado, es debido a la acción conjunta de los mecanismos que subyacen a estos
dos fenómenos. La estereoscopia fusiona los puntos que se encuentran dentro del área de Panum y la rivalidad binocular
resuelve la competición entre imágenes dobles.
1.3 relación entre las claves de profundiad
Hasta este momento en la exposición de este capítulo, hemos estudiado la aportación de las distintas claves de profundidad
considerando cada una de ellas de forma aislada. Obviamente en la percepción ordinaria, todas estas claves actúan de
forma conjunta integrando la información que cada una de ellas aporta para lograr una percepción consistente del espacio
tridimensional. La percepción de la profundidad está sobredeterminada por el conjunto de factores que hemos estudiado de
forma que la ausencia de una clave no es un obstáculo para que el sistema visual pueda obtener una adecuada adapta· ción
a la situación estimular tridimensional. Esta sobredeterminación es tb un indicador de la importancia que la percepción de
la tercera dimensión tiene para la supervivencia del organismo.
Cómo se lleva a cabo la integración de las distintas claves para producir la percepción de la profundidad es un tema poco
investigado aún. Las investigaciones de laboratorio han tratado de comparar unas claves con otras con el fin de observar el
resultado que las distintas manipulaciones experimentales producen en la percepción visual. Los resultados de estas
investigaciones han puesto de manifiesto que las distintas claves pueden relacionarse entre sí de tres formas diferentes:
dominancia, compromiso e interacción.
- Dominancia. Se produce dominancia de una clave sobre otra cuando el sistema visual ignora la información
proporcionada por una clave en favor de la proporcionada por otra clave de profundidad. Un ejemplo conocido que muestra
este efecto es la habitación de Ames. En esta habitación, Ames opone la información proporcionada por la perspectiva y
la proporcionada por el tamaño familiar. Se trata de una habitación distorsionada de forma trapezoidal como aparece en el
esquema de la Figura 4.15.b.
El observador sólo puede mirar dentro de la habitación a través de un orificio situado estratégicamente en una de las
paredes de la habitación. Desde ese punto de vista, la habitación parece rectangular a pesar de que no lo es. Cuando
personas de la misma estatura se colocan en distintas posiciones a lo largo de la pared del fondo, el observador
inevitablemente percibe a las personas como si estuvieran a la misma distancia y tuvieran estaturas muy diferentes (Fig
4.15.a). En el caso de esta ilusión, la percepción del observador está dominada por la información que proporciona la
perspectiva, que desde el punto de observación predeterminado hace parecer la habitación como rectangular. A pesar de
que el tamaño familiar debería igualar el tamaño de las personas, esta información es ignorada y el tamaño de las personas
queda determinado por el tamaño de la imagen proyectada en la retina, provocando así la ilusión de tamaño que caracteriza
a la habitación de Ames.
- Compromiso. No siempre se produce el predominio de una clave respecto de otra. A veces, la resultante del conflicto
entre las informaciones proporcionadas por las distintas claves es un valor intermedio entre los valores de profundidad
proporcionados por cada clave. Por ejemplo, Bruno y Cutting manipularon valores de cuatro claves diferentes: tamaño
relativo, posición respecto al horizonte, oclusión y paralaje de movimiento. Construyeron diferentes estímulos que
combinaban los valores de esas claves y solicitaron a los participantes que para cada estímulo evaluaran en una escala de O
a 99 la magnitud de la profundidad percibida. Encontraron que el grado de profundidad percibida era el resultado de sumar
la información proporcionada por cada una de las claves. En este caso, por tanto, los observadores no se guiaban por una
clave ignorando las otras, como ocurre en los casos de dominancia, sino que integraban la inf de las claves de acuerdo con
una simple regla aditiva. Parece como si la inf proporcionada por cada clave fuera independiente de la información
proporcionada por las otras y el resultado final se produjera sin ningún tipo de interacción entre las claves.
- Interacción. aunq el compromiso actúa en algunas ocasiones, no puede descartarse la existencia de interacciones entre la
inf proporcionada por las distintas claves. En el caso de las claves que solamente producen inf relativa sobre la
profundidad, parece lógico pensar que necesitan interactuar con alguna clave que proporcione información absoluta sobre
la distancia a la que se encuentran los objetos para poder dar lugar a un mapa métrico de profundidad. Ej: piénsese en la
disparidad binocular que es una potente clave de profundidad pero solamente de profundidad relativa respecto al punto de
fijación. Considerada de forma aislada la disparidad binocular no proporciona información absoluta de la distancia a los
objetos sino que informa sobre las proporciones entre las distancias de los objetos situados en diferentes planos de
profundidad. Piénsese también en la convergencia que proporciona información sobre la distancia absoluta pero
únicamente de la distancia al objeto que se encuentra en el punto de fijación. La interacción de estas dos claves permite
generar un mapa métrico de la profundidad de los objetos en la escena ya que la convergencia binocular proporciona el
valor de distancia real a que se encuentra el objeto en el que se fija la vista, y a partir de esta medida se pueden escalar las
proporciones de disparidad de profundidad relativa. De esta forma el sistema visual puede conseguir las distancias
absolutas a todos los objetos de la escena.
La invest de la integración entre claves de profundidad casi se ha limitado a constatar q existen los 3 tipos de procesos q
hemos visto. Aún sabemos muy poco sobre las condiciones q determinan el predominio de un proceso sobre los otros
2. TEORÍAS DE LA PERCEPCIÓN ESPACIAL
2 aproxs teóricas han determinado la invest sobre percepción espacial en psicología. Las diferencias responden a
discrepancias profundas respecto a los procesos perceptivos en general, su confrontación más clara está en el terreno de la
percepción espacial. Son la de aproximación constructivista y la aproximación ecológica. Estudiaremos el modo en que
cada una de ellas aborda la explicación de un fenómeno relacionado con la percepción de la distancia como es la
constancia del tamaño.
2.1 La aproximación constructivista
Es la más antigua de las dos y, aunque hunde sus raíces en el empirismo filosófico, suele considerarse a Helmholtz como
padre de la primera formulación científica de la misma. Dp otros investigadores, como Boring, Epstein, Hochberg y Rack
entre otros, han contribuido a reformular las ideas centrales que caracterizan esta concepción. Aquí nos centraremos en el
estudio de estas ideas centrales sin prestar especial atención a los matices q diferencian a los distintos autores.
Una idea central de la aprox constructivista es que la percepción tiene lugar por fases que se complementan unas a otras y
que de forma conjunta contribuyen a proporcionar la información necesaria. Inicialmente, la inf proporcionada por la
imagen retiniana o estímulo próximo no es adecuada para determinar por sí sola la percepción. El estímulo próximo es
ambiguo y necesita la aportación de información por parte de otros procesos psicológicos, tales como el aprendizaje y la
memoria, para resolver esa ambigüedad y proporcionar una percepción adecuada al estímulo distante. En el caso del
espacio tridimensional, como la retina es una superficie bidimensional, la percepción de un espacio tridimensional no
puede ser un fenómeno perceptivo primario sino derivado a partir de la imagen retiniana bidimensional. De ahí la
importancia que para la aprox constructivista tiene el análisis de las claves de profundidad que hemos estudiado. Las claves
de profundidad actúan como un contexto interpretativo que nos permite recuperar las caracs tridimensionales del E distante
a partir del núcleo de información proporcionado por la imagen retiniana bidimensional. La forma en q la concepción
constructivista explica la constancia del tamaño, nos ayudará a concretar el conocimiento de esta forma de pensar.
- La constancia del tamaño
Recordemos las relaciones geométricas que se han explicado en la Fig 3.8 entre el tamaño de los objetos, su distancia
respecto al observador, el ángulo visual y el tamaño de la imagen retiniana. Allí veíamos que el ángulo visual, y por
consiguiente el tamaño de la imagen retiniana, varía directamente con el tamaño del objeto e inversamente con la distancia
a la que se encuentra el objeto. A igual distancia, cuanto mayor es un objeto mayor es el ángulo visual que su imagen
proyecta en la retina. Por otra parte, el ángulo visual proyectado por un objeto disminuye a medida que el objeto se aleja
del observador.
Si la percepción del tamaño de un objeto estuviera determinada por el tamaño del ángulo visual, los objetos variarían en
tamaño percibido cuando variase su distancia al observador. Esto es lo que ocurre cuando la distancia respecto a los objetos
percibidos es muy grande. Por ejemplo, si contempla- mos el tráfico de una ciudad desde un edificio muy alto, podemos
tener la impresión de que el tamaño de los coches es el equivalente al de coches de juguete. Sin embargo, cuando la
distancia de los objetos al observador no es muy grande, el desplazamiento en profundidad de los objetos no provoca un
cambio en su tamaño percibido a pesar de que el ángulo visual que proyectan disminuye. Por ejemplo, si el lector está en
una habitación, puede observar que el tamaño percibido de un objeto cercano no varía al trasladarlo al extremo más alejado
de la habitación a pesar de la innegable reducción que el aL ángulo visual experimenta. Este fenómeno es el que se conoce
con el nombre dis de constancia del tamaño. De alguna forma el sistema visual compensa la disminución del ángulo
visual de forma que la consciencia visual del observador la mantiene una experiencia constante del tamaño del objeto.
Para estudiar la constancia del tamaño de una forma controlada, se han realizado muchos experimentos en los que los
participantes tienen que comparar el tamaño de objetos a diferentes distancias. La Fig 4.16 presenta de forma esquemática
los resultados típicos de este tipo de experimentos. En la figura se representa el tamaño percibido en función de la distancia
a la que se sitúa el objeto variable. Como puede verse, el tamaño aparente no disminuye en función de la distancia de
acuerdo con la variación que experimenta el tamaño de la imagen retiniana, sino que se aproxima mucho más a la curva
teórica de constancia.
- Tomar en consideración la distancia
La explicación constructivista de la constancia del tamaño ha puesto siempre el énfasis en que el sistema visual evalúa el
tamaño de un objeto basándose no sólo en el tamaño del ángulo visual o tamaño de la imagen retiniana sino también en la
distancia a que el objeto se encuentra situado. Helmholtz fue el primero en postular que el sistema visual tomaba en
consideración la distancia a la que se encontraba un objeto por medio de una inferencia inconsciente. Según Helmholtz, el
sistema visual primero registra el tamaño de la imagen retiniana y después modifica esta información de acuerdo con la
información disponible acerca de la distancia a la que se encuentra el objeto. Para Helmholtz esta operación tenía lugar de
forma inconsciente, sin que el observador cayera en la cuenta de la misma.
La formulación moderna de esta misma idea se conoce con el nombre de hipótesis de la invarianza tamaño-distancia,
que se limita a suponer que la imagen retiniana guarda la misma relación con el tamaño y la distancia percibidos que con el
tamaño y la distancia fisicos. Si el ángulo visual (a) proyectado por un objeto sobre la retina es directamente proporcional
al tamaño del objeto (h) e inversamente proporcional a la distancia (d) a la que el objeto está, podemos establecer q:
La hipótesis de la invarianza tamaño-distancia supone que la imagen retiniana guarda la misma relación
con el tamaño percibido (hP) y la distancia percibida (dP) de modo que:

De lo que se deduce que:

Es decir, el tamaño percibido es igual a la distancia percibida multiplicada por la tangente del ángulo visual. Dicho en otros
términos, el tamaño percibido es igual al producto de la distancia percibida por el tamaño de la imagen retiniana. En una
situación cotidiana, a medida que un objeto se aleja del observador, el ángulo visual producido por el objeto disminuye
pero el tamaño percibido permanece constante debido a la relación expresada en la ecuación
- evidencia a favor de la hipótesis de la invarianza tamaño-distancia:
la ley de eEmmert: La relación que acabamos de ver entre tamaño y distancia percibidos y tama- ño de la imagen retiniana
predice que, si el tamaño de la imagen retiniana permanece constante, entonces el tamaño percibido es proporcional a la
dis- tancia percibida. La comprobación de esta predicción no es fácil porque todo cambio en la distancia a la que se
encuentra un objeto conlleva un cambio en ángulo visual y por tanto en el tamaño de la imagen retiniana. Sin embargo
existe un fenómeno perceptivo que permite mantener constante el tamaño de la imagen retiniana y cambiar la distancia a la
que se percibe un objeto. Se trata del fenómeno de las posimágenes que ya hemos visto en capítulos anteriores.
Observe la Fig 4.17 y fije su vista en el círculo negro del marco izquierdo
durante 30’’. Dp cambie su vista al cuadrado de la derecha, fije su vista en
el punto central y percibirá un círculo del mismo tamaño que el anterior
pero de color blanco intenso. Debido a la prolongada exposición al
estímulo negro, su visión ha perdido sensibilidad a ese color y ha
aumentado la sensibilidad para el color oponente, el blanco. Repita ahora
la observación del círculo negro de la izquierda y, después de 30’’, fije su
mirada en alguna superficie blanca lejana como puede ser una pared de la
habitación en que se encuentra. Observará que sobre esa superficie se proyecta un círculo blanco de mayor tamaño que el
que vio anteriormen- te en la parte derecha de la Fig 4.17. Si tiene la oportunidad de repetir la experiencia con superficies
de proyección situadas en distintos planos de profundidad desde su posición de observación, comprobará que el tamaño del
círculo proyectado en la posimagen aumenta a medida que la superficie sobre la que se proyecta está más alejada de usted.
Esta experiencia ilustra la ley enunciada por Emmert en 1881 que establece que el tamaño aparente de una posimagen es
directamente proporcional a su distancia percibida desde el observador.
La ley de Emmert expresa un hecho que se refiere a la variación en tamaño percibido con el cambio de la distancia. Es el
fenómeno opuesto a la situación normal en la que un cambio en distancia va acompañado de una constancia en el tamaño
percibido. Sin embargo, ambas experiencias son la expresión de un mismo principio. Si el sistema visual se comporta
como una calculadora que multiplica el tamaño retiniano por la distancia percibida para producir el tamaño percibido,
entonces cuando el ángulo visual decrece al aumentar la distancia el producto resultará en la constancia del tamaño. Sin
embargo, cuando el ángulo visual permanece constante y se aumenta la distancia, el tamaño aparente aumentará como
indica la ley de Emmert para las posimágenes.
percepción del tamaño e indicadores de profundiad: Una forma de estudiar el papel que la distancia aparente juega en la
percepción del tamaño consiste en estudiar la relación entre esta percepción y los indicadores de profundidad que hemos
estudiado. Holway y Boring realizaron una serie de experimentos, que aún hoy se consideran clásicos en este tema, y que
proporcionaron interesante información sobre esa relación. En la situación experimental ideada por Holway y Boring, el
observador estaba situado en la intersección de dos largos pasillos que se extendían en forma de L. En uno de los pasillos
había un disco de luz que era ajustable en tamaño y que se colocaba a una distancia fija del observador (unos tres metros).
El observador tenía el control del tamaño de este disco. En el segundo pasillo se colocaba otro disco de referencia y, en
cada ensayo, se variaba la distancia, entre 3 y 36,5m, a la que era presentado. Lo peculiar respecto a este segundo disco
consistía en que su tamaño era elegido por el experimentador en cada ocasión de forma que el ángulo visual q proyectaba
sobre la retina fuera siempre de un grado de ángulo visual. Así el E próximo en todas las condiciones experimentales era el
mismo. La tarea del observador consistía en ajustar el tamaño del primer círculo hasta q le pareciese igual al círculo de
referencia. Holway y Boring estudiaron la ejecución de los sujetos bajo las siguientes condiciones de observación visual:
a) visión binocular normal; b) visión monocular; e) utilizando una pantalla de reducción, que es simplemente una pantalla
opaca con una apertura por la que el observador mira con un solo ojo, y d) en una condición similar a la anterior pero
eliminando aún más los posibles puntos de ref mediante la utilización de telas y colgantes oscuros a lo largo del pasillo.
Obsérvese que en esta situación experimental las relaciónes entre ángulo visual, tamaño aparente y distancia son
semejantes a las de la posimagen que hemos comentado al hablar de la ley de Emmert. En el experimento de Holway y
Boring el ángulo visual proyectado por el estímulo de referencia, y
por tanto la imagen retiniana, se mantenía constante. En
consecuencia, si los sujetos percibían constancia en el tamaño,
hubieran tenido que aumentar el disco de ajuste de la misma forma
que los experimentadores aumentaban el tamaño del disco de ref.
Por otra parte, si la degradación de los indicadores de distancia era
perfecta, y la única información que los observadores recibían era la
proporcionada por el ángulo visual, su ajuste hubiera debido
mantenerse constante a lo largo del experimento. Cualquier
condición de degradación de las claves que no fuera perfecta pero
deteriorase la estimación de la distancia, hubiera tenido que
producir ajustes intermedios entre los dos anteriores.
Fig 4.18 muestra los resultados experimentales de Holway y
Boring. Como puede observarse, bajo las condiciones de observación a) y b) el ajuste efectuado estaba próximo al
necesario para mantener la constancia en el tamaño aparente, e incluso la condición a) tendía a exagerar ligeramente el
ajuste. En la condición e) el aumento del disco de ajuste, a medida que aumentaba la distancia del disco de referencia, era
mucho menor que en las condiciones a) y b). En la condición d), en la que la degradación de las claves de distancia era
mayor, la tendencia presente en e) se acentuaba aún más y la función se aproximaba a la constancia típica de una situación
en la q el único indicio disponible para el observador era el ángulo visual.
En otros experimentos q se realizaron dp de los de Holway y Boring, en los q se controló más cuidadosamente la supresión
de los indicadores de distancia producidos por la pantalla de reducción, se llegó a obtener una función constante de acuerdo
con el tamaño del ángulo visual.
Aunq los resultados experimentales q acabamos de comentar ponen de manifiesto la importancia que tiene la consideración
de la distancia en la percepción del tamaño, otros experimentos han mostrado también que, a la hora de juzgar el tamaño de
los objetos, las personas pueden tomar en consideración varios factores diferentes. Por ejemplo, se ha puesto de manifiesto
que las instrucciones respecto al punto de referencia que el observador debe adoptar para emitir sus juicios, pueden influir
en la percepción del tamaño. Gilinsky realizó un experimento en el que presentó a los participantes un triángulo de
referencia a diferentes distancias. Les pidió que ajustaran el tamaño de otro triángulo de acuerdo con el tamaño percibido.
La manipulación fundamental que Gilinsky introdujo fue las instrucciones bajo las que los observadores realizaron la tarea.
Unas instrucciones, que llamaremos objetivas, solicitaban el ajuste del triángulo variable de forma que igualara el tamaño
del triángulo de referencia como si ambos fueran medidos con una regla. Otras instrucciones, que llamaremos retinianas,
pedían a los observadores imaginar que se tomaban fotografías de los dos triángulos y, por lo tanto, si un triángulo era más
distante que otro, produciría una imagen más pequeña. Los resultados mostraron que bajo instrucciones retinianas, el
tamaño del triángulo variable disminuía a medida que aumentaba la distancia del triángulo de referencia. Sin embargo, bajo
instrucciones objetivas tendían a exagerar la constancia del tamaño. Este fenómeno, que también Holway y Boring
encontraron en el experimento expuesto anteriormente, se ha denominado sobreconstancia y ha sido replicado en
numerosas ocasiones. Una explicación general bastante aceptada de este fenómeno es que bajo instrucciones objetivas la
respuesta del observador está mediada por procesos cognitivos de cálculo e inferencia que llevan a sobreestimar la
constancia, mientras que bajo instrucciones retinianas el juicio no está influido por estos factores cognitivos sino que es de
naturaleza más directamente perceptiva. Lo expuesto hasta ahora ilustra de forma bastante extensa cómo se ha llevado a
cabo la investigación de la constancia del tamaño desde una perspectiva constructivista y el valor de una explicación de
esta constancia mediante la toma en consideración de la distancia percibida.
2.2. La aproximación ecológica
o también percepción directa. Formulado por Gibson y entiende la percepción en oposición a la postura constructivista.
Para Gibson, el planteamiento clásico del problema de la percepción tridimensional, consistente en buscar claves de
profundidad en la superficie bidimensional de la retina, está equivocado. La investigación perceptiva debe tomar en
consideración el patrón total de estimulación, no la proyección geométrica de aspectos parciales del estímulo en la retina.
La ambigüedad del estímulo, que es para los constructivistas un supuesto fundamental, es fruto de un análisis inadecuado
del patrón total de estimulación y no de una insuficiencia del patrón para determinar la percepción.
Gibson pensaba q la óptica geométrica no era el instrumento adecuado para describir el estímulo y las rels entre medio
ambiente y patrón de estimulación. En su lugar, trató de crear una óptica ecológica cuyo principio fundamental es que la
luz del medio ambiente transmite, no sólo energía, sino tb información, que es más importante. La luz puede dar inf porque
está estructurada de una forma det en cada uno de los múltiples puntos de vista q el medio ambiente ofrece al observador.
Para Gibson el concepto de información está íntimamente ligado al de estructura. La estructuración de la luz en un punto
de vista concreto consiste en el conjunto de perspectivas de los objetos que el observador es capaz de captar desde ese
punto de vista, incluyendo también las perspectivas cambiantes de los objetos que se mueven. Gibson siempre pensó que la
estimulación que continuamente llega a nuestros sentidos es muy rica en inf y proporciona continuamente de forma
suficiente todo lo necesario para que se produzca la percepción.
Para Gibson, por tanto, el estímulo carece de ambigüedad. Toda la inf está presente en la estimulación o, como Gibson
prefiere llamarla, la conformación óptica (optic array). En consecuencia, no es necesario recurrir a procesos constructivos
de carácter no perceptivo, tales como memoria o aprendizaje, para entender o explicar la percepción. La percepción para
Gibson es directa en cuanto q consiste sencillamente en captar la inf disponible en la conformación óptica. Ninguna
secuencia de procesos es necesaría para construir una representación de los objetos. Lo único necesario para percibir es
atender a la información que está en el medio ambiente.
En resumen, la teoría de Gibson es ecológica en cuanto que pone el acento en la riqueza informativa de la estimulación
ordinaria por oposición a la estimulación propia de las situaciones experimentales que, por lo general, restringen la inf. En
una situación estimular propia de la vida cotidiana la totalidad del patrón de estimulación especifica de forma necesaria y
suficiente lo q un observador percibe. La teoría de Gibson es una teoría de la percepción directa porque refiere todo lo
percibido a la inf proporcionada por la estimulación. Evita toda ref a procesos no perceptivos que puedan completar o
interpretar un posible estímulo ambiguo. La inf presente en los estímulos nunca es ambigua. Por eso, la tarea de los
psicólogos que estudian la percepción debe ser analizar a fondo la estimulación hasta dar con la inf particular que
determina un fenómeno perceptivo.
La constancia del tamaño desde una perspectiva ecológica
Para Gibson, explicar las constancias perceptivas no es otra cosa que descubrir en la estimulación la inf invariante que
determina la percepción de esa constancia. No acepta ningún tipo de inferencia inconsciente o proceso mental llevado a
cabo por el observador que complemente la inf proporcionada por la estimulación.
En el caso de la constancia del tamaño, no considera necesario que el observador tome en consideración la distancia
percibida, sino que es el gradiente de densidad de textura el que proporciona la escala absoluta de distancia que va a
explicar la constancia. Para Gibson, la percepción del tamaño de los objetos es una función de la cantidad de textura que el
objeto oculta al observador. Los elementos de la textura de una superficie que son ocultados por los objetos, proporcionan
una escala efectiva de tamaños con respecto a la cual puede percibirse el tamaño de un objeto. Siempre que dos objetos
oculten la misma cantidad de elementos de la textura de una superficie, se percibirán como iguales en tamaño. La Fig 4.19
puede ilustrar la idea central de la explicación de Gibson.
El suelo, y su correspondiente gradiente de textura, que se hace más denso a medida que aumenta la distancia, es la escala
respecto a la cual se valora el tamaño de los objetos. Los objetos se perciben como iguales en tamaño, a pesar de la
distancia, porque cada uno de ellos oculta la misma cantidad de textura. La relación entre el tamaño del objeto y la cantidad
de elementos de textura ocultados por el objeto no cambia y es este invariante el responsable de la constancia del tamaño.
- resultados experimentales El tipo de experimentación que Gibson aduce en favor de su teoría ha consistido en
demostrar la constancia del tamaño en situaciones fuera del laboratorio y poco propicias a facilitar los cálculos que supone
la teoría constructivista. Ej: en uno de sus experimentos colocó estacas a distintas distancias del observador en un campo
de unos 800m de largo. La altura de las estacas podía variar entre 39 y 257 cm. La tarea de los observadores consistía en
escoger, de entre un conjunto de estacas graduadas que tenía detrás, aquella que más se aproximara a la que en cada ensayo
tenía que estimar. En estas condiciones, y sobre todo para las distancias más alejadas, el tamaño de la imagen retiniana es
tan pequeño que el cálculo del tamaño percibido, tal como propone la teoría constructivista, resulta prácticamente
imposible. A pesar de ello, Gibson encontró que los observadores mantenían la constancia del tamaño incluso en los casos
en que las estacas estaban más alejadas. A partir de datos como estos, Gibson concluyó que la explicación de la constancia
del tamaño no necesita complicados cálculos basados en la distancia percibida sino que es mucho más simple suponer que
los observadores prestan atención a la cantidad de elementos de la textura del terreno que cada objeto cubre y que
responden directamente a esta característica.
Aunque no cabe duda de que la explicación de la constancia del tamaño que Gibson propone, resalta un aspecto importante
del problema, no parece que pueda adoptarse como una explicación general del fenómeno. Para que la oclusión de la
textura pueda informar sobre el tamaño relativo de los objetos, se necesitan unas condiciones bastantes restrictivas que por
lo general no se dan en la percepción ordinaria. Ej: es necesario que los objetos cuyos tamaños se van a comparar se
presenten sobre la textura de la misma superficie. Si no es así, o si la superficie no presenta una marcada textura, no es
posible establecer una comparación entre los objetos. Además, los elementos que componen la textura de la superficie
sobre la que están situados los objetos, deben ser del mismo tamaño. Si la textura es irregular, con unos elementos mayores
que otros, no es posible percibir constancia del tamaño sobre la base del número de elementos que los objetos ocultan. En
la percepción ordinaria es frecuente que estas condiciones no se cumplan, sin embargo el fenómeno de constancia del
tamaño sigue produciéndose.
En resumen, no parece que las relaciones q Gibson descubrió entre el tamaño de los objetos y la oclusión de la textura de la
superficie sobre la q los objetos aparecen, sea una explicación general del fenómeno de constancia del tamaño. Hay q
considerar otros fs entre los q probablemente están la distancia percibida que tanto ha interesado a los constructivistas.
En esta sección del capítulo, no pretendemos estudiar a fondo todos los problemas relacionados con la constancia del
tamaño. Más bien, hemos uti- lizado la polémica suscitada en torno a la constancia del tamaño como un ejemplo concreto
que nos ha permitido entender la forma en que las dos prin- cipales teorías de la percepción del espacio tratan de explicar
un fenómeno perceptivo. De este modo es posible entender mejor las teorías mismas. Ahora nos interesa volver sobre esas
teorías para preguntarnos si son necesariamente tan antagónicas como a veces son presentadas en los textos de psicología
de la percepción.
3. POSIBLE RECONCILIACIÓN
Son muchos los investigadores de la percepción que han considerado muy importante conseguir armonizar las dos posturas
que acabamos de exponer. Neisser propuso la existencia de tres sistemas perceptivos diferentes. Un sistema especialmente
dedicado al control de la acción del organismo en el medio ambiente. Un segundo sistema especializado en la
discriminación e identificación de objetos y situaciones familiares. Y un tercer sistema encargado de la percepción
interpersonal, de las situaciones de interacción social con otros seres humanos.
El primero de los sistemas propuestos por Neisser presenta unas caracte- rísticas similares a las que Gibson propuso para el
sistema perceptivo visual en general. Y el segundo tiene unas características similares a las que los cons tructivistas han
propuesto como propias de la percepción visual. Si la propuesta de Neisser fuera correcta nos encontraríamos con que las
dos teorías, q estamos estudiando en este capítulo, podrían tener razón, en cuanto que cada una de ellas estaría acentuando
las características propias de uno de los sistemas de percepción visual. Ambas teorías, a su vez, estarían equivocadas en
cuanto q pretenden generalizar para un único sistema de percepción visual las caracs propias de uno de los subsistemas.
Obsérvese que la propuesta de Neisser no carece de antecedentes en la historia de la investigación perceptiva. En el
capítulo sobre el color veíamos que durante casi un siglo la teoría tricromática y la teoría de los procesos oponentes
pugnaron por prevalecer en la explicación de la percepción del color. Durante ese tiempo todos los investigadores se veían
más o menos impelidos a elegir entre una u otra teoría. Hoy existe un acuerdo general sobre la validez de ambas teorías. El
problema se resolvió cuando se pudo establecer que en el procesamiento del color había varias fases y que, mientras que la
teoría tricromática tenía razón al describir el procesamiento en el nivel de los receptores, la teoría de los procesos
oponentes la tenía si se tomaba en consideración el tipo de procesamiento que tenía lugar en las células ganglionares y en
el núcleo geniculado del tálamo. ¿Hay razones para pensar que en el caso de la percepción del espacio podemos estar en
una sit semejante? ¿Hay razones para pensar que el sistema visual procesa la inf espacial de forma diferente dependiendo
de que el acto perceptivo vaya dirigido al control de la acción o a la discriminación e identificación de los objetos?
Joel Norman, de la Universidad de Haifa en Israel, ha propuesto recientemente (2002) que las vías visuales dorsal y
ventral, que la fisiología ha descrito, corresponden a dos sistemas visuales con características similares a los postulados por
Neisser, de forma que la vía dorsal formaría un sistema especializado en el control visual de la conducta motora, mientras
que la vía ventral sería un sistema preferentemen- te dedicado al reconocimiento e identificación de los objetos. Norman ha
elaborado también de forma articulada el paralelismo entre la aproximación ecológica y el funcionamiento del sistema
visual dorsal, por una parte, y, por otra parte, el de la aproximación constructivista y el funcionamiento del sistema visual
ventral. En la última parte de este capítulo nos detendremos a exponer con un poco más de detalle la propuesta de Norman.
3.1. Los sistemas visuales dorsal y ventral
Ungerleider y Mishkin (1982) fueron los primeros investigadores que pre- sentaron evidencia experimental a favor de la
existencia de dos vías funcio- nalmente diferenciadas en la corteza visual del mono. La vía ventral que pro- yectaba desde
la corteza occipital hasta la corteza temporal inferior, y la vía dorsal que proyectaba también desde la corteza occipital
hasta la corteza pa- rietal posterior. La lesión de la corteza temporal inferior izquierda del mono, le incapacitaba para
discriminar entre objetos sobre la base de la forma. Por otra parte, la lesión de la corteza parietal posterior izquierda
impedía que los animales discriminaran sobre la base de la posición. Ungerleider y Mis- hkin sugirieron que la vía ventral
era una vía preferentemente dedicada a la discriminación e identificación de objetos, mientras que la vía dorsal estaba
especializada en la localización de los mismos. A partir de entonces ha sido frecuente llamar a las dos vías visuales la vía
del <<que» y la vía del <<donde» para referirse a la vía ventral y a la dorsal respectivamente.
Desde la propuesta inicial de Ungerleider y Mishkin, la investigación tan- to con personas como con monos ha obligado a
reinterpretar la función de las dos vías. Una de las reinterpretaciones que mayor influencia tiene en la actualidad es la
propuesta por Milner y Goodale (1995). Para estos autores, tanto la vía ventral como la vía dorsal procesan información
sobre las caracte- rísticas de los objetos y sobre sus relaciones espaciales. Lo que diferencia a las dos vías es el uso que
hacen de esa información. La vía ventral se especializa en el procesamiento de las características permanentes de los
objetos y de sus relaciones, permitiendo así la formación de representaciones perceptivas a largo plazo. Estas
representaciones cumplen una función básica para poder identificar los objetos y para poder clasificarlos. La finalidad
primaria del procesamiento que tiene lugar por esta vía es la acumulación de conocimiento acerca de los objetos que nos
rodean.
A su vez, el procesamiento que tiene lugar en la vía dorsal tiene que ver preferentemente con la inf cambiante momento a
momento acerca de la localización y de la disposición de los objetos con respecto a los efectores que el sujeto utiliza. Su
función básica tiene que ver con el control visual online de las habilidades motoras, como pueden ser, por ejemplo, los mo-
vimientos de la mano a la hora de alcanzar o coger un objeto. Este sistema dorsal puede considerarse como una extensión
cortical de los módulos que controlan los movimientos guiados visualmente en los vertebrados y que im- plican estructuras
subcorticales tales como los colículos superiores y el núcleo pulvinar del tálamo.
La Figura 4.20 presenta un esquema de las estructuras
corticales princi- palmente implicadas en cada una de las
dos vías en el cerebro del mono. A partir de V1, la vía
ventral incorpora a V4 y termina en las zonas temporales
TE y TEO, mientras que la vía dorsal se encamina hacia la
corteza parietal implicando zonas temporales mediales
como MT y MST y las zonas parietales posteriores.
Milner y Goodale han proporcionado gran cantidad de
información expe- rimental a favor de la diferenciación
funcional de estos sistemas. Experimentos con ratas y
monos han mostrado una clara disociación entre los dos
sistemas.
Sin embargo, nos vamos a detener en la exposición de
ejemplos tomados de la neuropsicología humana q nos
permitirán entender la forma en que la disociación de los
sistemas que ahora estudiamos se manifiesta en las
personas.
3.2. Las disociaciones neuropsicológicas
En la investigación neuropsicológica, a la hora de hacer inferencias sobre los mecanismos responsables de una determinada
disfunción, es conveniente dis- tinguir entre dos tipos de disociaciones funcionales posibles. En el caso de la disociación
simple, lo que se observa en los pacientes18 con un daño cerebral concreto es una deficiencia en un tipo de tarea
determinada cuando su ejecu- ción se compara con un grupo de control formado por personas sin ese daño cerebral.
Además, para establecer la existencia de una disociación simple es necesario utilizar una tarea de control en la que el grupo
de pacientes y el de control no difieran. Este requisito es el mínimo requerido para asegurar que la disfunción es específica
al daño y no el resultado de una deficiencia generalizada producida por el mismo. Por ejemplo, la Figura 4.2l.A ilustra el
caso que ahora estamos tratando. En ella se compara un paciente o grupo de pacientes con daño en la zona occipito-
parietal, con un grupo de control en dos tareas, una de carácter perceptivo y otra de coordinación visomotora. Los
resultados probablemente mostrarán que los grupos no difieren en la tarea perceptiva pero sí en la tarea de coordinación, en
la que el grupo de pacientes será inferior al grupo de control.
Las disociaciones simples nos pueden poner en la pista de una
determi- nada asociación entre un área determinada del cerebro y una
función psico- lógica concreta. Sin embargo, la disociación simple no
puede establecer de forma clara la existencia de esa asociación. La
razón fundamental para ello es que tiene problemas de interpretación
inevitables. Uno de los más impor- tantes radica en el supuesto de que
las dos tareas son igualmente sensibles a las diferencias entre el grupo
de pacientes y el grupo de control. Este supues- to suele fallar en
muchas ocasiones porque no es fácil igualar las tareas en nivel de
dificultad o en grado de sensibilidad para los dos grupos. Por ejem-
plo, la tarea de coordinación visomotora puede requerir mayor
capacidad de concentración que la perceptiva. Si el daño en la zona
parietal posterior produce una deficiencia en concentración, los
pacientes pueden mostrar un patrón de ejecución semejante al de la
Figura 4.2l.A, pero no debido a un problema específico de
coordinación sino debido a un problema más general de
concentración.
Los problemas interpretativos que presenta la disociación simple
quedan prácticamente resueltos si se logra establecer una disociación
doble. En el caso de la disociación doble es necesario encontrar un paciente o grupo de pacientes que presente un patrón de
disociación opuesto al encontrado en el primer grupo de pacientes. La Figura 4.2l.B ilustra el caso de disociación doble que
ahora nos interesa tratar. En la figura vemos que el nuevo grupo de pacientes con lesiones en la zona occipito-temporal, no
difiere de los con- troles en la tarea de coordinación pero sí en la perceptiva. En resumen, en un caso de disociación doble,
la comparación de los dos grupos de pacientes añade evidencia a favor de la especificidad de la disfunción ya que en la
tarea en la que el primer grupo fracasa, el otro no difiere de los controles y, al revés, donde fracasa el segundo grupo, el
primero no presenta deficiencia alguna.
Ahora podemos preguntarnos si de hecho existe una doble disociación entre grupos de pacientes con lesiones en la vía
ventral, pero no en la vía dor- sal, y pacientes con lesiones en la vía dorsal, pero no en la vía ventral, cuando comparamos
su ejecución en tareas perceptivas y en tareas de coordinación visomotora. La respuesta es afirmativa.
- Percepción sin coordinación visomotora
Es un hecho bien conocido en la literatura clínica neuropsicológica que los pacientes con daño en la corteza parietal
posterior pueden presentar proble- mas para dirigir visualmente acciones tales como coger un objeto o dirigir un
movimiento hacia una posición determinada del espacio. El término ataxia óptica es el utilizado para describir este tipo de
deficiencia. Los pacientes con problemas de ataxia óptica, sin embargo, no suelen presentar problemas para describir la
posición relativa de los objetos en el espacio. Por eso, no parece que la deficiencia tenga que ver con la percepción del
espacio en sí misma sino con la interacción visomotora.
Algunos de estos pacientes son también incapaces de girar sus manos para alcanzar un objeto o de acertar con la apertura
adecuada de sus dedos cuan- do tratan de coger un objeto. A pesar de ello, son perfectamente capaces de describir el
tamaño de esos objetos o su orientación. De nuevo, el problema no reside en describir el tamaño o la orientación sino en
utilizar de forma adecuada la información. Estos síntomas también muestran que el problema no está exclusivamente
ligado al espacio sino que afecta a otras características de los objetos como son su tamaño, forma y orientación.
Además de presentar una clara disociación entre una percepción preserva- da y una coordinación alterada, los problemas de
coordinación, que pueden presentar los pacientes con daño parietal posterior, también presentan un alto grado de
disociación entre sí. Algunos pacientes son incapaces de utilizar información visual para controlar la postura de sus manos
pero no presentan problema alguno a la hora de controlar la dirección en que inician un movi- miento de alcance de un
objeto. Otros pacientes presentan el patrón opuesto. Algunos pacientes no son capaces de dirigir la mirada hacia un objeto
de forma precisa pero no tienen problema en calibrar la apertura de sus dedos al intentar cogerlo. Otros pueden no tener
problemas oculomotores concretos pero son incapaces de guiar visualmente su mano hacia un objeto. En general, existen
buenas razones para pensar que los mecanismos de control motor están altamente especializados Qeannerod, 1997) pero
ahora nos basta con acentuar la fuerte disociación que estos pacientes muestran entre el daño de una coordinación
visomotora determinada y la preservación de la percepción visual de la información que debería guiar la acción.
- Coordinación visomotora sin percepción
El lado contrario de la doble disociación ha tardado más en ser detectado pero está hoy bien documentado gracias a las
investigaciones de Milner, Goodale y colaboradores. Particularmente interesante es el caso de la paciente DF que vamos a
analizar con más detalle.
DF es una mujer que, a la edad de 34 años, sufrió un daño cerebral irrever- sible como consecuencia de un casi total
envenenamiento por inhalación de monóxido de carbono. Después de recobrar el conocimiento, DF era incapaz de
reconocer las caras de sus familiares y amigos, y tampoco podía reconocer la forma de objetos familiares. Era incluso
incapaz de percibir la diferencia entre un cuadrado y un triángulo. Al mismo tiempo, no tenía problemas para reconocer a
las personas por la voz o los objetos mediante el tacto. Su proble- ma era exclusivamente visual.
El diagnóstico de agnosia perceptiva visual en el caso de DF está refor- zado por características adicionales. No es capaz de
dibujar un objeto que se le presenta visualmente pero puede hacerlo si se le pide que lo dibuje de memoria. Que no se trata
de un problema sensorial, lo demuestra el hecho de que DF puede discriminar colores, y puede detectar objetivos definidos
por cambios en luminancia que aparezcan incluso a una distancia de 30 grados en la periferia visual. Una característica
básica que DF ha perdido es la capacidad para detectar la orientación de los objetos. Ante una prueba de discrimina- ción
de enrejados no es capaz de diferenciar su orientación aunque sí es capaz de discriminar su frecuencia espacial; de hecho,
su función de sensibilidad al contraste es normal por encima de los 5 c/gav aunque es ligeramente inferior a la sensibilidad
normal para las bajas frecuencias. El problema con la orien- tación no parece tener su origen en la corteza visual primaria
porque todas las pruebas que se le han hecho mediante el uso de potenciales corticales mues- tran que el procesamiento en
esta área permanece intacto.
Las primeras pruebas neuroanatómicas que se hicieron a DF mostraron que el daño cerebral que padecía era bastante
difuso, característica bastante frecuente en casos de anoxia. No obstante, estudios posteriores que utilizaron resonancia
magnética mostraron que las zonas ventrolaterales de la corteza occipital estaban particularmente afectadas mientras que la
corteza visual pri- maria estaba bien preservada. Parece, por tanto, que el problema fundamen- tal de DF es de naturaleza
perceptiva y está preferentemente relacionado con la percepción de la forma. A pesar de que es capaz de procesar la
luminancia y el color, no es capaz de percibir formas cuyos contornos estén definidos por diferencias en luminancia o en
color. Lo mismo ocurre si los contornos están definidos por diferencias en la dirección del movimiento o en los planos de
profundidad. Los principios gestálticos fundamentales de proximidad o se- mejanza tampoco están operativos en el sistema
visual de DF.
Lo más notable en el comportamiento visual de DF es que, a pesar de su profunda deficiencia en la visión de la forma, es
capaz de utilizar la informa- ción basada en el tamaño, la forma y la orientación de los objetos para con- trolar una amplia
gama de movimientos guiados visualmente. DF es capaz de elevar la mano para estrechar la de la persona a la que es
presentada. Muestra una aptitud perfecta para alcanzar la manilla de la puerta que quiere abrir, aunque se trate de una
situación nueva. Puede andar fácilmente sin ayuda por una habitación o un patio sorteando los obstáculos que encuentra en
su cami- no. Más aún, puede alcanzar y agarrar con gran precisión un objeto situado delante de ella, a pesar de que poco
antes era incapaz de identificar ese objeto. En una prueba tipificada a la que fue sometida, DF se situó a una distancia des-
de la que una persona sin daño cerebral podía ver perfectamente una ranura grande, parecida a la de un buzón de correos,
cuya orientación podía variar. El examinador dio a DF una tarjeta grande y le pidió que, desde el lugar donde se
encontraba, girara la tarjeta hasta hacerla coincidir con la orientación de la ranura. DF no pudo llevar a cabo esta tarea. A
continuación, el examinador le pidió que insertara la tarjeta por la ranura y DF lo realizó sin problema alguno.
Otras muchas pruebas, parecidas a la que se acaba de exponer, han de- mostrado claramente que DF puede utilizar
información para controlar su comportamiento a pesar de que no es capaz de discriminar o identificar esa información
cuando se le pide que la describa.
En resumen, casos como el de DF y casos como los de ataxia óptica mues- tran entre sí las características propias de una
doble disociación. DF, cuyas lesiones se centran en la zona ventrolateral de la corteza occipital, muestra claros problemas
perceptivos mientras que su capacidad para utilizar la in- formación visual para controlar sus acciones permanece intacta.
En el caso contrario, las personas con ataxia óptica, y de forma general los pacientes con daño en la corteza parietal
posterior, no muestran problemas perceptivos cuando tienen que describir los objetos que se les presentan, pero tienen gra-
ves problemas para actuar sobre esos objetos guiados por la información que parecen percibir.
Sobre la base del estudio de casos clínicos como los que acabamos de ver, y de experimentos con animales que han
producido disociaciones similares, Milner y Goodale han propuesto la existencia de vías visuales especializadas que
ofrecen un serio apoyo a las propuestas de Neisser y de Norman.
3.3. La propuesta de Norman
A partir de los trabajos de Milner y Goodale, Norman ha dado un paso más proponiendo una diferenciación más explícita
de los dos sistemas de per- cepción visual y relacionando los dos sistemas con las teorías constructivista y ecológica.
- características de los dos sistemas
Norman ha enumerado una serie de características que permiten contrastar
las diferencias de los dos sistemas perceptivos. Son las siguientes:
a) Función. Aunque los dos sistemas analizan la estimulación visual, difie- ren en el objetivo de sus respectivos análisis.
Mientras el sistema ventral analiza la información para reconocer e identificar los estímulos, el sistema dorsal lo hace para
guiar visualmente el comportamiento del organismo.
b) Sensibilidad. Los dos sistemas muestran una sensibilidad diferente para las frecuencias espaciales y temporales. El
sistema ventral es más sensi- ble a las frecuencias espaciales altas, mientras que el sistema dorsal lo es a las frecuencias
temporales altas. Dicho de otra forma, el sistema ventral está más preparado para procesar los detalles de una escena
mientras que el dorsal es más sensible a los aspectos globales que pro- porcionan las frecuencias espaciales bajas. En
compensación, el siste- ma dorsal es mejor a la hora de percibir el movimiento.
e) Memoria. El sistema ventral mantiene una estrecha relación con el sis- tema de memoria con el fin de poder llevar a
cabo el reconocimiento y la identificación de los objetos y de los acontecimientos. El sistema dorsal no dispone de una
memoria a largo plazo, simplemente necesita una memoria de corta duración que permita la integración de la inf on line.
d) Velocidad. El sistema dorsal es más rápido. Este hecho es debido a que este sistema recibe preferentemente
proyecciones del sistema magno- celular, mientras que el sistema ventral recibe preferentemente proyec- ciones
parvocelulares que son de conducción más lenta.
e) Consciencia. El sistema ventral está más directamente reldo con la toma de consciencia de la inf que el sistema dorsal.
Como hemos visto, la paciente DF es capaz de utilizar para con trolar sus actos información visual q no es capaz de
percibir de forma consciente. Parece, por tanto, que el sistema dorsal puede funcionar con bastante precisión de forma
inconsciente, mientras q la identificación y la discriminación requieren un nivel de consciencia más alto.
f) Marco de referencia y métrica. Para reconocer e identificar objetos el sistema ventral necesita un marco de referencia
alocéntrico. El procesamiento de la inf que lleva a cabo este sistema necesita, por tanto, alcanzar una representación del
objeto centrada en el objeto mismo. Sin embargo, para alcanzar, agarrar y, en general, interactuar con los objetos,
necesitamos marcos de referencia centrados en el sujeto que nos permitan calcular, por ej, cuanto tenemos que alargar el
brazo, o cual debe ser la separación entre los dedos pulgar e índice si queremos alcanzar una taza, etc. Por eso, el sistema
visual dorsal necesita marcos de referencia egocéntricos. De forma parecida, el sistema dorsal necesita tener información
sobre la distancia absoluta a la que se encuentran los objetos, mientras que al sistema ventral le es suficiente con tener
información relativa de las posiciones de los objetos.
g) Input visual. Norman incluye otros dos aspectos que diferencian a los dos sistemas. Por una parte, el sistema ventral
está especializado en la visión central controlada por la fóvea, mientras que el sistema dorsal lo está para la visión
periférica. Estas características están ligadas a las proyecciones magno y parvo celulares mencionadas anteriormente. Por
otra parte, los dos sistemas también difieren en su grado de depen- dencia respecto a distintas claves a la hora de procesar
la profundidad. Mientras que el sistema dorsal sufre considerablemente cuando se ve obligado a trabajar exclusivamente
con claves monoculares, el sistema ventral no se ve tan disminuido por este hecho.
A pesar de las diferencias q acabamos de enumerar, debe tenerse en cuenta que ambos sistemas llevan a cabo operaciones
semejantes en el sentido de que ambos operan con formas, tamaños y distancias de los objetos. Lo importante es caer en la
cuenta de que la finalidad de los respectivos procesamientos es diferente, de ahí que la primera diferencia enumerada, la
que hace referencia a la función es la más determinante de todas. Obviamente en las personas en las que la visión funciona
normalmente, estos dos sistemas actúan de forma integrada e intercambian continuamente la información entre sí. S Son
las situaciones experimentales o clínicas, que nos permiten observar la r disociación de los dos sistemas, las que
proporcionan información acerca de S la especialización característica de cada uno de ellos.
- Relación entre los dos sistemas y las teorías perceptivas
Después de haber explicitado las caracs de los dos sistemas visuales, entenderemos mejor la propuesta de Joel Norman.
La propuesta fundamental que hace es que una teoría completa de la percepción visual necesita una aproximación dual que
incorpore las características diferenciales tanto del sistema ventral como del sistema dorsal. Para Norman, el problema de
las aproximaciones constructivista y ecológica es que han to- mado la parte por el todo. El constructivismo ha entendido la
percepción como un proceso de construcción progresiva de una representación encaminada a reconocer e identificar
objetos. Como acabamos de ver, estas parecen ser funciones especializadas del sistema ventral. Por otra parte, la postura
eco- lógica de Gibson ha entendido la percepción como un proceso de extracción directa de la información que
proporciona el medio con el fin de dirigir la actividad del organismo. También hemos visto que estas parecen ser las fun-
ciones especializadas del sistema dorsal. Otras características de los sistemas que hemos enumerado anteriormente también
encajan con los principales supuestos de cada una de las teorías. Por ejemplo, la teoría de Gibson trata de evitar a la hora de
explicar los fenómenos perceptivos, la implicación de la memoria y de otros procesos cognitivos, mientras que para los
constructivis- tas el papel de la memoria es esencial para subsanar la pobreza del estímulo. También en este punto ambas
posiciones pueden tener razón si tenemos en cuenta que el reconocimiento e identificación de objetos que lleva a cabo el
sistema ventral exige una activa participación de la memoria, mientras que el control on-line de la acción que caracteriza al
sistema dorsal no necesita la implicación de la memoria.
A la luz de la información proporcionada por casos neuropsicológicos como el de la paciente DF, merece la pena señalar la
verosimilitud que el concepto de propiedad funcional (affordance) propuesto por Gibson, adquiere como realidad
estimular. Como vimos en el Capítulo 1, según Gibson, las propiedades funcionales de los objetos del medio ambiente son
propiedades que el sistema visual extrae directamente de la estimulación para controlar su comportamiento. Para Gibson la
captación de esas propiedades funcionales no requiere la categorización previa de un objeto sino que es independiente de
ella. En el caso de DF hemos visto que su sistema dorsal intacto le permitía actuar adecuadamente respecto a objetos que
su sistema ventral dañado era incapaz de reconocer.
No podemos analizar en detalle todas las implicaciones de la propuesta de Norman. Sí creemos que su propuesta es muy
interesante y que merece una seria consideración. La propuesta de Norman no sólo da un posible marco de unificación de
teorías fuertes pero aparentemente irreconciliables, sino q sugiere interesantes hipótesis que pueden guiar la investigación
futura. Terminaremos este capítulo considerando en mayor detalle su aportación concreta a los problemas que hemos
tratado en este capítulo, las claves de profundidad y la constancia del tamaño.
las claves de la profunidad: Para Norman, tanto el sistema ventral como el dorsal son capaces de procesar la estructura
tridimensional del espacio. Sin embargo, mientras que el sistema ventral lo hace preferentemente a través de claves
monoculares de naturaleza pictórica, el sistema dorsal lo realiza a través de la captación de invariantes y la utilización de
claves binoculares tales como la estereoscopia. Norman ha propuesto que se reserve el término clave para clasificar a los
indicadores utilizados por el sistema ventral y que se utilice el término invariante para clasificar a los utilizados por el
sistema dorsal. Las principales diferencias entre claves e invariantes serían, según Norman, las siguientes:
a) Son procesadas por distintos centros cerebrales, las vías ventral y dor- sal como ya hemos explicado.
b) La extracción de información invariante está incorporada en la confi- guración física (hardwired) del sistema dorsal,
mientras que las claves son de carácter algorítmico y, por tanto, más susceptibles de cambio en el grado de inf que
proporcionan para el análisis del medio ambiente visual.
e) Los invariantes son extraídos directamente, sin recurso a procesos adicionales. Por el contrario, las claves sirven de base
a procesos de inferencia más o menos consciente.
d) Los invariantes son probablemente innatos mientras que las claves son probablemente aprendidas.
Norman apoya su propuesta en abundantes observaciones que sólo po- demos apuntar brevemente. Por un lado aduce
numerosas observaciones con pacientes neuropsicológicos con lesiones en la vía ventral, como por ejemplo el de la
paciente DF que hemos descrito anteriormente. Al parecer, para el control de las acciones que los pacientes con lesiones en
la vía ventral llevan a cabo sin problema alguno, es crucial la utilización de invariantes binoculares, tales como la
estereoscopia, y de invariantes de movimiento. Por otro lado, su propuesta también se apoya en experimentos realizados
con personas sin daño cerebral en los que se ha comprobado que existe una disociación entre las respuestas que los
observadores dan a una misma estimulación, depen- diendo del sistema utilizado para responder. Por ejemplo, Aglioti, De
Souza y Goodale demostraron que ante una estimulación ilusoria como la provocada por la llamada ilusión de
Ebbinghaus19, que puede observarse en la Fig 4.22, los observadores mostraban una clara
influencia de la ilusión cuando se les pedía que juzgaran el tamaño de los dos círculos
centrales. Sin embargo, si se les pedía que cogieran los círculos centrales, y se medía la
amplitud de la apertura de los dedos al cogerlos, se podía comprobar que la ilusión de
tamaño no producía efecto alguno. Mientras que la emisión del juicio de tamaño estaba
probablemente mediada por la inf consciente proporcionada por el sistema ventral, el control
de la acción de coger lo estaba por la información no consciente proporcionada por el
sistema dorsal. Era como si la ilusión pudiera engañar al ojo pero no a la mano.
la percepción del tamaño: El experimento que acabamos de mencionar ilustra también el hecho de que los factores que
determinan la percepción del tamaño pueden ser diferentes según intervenga en su percepción el sistema ventral o el dorsal.
Aunque no se conocen bien los factores que determinan una ilusión como la de Ebbinghaus, es probable que se deba a
procesos de inferencia que toman en consideración diferentes aspectos de la escena visual tal como postulan los
constructivistas. En la medida en que el sistema dorsal no se ve afectado por estos factores, la ilusión tampoco tiene efecto
sobre la acción de coger los círculos.
Norman ha puesto mayor énfasis en la importancia que tiene una concepción dual como la que él propone para explicar el
fenómeno de sobreconstancia que expusimos. Vimos que un factor importante en la producción de este fenómeno eran las
instrucciones objetivas dadas al observador, que ponen en juego mayor cantidad de procesos cognitivos de inferencia,
estimación y familiaridad. Cuanto mayor es la influencia de estos procesos, mayor es la implicación del sistema visual
ventral. Sin embargo, bajo instrucciones retinianas, más directamente reldas con lo percibido y con menos implicación
cognitiva, es probable que la estimación del tamaño dependa de la información más directamente proporcionada por los
invarian- tes. En este caso, la constancia es más precisa y no se produce un efecto de sobreconstancia.
Aún es pronto para poder valorar una propuesta como la de Norman. Sin embargo hemos visto que hay razones para
tomarla en consideración e inves- tigar su alcance. Como ya dijimos anteriormente no sería la primera vez que teorías
aparentemente opuestas cuando son propuestas como teorías genera- les de un determinado campo de investigación
perceptual, resultan compati- bles cuando se acierta a delimitar el campo de aplicación de cada teoría. En lo referente a la
percepción visual del espacio, la propuesta de Norman aparece como una corriente de aire fresco que puede ayudar a
integrar posiciones vividas durante décadas como irreconciliables.
T.5 PERCEPCIÓN DEL MOVIMIENTO
Tb podemos percibir movimiento en dets condiciones aunq no haya desplazamiento físico de los objetos ni del observador.
La percepción del movimiento es particularmente importante para el desenvolvimiento y supervivencia de los organismos
en el entorno. Coren, Ward y Enns señalan otras funciones importantes de la percepción del movimiento reldas con:
1) la posibilidad de seguir la trayectoria de los objetos mediante movimientos oculares apropiados.
2) la formación de objetos mediante la separación de la figura y el fondo, por ejemplo, agrupando las partes que se mueven
en una misma dirección y segregando el objeto del fondo inmóvil mediante el principio de destino común que ya se verá.
3) la extracción de la forma del objeto y su estructura tridimensional a partir del patrón de movimiento de la imagen.
obteniendo diversas perspectivas del objeto proporcionadas por el mov del objeto o el mov del observador.
4) la identificación del objeto a partir del movimiento como, por ej, la identificación de un ave a partir del mov de sus alas.
Quizás por esta importante razón de adaptación, el sistema visual es extraordinariamente sensible a la percepción del
movimiento; y la invest sobre percepción del mov ha sido una de las áreas que más desarrollo ha alcanzado en el campo de
la percepción visual en los últimos años y en la q se ha producido una mayor integración desde las diversas perspectivas.
1. MOVIMIENTO REAL
movimiento real: cuando se percibe mov como consecuencia del desplazamiento de un objeto o un punto en el espacio.
Existen muchos desplazamientos de los objetos q no podemos percibir porque están por debajo de nuestro umbral de
detección del mov. Ej: el movimiento de la luna, son tan lentos que no los podemos percibir; sólo podemos inferir q dichos
objetos se han movido cuando después de transcurrido un tiempo observamos q han cambiado de posición en el espacio.
1.1. Umbrales de detección del movimiento
La invest clásica se centró en determinar los umbrales de detección del mov utilizando como Es puntos q se desplazaban
vertical u horizontalmente en el campo visual. Umbral de detección del movimiento: la magnitud mínima de distancia
(para el umbral de desplazamiento) o de velocidad (para el umbral de velocidad) que puede detectar un observador cuando
examina un objeto en mov continuo. Las invests en este campo se deben a Aubert, quien usó como Es en sus experimentos,
puntos o líneas luminosos q se desplazaban horizontalmente a una velocidad constante sobre un fondo q consistía en un
dispositivo que giraba. Los resultados mostraron q el umbral de detección del mov variaba, según se tratara de:
- un movimiento absoluto (desplazamiento de un punto luminoso sobre un fondo uniforme)
- o de un mov relativo (desplazamiento sobre un fondo que proporcionaba puntos de referencia estacionarios: ej, líneas
inmóviles perpendiculares o paralelas a la trayectoria del punto luminoo (fig 5.1)).
El umbral era aprox de 0.03º de ángulo visual por segundo (q equivale a unos 0.25 mm por segundo) cuando los
observadores dijaban su vista sobre el objeto q se movía (un punto luminoso situado a una distancia de 50cm) y se
proporcionaba además un marco de ref, un fondo con textura en el q se podían percibir líneas inmóviles. Bajo estas
condiciones, el mov mínimo que se puede detectar es de 0.25mm por segundo. Cuando se eliminaba el marco de referencia
y el punto se desplazaba sobre un fondo oscuro, el umbral aumentaba. El efecto del marco de referencia (fondo de líneas)
indicaría que el sistema visual es más sensible al mov relativo, que al movimiento absoluto. Este efecto del marco de ref
(fondo de líneas) indicaría q el sistema visual es más sensible al mov relativo q al absoluto. Este efecto no se produce
cuando la exposición de los estímulos es muy corta (menos de 4 seg) y se produce cuando los estímulos se exponen al
menos durante 12’’. Éstos serían los umbrales de movimiento para una sit en la q el observador fija su vista en el objeto
que se mueve. En ambos casos el mov se capta en la fóvea, donde la sensibilidad al mismo es máxima.
Tb se puede percibir el movimiento cuando el observador fija la vista en un punto
inmóvil y no en el objeto q se mueve. En este caso el mov se capta en zonas de la
retina distintas a la fóvea, en la parafóvea o la periferia visual, en las que la
sensibilidad al mov decrece. El umbral de detección del mov aumenta, y en
consecuencia la sensibilidad decrece, a medida q la imagen en mov se desplaza desde la fóvea hacia la periferia visual,
siendo el umbral de detección mayor en la periferia que en la fóvea. Por tanto la zona retiniana en la que se capta el mov es
otro fr importante en al determinación del umbral de detección. Cuando el mov se capta en la periferia visual se pueden
observar fenómenos paradójicos, q parecen ir en contra de lo esperado. Uno de estos: la “paradoja de Aubert-Fleisch”:
consiste en la impresión de que un objeto se mueve más lentamente cuando se fija la vista en él y se capta en la fóvea, que
cuando se fija la vista en un objeto inmóvil y el objeto en mov se percibe en la periferia visual. Si la sensibilidad al mov es
máxima en la fóvea y decrece a medida q el mov se capta en la parafóvea y la periferia, sería de esperar el resultado
contrario, es decir la percepción de q un objeto se mueve más rápido cuando se fija la vista en él. Lo q se produce en este
caso es una infravaloración de la velocidad.
Demostraciones de efectos paradójicos
Resalte de la percepción del movimiento en la periferia visual
Los efectos paradójicos se producen pq aunq la sensibilidad al mov es mayor en la fóvea. sin embargo el mov captado en la periferia
visual «resalta» más q el que se capta en la fóvea. Para comprobar esta afirmación observe los dedos de la mano justo por delante del
libro; a continuación, estire el brazo hacia la derecha e intente mirar de lado los dedos. Observará que casi no puede percibirlos
mientras permanecen quietos. Sin embargo, si los mueve no tendrá ninguna dificultad en percibir el movimiento.
Paradoja de Aubert-Fieischl
Una demostración aproximada sobre este fenómeno sería la siguiente. Sitúese frente a una pared, y extienda un brazo. A continuación,
cierre los ojos y mueva varias veces el brazo hacia la derecha y la izquierda a una velocidad moderada. Tras unos minutos. abra los ojos
y mire a la pared. Intente determinar la velocidad a la que se mueve la mano y la trayectoria que sigue el brazo {la distancia que
recorre). A continuación, coja un bolígrafo y realice los mismos movimientos que antes pero fíjese exclusivamente en el bolígrafo e
intente seguirlo con la vista (visión en la fóvea). Advertirá que el movimiento de la mano parece que se mueve de forma más lenta
ahora y que la trayectoria es más corta que cuando se miraba a la pared (visión periférica).
2. ILUSIONES DE MOVIMIENTO distintos tipos de mov percibido en ausencia de desplazamiento físico del objeto.
Posefectos de movimiento: se producen tras la observación prolongada de un mov continuo y constante, en los q la
dirección del mov percibido inicialmente cambia y se percibe en sentido contrario, y su velocidad decae gradual. Ejs:
-Ilusión de la cascada: si se observa una cascada fijando la vista en un punto que sobresalgan del agua, durante un 1’ o más
y dp se dirige la mirada hacia el paisaje q la rodea o cualquier objeto inmóvil, se percibe un mov en dirección hacia arriba,
es decir, en dirección contraria a la dirección del mov del agua de la cascada al caer.
- Posefecto de la espiral o ilusión de la espiral de Plateau: si se fija la vista durante un 1’ o más, en una espiral dando
vueltas (ej sobre una peonza) y dp se fija en un objeto inmóvil, el mov percibido inicialmente se percibirá en sentido
contrario. Esta experiencia se puede realizar dibujando una espiral sobre una cartulina y colocándola sobre un tocadiscos.
Dp de observarla 1’ o más se fija la vista sobre un objeto inmóvil y se puede percibir el mov en dirección contraria.
-Movimiento paradójico: se llama así pq se percibe el posefecto de mov, pero no se percibe un cambio en la posición
percibida de los objetos que se mueven. Se puede producir observando la lista de créditos de una película mientras se fija la
vista en un objeto sin mov del fondo de la pantalla del tv. Si después de esta observación, se cambia la mirada a un objeto
inmóvil se percibe el mov hacia abajo; es decir, en dirección contraria al mov de la lista de créditos.
La explicación más aceptada sobre los posefectos de mov es q están causados por la adaptación de los detectores de mov
sintonizados a la dirección del mov que se está observando. Si se está observando un mov en dirección hacia abajo como el
del agua en una cascada, durante un tiempo det, los detectores específicos de esa dirección (hacia abajo) se llegan a adaptar
como consecuencia de la exposición a una estimulación continua y continuada y la sensibilidad decrece. Por eso, cuando
dp se fija la vista en otro objeto, se pueden activar los detectores específicos de otras direcciones de mov, dando la
impresión de q se produce un mov en dirección contraria.
La evidencia procede de estudios q indican que las células del área V1 que responden a una dirección específica del mov tb
se adaptan mejor a esa dirección que a otras; o q los posefectos no se producen cuando se provoca rivalidad binocular
presentando a cada ojo movs en direcciones distintas. Según esto, las áreas del cortex implicadas en la percepción del mov
serían las responsables de los posefectos de mov.
Movimiento auto-cinético: ilusión de mov q se produce en ausencia total de desplazamiento del objeto. Consiste en la
percepción del desplazamiento lento y continuo de un punto luminoso estacionario, cuando se observa en total oscuridad
durante un período de tiempo prolongado (más de 2’). El mov cambia de dirección aprox 10’’. La ilusión no se produce
cuando se observa bajo condiciones que permiten observar que el punto luminoso es inmóvil, por ej cuando se ilumina
parte de la sala donde se observa el punto. El efecto disminuye cuando se coloca algún objeto cercano al punto de luz,
posiblemente porque da un marco de ref que permite percibir que el punto luminoso permanece inmóvil.
En condiciones naturales se puede observar la ilusión si se fija la vista en una única estrella sobre un cielo homogéneo. El
mov auto-cinético se percibe con mayor claridad cuando el foco de la luz es de baja intensidad, se observa con un sólo ojo
o existe fatiga o somnolencia. Se observa si se sitúa en una habitación oscura y coloca una luz muy tenue, ej, una linterna,
a una distancia de unos 2m. Dp de un periodo temporal, observará q la luz se desplaza en una dirección det.
Movimiento inducido: ilusión de mov en un objeto inmóvil consecuencia d la presencia simultánea de otro objeto en mov,
q generalmente es de mayor tamaño y circunda al primero. Ejs: la percepción de desplazamiento en la luna a través de las
nubes cuando hay viento, cuando lo que realmente se mueve son las nubes, ya que el sistema visual humano no es capaz de
detectar el mov de la luna por ser demasiado lento. Otros ejs serían la sensación de q nuestro tren se mueve cuando en
realidad se está moviendo el tren de al lado, o la impresión de que un edificio alto se tambalea cuando se observa desde
abajo en un día de viento en el que las nubes se desplazan con rapidez.
Para que se perciba mov inducido es necesaria la presencia de al menos dos objetos en el campo visual y uno de ellos tiene
que estar en mov. El desplazamiento del objeto en mov en relación con el objeto q permanece estacionario es el origen del
movimiento inducido. La ilusión se percibe más fácilmente cuando los objetos se presentan sobre un fondo homogéneo.
El movimiento inducido fue descubierto por Duncker. Presentó como E un punto luminoso rodeado por un rectángulo tb
luminoso sobre un fondo homogéneo, una habitación oscura. Observó q si el rectángulo se desplazaba en una dirección det,
por ej hacia la izquierda, se percibía el punto desplazándose en la dirección contraria (hacia la derecha) y viceversa.
Es posible inducir movimiento utilizando diversos proceds:
a) El ej más simple de mov inducido se produce cuando se presentan en el campo visual sólo
dos puntos, uno en reposo y el otro en mov. En esta sit se puede percibir desplazamiento en un
único punto o en los dos. Según Duncker, se percibe mov en los dos puntos únicamente cuando
el mov real del punto que se desplaza está por encima del umbral (no es demasiado lento); en el
caso contrario, es decir cuando el mov real no se detecta, sólo se percibe el mov inducido.
b) Cuando se presentan simultáneamente dos objetos en el campo visual, uno de mayor tamaño y rodea al otro, con
independencia de cual de los dos objetos se desplace y siempre q el mov real esté cercano o por debajo del umbral de
detección, se percibirá únicamente el movimiento del objeto situado en el centro hacia el exterior. Si el movimiento está
por encima del umbral y el objeto en movimiento es el circundante, se percibirá el movimiento de los dos objetos. El
objeto circundante y de mayor tamaño actúa como marco de referencia para el otro objeto. Explicaciones:
Duncker, podría deberse a consecuencia del desplazamiento relativo de los objetos en el campo visual. Si uno de los
objetos rodea al otro, tiene mayor tamaño, etc., actuaría como el fondo sobre el cuál se percibe el mov. Si este objeto se
mueve, inducirá q el objeto estacionario se perciba en mov debido a q se produce un cambio relativo en las posiciones de
los dos objetos.
Wallach: podría deberse a q el sistema visual es más sensible al mov relativo entre dos objetos q al mov de un único objeto.
Rock: cuando el mov relativo entre dos objetos está por encima del umbral, (cuando se puede detectar la mayoría de las
veces), y el mov absoluto de cada objeto está por debajo del umbral (cuando el mov de cada uno de los objetos es
demasiado lento para que detectarlo), el sistema visual asume que el objeto más grande y que rodea al más pequeño es un
objeto inmóvil, y asigna el mov al objeto más pequeño y que está rodeado por el otro. Esta afirmación se apoya en que el
mov inducido desaparece o no se produce bajo las siguientes condiciones:
a) cuando el mov del objeto circundante está por encima del umbral, en este caso se percibe el mov de ambos objetos y
b) cuando se introduce alguna condición q permite observar el mov del objeto circundante (se ilumina la habitación), en
este caso no se observa mov inducido en el objeto más pequeño, sino sólo el desplazamiento del objeto circundante.
Movimiento aparente: En 1912, Wertheimer publicó un artículo sobre el movimiento aparente o estroboscópico que los
historiadores consideran como el inicio de la P de la Gestalt. En su experimento, que tuvo como sujetos experimentales a
Kohler y Koffka, Wertheimer presentaba como estímulos dos líneas paralelas verticales separadas por una distancia de un
centímetro. Se observaron distintos fenómenos que dependían fundamen- talmente del intervalo temporal entre la
presentación de las líneas (Fig 5.3). Cuando el intervalo era largo (200 milisegundos o más) se percibía una sucesión de
líneas sin ningún tipo de movimiento (primero una y después la otra).
Si el intervalo temporal era muy corto (menos de 30 milisegundos), las
dos líneas se percibían simultáneamente. En ninguno de los dos casos
se percibía movimiento. Cuando el intervalo temporal de presentaoon
entre las dos líneas era intermedio, entre 30 y 60 milisegundos, se
observaba un movimiento parcial, la primera línea parecía trasladarse
hasta aprox la mitad de la distancia que la separaba de la otra línea, y
la segunda línea parecía recorrer el resto de la trayectoria. Finalmente,
alrededor de los 60 milisegundos, se percibía movimiento, como si
realmente cada línea se desplazara hacia la posición que ocupaba la
otra. A este fenómeno de percep- ción del movimiento en ausencia de
un desplazamiento físico del objeto, se le denominó movimiento
aparente o movimiento óptimo. También se descubrió en estos
experimentos el movimiento <<FÍ>> o <movimiento puro>>, que
aparecía en el intervalo temporal entre 60 y 200 milisegundos y que
tenía como consecuencia la percepción de movimiento sin que se viera
el objeto que se movía, de aquí el nombre de movimiento puro.
- condiciones que determinan la percepción del movimiento aparente
El descubrimiento del movimiento aparente no sólo tuvo importancia en el de- sarrollo de la Teoría de la Gestalt, sino que
tuvo una enorme repercusión en la Psicología Experimental y numerosos investigadores se dedicaron a analizar el
fenómeno. Ej: Korte analizó detalladamente las condiciones que permiten la aparición del movimiento aparente, variando
la intensidad de los estímulos (1), la distancia entre estímulos (DEE) y el intervalo temporal entre los mismos (lEE). Sus
resultados pusieron de manifiesto las siguientes relaciones entre estas tres condiciones que producen movimiento aparente
y se conocen como las “leyes de Korte”, aunque algunos autores no las consideran como verdaderas leyes.
- Si se mantiene constante el intervalo temporal entre estímulos (lEE), la distancia óptima
para obtener mov aparente varía directamente con la intensidad de los estímulos, una mayor
distancia requeriría una intensidad mayor y viceversa.
- S i se mantiene constante la distancia entre estímulos (DEE), el valor óptimo del intervalo
temporal entre estímulos (lEE) para que se produzca mov aparente varía inversamente con
la intensidad de los Es, un mayor lEE requeriría una intensidad menor y viceversa.
- Si se mantiene constante la intensidad de los estímulos (1), el valor óptimo de la distancia
entre estímulos (DEE) varía directamente con el intervalo entre estímulos (lEE), una mayor
distancia requeriría un lEE mayor y viCeversa.
Pero ¿qué ocurre cuando se presentan más de dos estímulos y se aplica la alternancia de
encendido que daba lugar a la percepción de mov aparente? Figura 5.4. A ejemplifica una
disposición estimular más compleja en la que simultáneamente se presentan varias luces que
se encenderían en dos tiempos diferentes T1 y T2 con una tasa de alternancia adecuada para
que se observara mov aparente. Cuando se presenta esta sit se percibe el mov indicado en B,
es decir un movimiento en línea recta de izquierda a derecha. Sin embargo, ésta no es la
única trayectoria posible. En C, se presentan las posibles trayectorias de movimiento, que
además podrían aumentar a medida que aumenta el número de estímulos. ¿Por qué se
percibe la trayectoria descrita en B y no las representadas en C o cualquier combinación de éstas?. Esta situación
representa el problema de la correspondencia, en movimiento aparente, y parece que se debe a la adopción por parte del
sistema visual de determinadas reglas fijas como la proximidad espacial y temporal entre estímulos. Es decir, se percibe
mov entre los Es q presentan distancias más cortas o entre trayectorias q requieren menos tiempo.
Aunque la experimentación sobre movimiento aparente se ha realizado utilizando Es muy simples. Ej: los anuncios
luminosos que presentan figuras en mov, las imágenes del cine, tv o pantalla del ordenador son fenómenos de movimiento
aparente. En todas estas situaciones percibimos movimiento, pero lo que en realidad se está presentando como estímulo es
una escena inmóvil que es sustituida por otra después de un período de tiempo det. La tasa de cambio de la escena es de
aprox 24 veces por segundo en el cine, treinta veces por segundo en la tv y sesenta en la pantalla del ordenador.
- tipos de movimiento aparente
Braddick diferencia dos tipos de movimiento aparente:
1) Movimiento de corto alcance: se percibe cuando se observan películas en el cine, vídeos o en la pantalla del ordenador.
Se caracteriza por desplazamientos cortos (menos de .25° de ángulo visual) y tasas de alternancia rápidas (de 20 a 80
milisegundos). Se percibe monocularmente (con un sólo ojo) y con anterioridad a la integración de la inf procedente de los
dos ojos y al análisis de la forma y el color. En el laboratorio, este tipo de mov se estudia mediante la técnica
cinematograma de puntos aleatorios: consiste en colocar puntos al azar en cada una de las escenas q componen una
determinada secuencia, y analizar - a través de la manipulación de distintas variables (ej: el desplazamiento vertical u
horizontal de los puntos en escenas sucesivas)- qué intervalos espacio-temporales dan lugar a la percepción del mov.
2) Movimiento de largo alcance. Es el mov que se percibe en los experimentos descritos en la Teoría de la Gestalt y en los
anuncios luminosos. Se puede observar cuando las distancias son largas (más de 20° de ángulo visual) y el período
temporal de alternancia entre estímulos mayor de 200 milisegundos. Se da en etapas de procesamiento más tardías, es
binocular y requiere la integración de la inf de los dos ojos, la formación de unidades perceptivas por medio de la
organización perceptiva así como un análisis de la forma y el color.
La propuesta teórica de Braddick ha sido puesta en cuestión posterior- mente mediante sugerencias que indican que el
análisis del movimiento podría ser más complejo. En primer lugar, algunos autores señalan que, dado que los estímulos
utilizados en los experimentos sobre movimiento de corto y largo alcance son tan diferentes, es posible que lo que reflejen
las diferen- cias entre los dos tipos de movimiento sean respuestas diferentes de un único proceso a la estimulación
diferente, en lugar de la actuación de dos procesos distintos. Por otra parte, los resultados de estudios psicofísicos
posteriores in- dican que el sistema visual podría realizar tres tipos diferentes de análisis del mov. Los dos primeros, que
realizarían un procesamiento de abajo-arriba se corresponderían con el movimiento de corto alcance. En los dos sistemas,
el sistema de primer orden, cuya informa- ción básica es la luminancia y el sistema de segundo orden, cuya información
básica es la textura, se detectaría el movimiento a través de circuitos simples de detección del movimiento. Los sistemas de
análisis del movimiento de primer y segundo orden se caracterizan además por ser monoculares, sensi- bles y rápidos. El
tercer tipo de sistema de análisis del movimiento, que se correspondería con el movimiento de largo alcance propuesto por
Braddick, se caracteriza por ser binocular, poco sensible y lento, pero es más versátil que los sistemas de primer y segundo
orden y puede analizar cualquier tipo de estimulación. De acuerdo con Lu y Sperling, este sistema utilizaría tanto procesos
de abajo-arriba como de arriba-abajo en los que intervendría la aten- ción, que puede determinar el que se perciba o no
movimiento así como la dirección del mismo.
3. MECANISMOS FISIOLÓGICOS
3.1 Detectores del movimiento
Todavía no se conocen con exactitud los mecanismos fisiológicos que subya- cen a la percepción del movimiento; sin
embargo, dado el notable desarrollo que han alcanzado estos estudios examinaremos algunas de las aportaciones realizadas
hasta el momento. Una de las primeras preguntas, en relación con los mecanismos neuronales que subyacen a la percepción
del movimiento, es si existen neuronas especializadas en la detección de la dirección del mov. A partir de los años 60,
utilizando la técnica de registros unicelulares, se identificaron neuronas sensibles al movimiento en una determinada
dirección en los sistemas nerviosos de distintos organismos: ranas, palomas, conejos, ardillas, gatos y monos. Además, la
ubicación de las neuronas sensibles al mov es diferente según la escala filogenética. En organismos más inferiores en la
escala (ej: los conejos), aparecen en las células ganglionares de la retina, indicando que el procesamiento del movimiento
sería fundamentalmente periférico, mientras que en organismos más evolucionados como los gatos, únicamente un 1% de
las células ganglionares son sensibles al mov y no se han encontrado neuronas ganglionares sensibles al movimiento en los
monos, lo que indicaría q en los organismos superiores en la escala filogenética, el mov se procesa a un nivel más central.
La evidencia sobre la existencia de detectores de la dirección específica del mov en humanos procede de estudios
psicofísicos sobre posefectos de mov. El posefecto de mov de la cascada sugiere q, como consecuencia de una exposición
continuada a una estimulación, dets neuronas llegan a fatigarse y la fatiga puede sesgar el sistema hacia el mov contrario.
El posefecto de la cascada se estudió experimentalmente mediante una técnica denominada “adaptación selectiva”.
Mediante esta técnica se expone a los sujetos durante un período de tiempo prolongado a un E en mov; por ej, un patrón de
líneas que se desplaza en una det dirección. La exposición prolongada al E produce una disminución en la sensibilidad a la
dirección del movimiento observado bajo estas condiciones. Pero el declive en la sensibilidad no se generaliza a otras
direcciones o velocidades distintas de las observadas bajo condiciones de exposición prolongada. Los datos obtenidos con
la aplicación de esta técnica apoyan la existencia de neuronas sensibles al movimiento y sintonizadas a una dirección y/o
velocidad específica.
Los estudios realizados para determinar la ubicación de los detectores de la dirección del movimiento en humanos indican
que éstos no son periféricos y que se encuentran en el córtex visual. Mitchell et al presentaron un estímulo adaptador (mov
en una det dirección) a los observadores en un sólo ojo y obtuvieron posefecto de movimiento a una dirección específica.
El supuesto básico del que partían era que si los detectores de la dirección del mov estaban ubicados en la retina no debería
producirse transferencia del posefecto de movimiento al ojo que no había sido estimulado; es decir, el posefecto de
movimiento debía aparecer exclusivamente en el ojo en el que se había producido fatiga mediante la presentación
prolongada del estímulo adaptador. Sin embargo, los resultados mostraron que se producía el posefecto en los dos ojos.
Este resultado indicaría una transferencia del posefecto de mov de un ojo al otro, que únicamente se explicaría si los
detectores estuvieran situados en el córtex visual, en donde se combina la inf sensorial de los dos ojos. A su vez, esta
interpretación se ve reforzada por el hecho de q para q se produzca transferencia de los posefectos de mov binocular entre
los ojos es necesaria una buena visión binocular, ya q la transferencia no se produce en observadores con visión binocular
deficiente posiblemente debido a la falta de detectores de este tipo; y también por la necesidad de que exista fusión
binocular para q se produzcan posefectos de mov ya q cuando cada ojo observa mov en direcciones distintas no se produce
el posefecto de mov.
3.2 Análisis cortical del movimiento
Otros investigadores han examinado si se produce un análisis cortical del movimiento. En relación con este problema se
conoce que la mayoría de las células del área V1 son sensibles al mov de barras y bordes. Esto se ha determinado
examinando si son sensibles a una dirección específica. Si es así, su tasa de disparo será mayor ante esa dirección
específica q ante otras direcciones. Además, el grado de especificidad de las neuronas suele ser grande y algunas de ellas
responden de forma selectiva no sólo a una det dirección del mov sino tb a una det velocidad.
Sin embargo, en el área V1 parece que únicamente se responde a un desplazamiento de la imagen en la retina; el
procesamiento de aspectos más complejos del movimiento se realiza en zonas más especializadas, fundamen- talmente las
áreas MT y MST del lóbulo temporal que sepueden observar en la Figura 4.20. La evidencia sobre el papel desempeñado
por estas dos áreas en la percepción del movimiento procede de dos campos: los estudios sobre el efecto de lesiones
experimentales producidas en los primates y algunos estudios clínicos en humanos. En los estudios realizados con primates
se produce una lesión experi- mental inyectando sustancias que destruyen determinados centros nerviosos y se analiza el
efecto en la ejecución en tareas de detección del movimiento y otras funciones perceptivas (forma, color contraste, etc.).
Los resultados de estos estudios muestran que la ejecución en una tarea de detección de la dirección del movimiento se
deteriora sensiblemente cuando se produce una lesión en una pequeña parte del área MT como consecuencia de la
inyección de una toxina. Sin embargo, si el estímulo se presentaba en una parte distinta a la lesionada, la ejecución era
normal. Por otra parte, la lesión no afectaba a la ejecución en tareas distintas a la detección del movimiento como podía ser
la percepción del color. La importancia de estas áreas en la percepción del movimiento se ha puesto de manifiesto también
en estudios clínicos procedentes de la Neuropsicología, que indican cómo las lesiones en esta parte del cerebro dejan
intactas la percepción de la forma o el color pero dificultan o impiden totalmente la percepción del mov. En lugar de
percibir movimiento, estos pacientes perciben instantáneas en las que los objetos cambian bruscamente de posición,
perciben que el objeto cambia de posición pero no el desplazamiento de una posición a otra distinta.
4. MODELOS DE DETECCIÓN DEL MOVIMIENTO
Aunque se conoce que algunas células del cortex visual responden de manera selectiva a la dirección del movimiento, el
mecanismo por el que se responde de esa forma es desconocido. Para analizar este problema se han desarrollado modelos
de detección del movimiento; a continuación y a modo de ejemplo examinaremos dos de ellos.
Algunos modelos proponen básicamente un tipo de detectores que comparan la percepción de un estímulo (por ej un borde)
visto en una posición det (A) y en un tiempo (t1), con ese mismo E en una posición distinta (B) y en otro tiempo (t2). La
única diferencia entre estos modelos radica en la forma en que se establece la comparación.
Reichardt desarrolló el primer modelo sobre la disposición y fun- cionamiento de las neuronas sensibles a la dirección y
velocidad del mov en insectos. Un esquema del modelo se presenta en la Figura 5.5.
El modelo propone la intervención de varias unidades neuronales: a) las neuronas
representadas por A y B son receptores visuales contiguos, que se comportarían como
células corticales simples, células que responden a líneas o bordes que presentan una
determinada orientación y posición; b) las neu- ronas representadas en C realizan la función
de comparar las señales que provienen de A y de B.
El supuesto básico del modelo es el siguiente: cuando un estímulo (por ejemplo, una luz o
un borde) se desplaza a lo largo de una serie de receptores contiguos, por ejemplo de
izquierda a derecha, éste se detectará en el primer receptor visual (en este caso A) de la
misma forma que en el segundo (B) pero con una demora temporal (dt) que está
determinada por la distancia entre los receptores A y B, y por la velocidad de
desplazamiento del objeto. En la uni- dad C, se comparan las señales neuronales que
provienen de A y de B. Si las dos señales llegan al mismo tiempo, la unidad de
comparación e responderá, señalando movimiento del estímulo. Cada sistema (A y B) está
sintonizado a una dirección específica del movimiento. El sistema representado en la Figu-
ra 5.5, señalará la presencia de movimiento hacia la derecha (de A hacia B) porque el movimiento en dirección contraria
(de B hacia A) producirá señales que no llegan al mismo tiempo, es decir, señales que no están sincronizadas. Además de
la sintonización a una determinada dirección, las unidades neuro- nales A y B están sintonizadas a una determinada
velocidad que puede influir en la sincronización. Es decir, la velocidad puede determinar que las señalesprocedentes de A y
B lleguen o no al mismo tiempo. Dado que la coincidencia temporal entre ambas señales depende de la cantidad de demora
temporal de la señal de la célula A, cuando el estímulo presenta mayor velocidad, se nece- sitarán demoras temporales más
cortas para sincronizar las señales.
Adelson y Movshon propusieron un modelo en dos etapas para
explicar el mov en patrones complejos formados por enrejados, como
los que se han visto en el apartado dedicado al análisis de la frecuencia
espacial en el cap 3, que se desplazan en direcciones distintas (Fig
5.6). Según esta propuesta teórica, las unidades de la primera etapa
computarían la dirección del movimiento de cada enrejado
componente, es decir computarían movimiento local. Las unidades que
actúan en la segunda etapa combinarían la información de los
enrejados componentes para extraer la dirección del patrón compuesto;
es decir, computarían movimiento global. La evidencia a favor de este
modelo procede de un estudio realizado por De- rrington y Suero
(1991). Por otra parte, los estudios realizados por Movshon et al.
(1986) muestran que, cuando se presenta este tipo de estímulos, deter-
minadas células del área V1 responden a la dirección de los
componentes, al movimiento local, pero no responden a la dirección
del patrón compuesto, al movimiento global; mientras que las células del área MT responden a ambos tipos de movimiento
global y local. Los resultados parecen indicar que el pro- cesamiento en la primera etapa se desarrollaría en el área V1
mientras que, en la segunda etapa, el procesamiento se llevaría a cabo en el área MT.
5. PERCEPCIÓN DE ACONTECIMIENTOS
Los estudios sobre percepción de acontecimientos o sucesos analizan los cam- bios percibidos en la estructura del estímulo
a través del tiempo Qohansson, 1978). Los estímulos en este contexto son mucho más complejos que los ana- lizados hasta
ahora y consisten en secuencias de movimiento.
5.1. Percepción de la causalidad
La investigación pionera en este campo fue realizada por Michotte (1946) en sus trabajos sobre percepción de la causalidad
y se centró en el examen de las condiciones que determinan que un acontecimiento se perciba como causa de otro
acontecimiento. Un ejemplo ilustrativo es el que se puede observar en el movimiento de las bolas de billar; cuando una
bola golpea a otra y la segunda se mueve, se percibe que el movimiento de la primera bola es la causa del desplazamiento
de la segunda. Lo mismo ocurre con la percepción de aconte- cimientos, si un objeto en movimiento colisiona con un
objeto inmóvil y éste comienza a moverse en la misma dirección del primero, se percibirá que el movimiento del primer
objeto es causa del movimiento del segundo.
El planteamiento básico de Michotte parte de la consideración de que se puede percibir directamente la conexión causal
entre determinados tipos de acontecimientos sin necesidad de recurrir a la intervención de experiencias previas. Para que
esto se produzca es necesario que se cumplan las siguientes condiciones: 1) la presencia de dos objetos, A y B; 2) que el
movimiento de uno de los objetos se perciba en primer lugar; 3) que el impacto del objeto A sobre el objeto B se perciba en
la fóvea, para lo cual es conveniente que el observador fije su vista en el objeto B; 4) que no existan discontinuidades
pronunciadas entre tiempo, espacio y dirección del movimiento. En gene- ral, las condiciones límite para percibir la
causalidad serían las siguientes: a) cuando el tiempo transcurrido entre el impacto de A sobre B y el comienzo del
movimiento deBes menor que 100 milisegundos; b) cuando A no alcanza completamente a B sino que quedan separados
por una distancia mínima y e) cuando la dirección del movimiento deBes algo diferente de la del movi- miento de A. Sin
embargo cuando estas discontinuidades se acentúan no se percibe la causalidad.
Michotte, utilizando como estímulos unos cuadraditos que se observaban a través de una ranura en una pantalla, identificó
una serie de condiciones que permiten la percepción de distintos tipos de causalidad dependiendo de la dirección del
movimiento, su velocidad y el tiempo transcurrido desde la colisión de los dos objetos y el comienzo del movimiento del
segundo. Los tres tipos de efecto identificados por Michotte se pueden observar en la Figura 5.7.
En 1, se muestra el efecto de lanzamiento: A y B se presentan inmóviles,
movimiento de A hacia B, colisión de A y B, parada de A y mov de B. Para
q se perciba este efecto se requieren estas condiciones: la dirección del
movimiento de B debe ser aprox igual a la de A y la velocidad de
desplazamiento de B, debe ser menor o aprox igual a la de A.
En 2 se presenta el efecto de arrastre cuya secuencia es: desplazamiento de
A hacia B, colisión de A y B y desplazamiento de A y B unidos. Las
condiciones necesarias para que se pueda percibir el efecto de arrastre son
que se perciba previamente el movimiento de A y la percepción del
movimiento conjunto de A y B.
En 3, se presenta el efecto de disparo, que se produce cuando la velocidad
de desplazamiento de B, dp de la colisión, es superior a la q presenta A, y la
“impresión”, en términos de Michotte, es que el objeto B sale disparado como resultado de su colisión con A.
A pesar de la afirmación de Michotte de que la percepción de eventos era directa y posiblemente innata, los resultados de
estudios posteriores, en los que se utilizaron los mismos estímulos y condiciones experimentales, revelaron la existencia de
diferencias individuales en la percepción de los efectos de lanzamiento, arrastre y disparo, lo que sugiere que la percepción
de la causalidad podría estar influida por experiencias anteriores de los observadores (Boyle).
5.2. Movimiento biológico
La línea de invest sobre percepción del mov biológico, o mov de los organismos, desarrollada x Johansson quien diseñó un
proced para estudiar el mov del cuerpo humano: consistió en vestir a unos actores completamente de negro y colocar unos
discos luminosos en sus articulaciones (hombros, codos, muñecas, caderas, ingles, rodillas y tobillos); véase la Fig 5.8. El
actor o actores, permanecían inmóviles y realizaban una serie de movimientos, como correr, andar, hacer flexiones, bailar,
etc. en una habitación completamente oscura. Estos movs fueron filmados en una película que se presentó posteriormente a
unos observadores para examinar si eran capaces de distinguir los distintos movimientos realizados por los actores, a partir
de la observación de los focos luminosos situados en las articulaciones. Los resultados mostraron q los observadores
podían distinguir perfectamente los movs (andar, flexionar, bailar, etc.) Sin embargo, no podían distinguir la forma (el
cuerpo humano) cuando el actor permanecía inmóvil en distintas posturas; en este caso percibían un conjunto de luces
colocadas más o menos al azar sobre un fondo oscuro.
En la misma línea, Runeson y Fryckholm analizaron la estimación de levantamiento de pesos a partir de los movimientos
que realizaban los actores. El proced consistió en la observación de una secuencia de conductas en la que unos actores
simulaban un levantamiento de pesos o lanzaban sacos de arena, utilizando la técnica ideada por Johansson. La tarea de los
observadores consistió en estimar el peso a partir de los movimientos que realizaban los actores. Los resultados obtenidos
con este proced, proporcionaron un índice fiable de la estimación del peso.
La evidencia sobre la percepción del movimiento biológico procede de estudios posteriores utilizando
técnicas similares que han permitido la identificación del sexo del actor en función de la forma de caminar,
la forma de caminar propia o la de personas conocidas. Las investigaciones en las que se ha empleado esta
técnica muestran que los bebes de cuatro meses son capaces de percibir el movimiento biológico. Por
último, estudios recientes han identificado neuronas selectivas al movimiento biológico en monos y un
aumento en la actividad del surco temporal en humanos ante la observación de estímulos similares a los
descritos en las investigaciones sobre percepción del movimiento biológico.
5.3. Movimiento propio y flujo óptico
El estudio del movimiento propio se ha desarrollado en el marco de la teoría de la percepción directa, propuesta por Gibson
que constituye un acercamiento teórico muy diferente, por lo que examinaremos algunos aspectos generales de la teoría de
la percepción directa que son relevantes para el análisis de la percepción del movimiento propio.
Desde el punto de vista de Gibson, lo importante en percepción es descubrir las estructuras de inf presentes en el medio
ambiente (la conformación óptica en el caso de la modalidad visual). En su opinión, y a diferencia de la mayor parte de las
teorías perceptivas, el análisis de los mecs de proces no es importante ya que si se conoce bien la inf real q pueden usar los
observadores, los modelos de procesamiento de la inf son innecesarios. Uno de los supuestos básicos de la teoría de la
percepción directa es que el factor determinante en la percepción es la interacción directa del observador y el objeto físico
observado. Por ello, cualquier tipo de discusión sobre atributos del estímulo próximo, transformación de la estimulación o
codificación sensorial, carece de sentido. En base a lo anterior, el modelo propuesto por Gibson, en relación con la
percepción visual, constituye un intento para determinar la forma en que la luz reflejada en los objetos físicos transmite
información acerca del medio ambiente.
El estímulo para Gibson es la conformación óptica, conjunto de rayos de luz que incide sobre el observador en un punto de
observación det. Admás, considera que en la generación del percepto, el factor casi exclusivamente determinante es el
estímulo. Por ello, en la teoría de la percepción directa, el observador atiende a la conformación óptica pero no le otorga un
significado. El significado viene determinado por el estímulo, por la escena ambiental. La conformación óptica, contiene
además información invariante sobre los cam- bios de intensidad que proporcionan información acerca del ambiente del
que procede la luz, delimitando contornos o bordes, que permitirán la percepción. Los invariantes consisten en
características relativamente permanentes de la si- tuación a pesar de los movimientos del observador.
Por otra parte, los movs del sujeto cambian el punto de vista desde el q se observan los objetos y, en consecuencia, tb se
produce un cambio en la conformación óptica. El cambio en el patrón estimular, producido como consecuencia del
desplazamiento de los observadores o del movimiento de la cabeza o los ojos, denominado flujo óptico, que se ha visto en
el capítulo 4, es el que proporciona información acerca de la naturaleza del movimiento. El flujo óptico proporciona dos
tipos de inf: sobre la distancia o perspectiva del movimiento y sobre el movimiento propio. Esta inf permite el control
visual de la locomoción, la postura y la dirección, la evitación de obstáculos, etcétera.
La percepción del movimiento propio depende del análisis del cambio continuo en la imagen retiniana a medida que nos
desplazamos en el espacio o movemos la cabeza o los ojos. Figura 5.9: ej de la sit más simple de flujo óptico, en la que el
observador fija la vista en un punto (punto de fijación) en el que está situado un objeto det y se desplaza para aproximarse
al objeto o retrocede. En el primer caso, cuando se camina hacia adelante y se fija la vista en un objeto situado al frente, el
patrón estimular característico es el q se representa en la Fig 5.9.A, en el q la flechas representan un patrón de flujo óptico
de expansión a medida que el observador se acerca al objeto. En B: ej de patrón de flujo óptico de contracción; este cambio
en el patrón estimular se produciría cuando el movimiento es de retroceso. Patrones de flujo óptico mucho más complejos
se generarían cuando el observador mueve los ojos o la cabeza al mismo tiempo que se desplaza.
Según Gibson, en la sit de la Fig 5.9, la dirección del mov vendría indicada por el denominado foco de expansión óptica q
se sitúa en el centro del patrón de flujo. Por otra parte, el foco de expansión también puede aportar inf acerca de la
distancia a la que se encuentra el objeto. Debido a la expansión, cuando nos dirigimos hacia un lugar det a una velocidad
constante, el tamaño de la imagen retiniana del objeto aumenta rápidamente a medida que nos acercamos; esto permite
determinar el “tiempo de impacto” con el objeto y evitar colisiones. El estudio de este efecto tiene importantes aplicaciones
en distintos campos, tales como la conducción de automóviles, seguridad vial, deportes, etc.
Las invests q permitieron el descubrimiento del patrón de flujo óptico se realizaron durante la 2GM cuando Gibson
diseñaba pruebas para pilotos. Observó que cuando una película filmada desde la cabina de un avión mientras aterrizaba, se
proyectaba después en una pantalla plana, se producía una deformación sistemática de la imagen de la superficie del suelo.
Sin embargo, cuando presentó la película a observadores ajenos a la investigación, éstos indicaron q no observaban
ninguna deformación sino q percibían su propio movimiento en una dirección det.
Estudios posteriores intentaron demostrar el uso del flujo óptico por parte de los observadores en rel con diversos aspectos
del mov propio. Ej: Warren, Morris y Kalish presentaron a los observadores una serie de películas en las q mediante puntos
q se desplazaban en el espacio, se simulaban los distintos patrones de flujo óptico que se generarían al caminar en distintas
direcciones. La tarea del observador consistía en proporcionar un juicio de dirección, indicando si se dirigía hacia la
derecha o hacia la izquierda de un objetivo situado en distintos lugares de la línea del horizonte. Los resultados mostraron
q los observadores fueron muy precisos en sus respuestas, incluso cuando los patrones de flujo estaban formados por muy
pocos puntos, lo que indicaría q el sistema visual puede determinar la dirección a partir del flujo óptico.
También se ha examinado si los mecanismos de expansión óptica informan de la aproximación a un objeto o posición dets.
Algunas invests realizadas con pilotos muestran que los más eficaces al realizar una tarea de simulación de aterrizajes, es
decir, los que necesitaban realizar menos maniobras y menos correcciones para aterrizar, eran aquellos que presentaban
mayor sensibilidad a los cambios de tamaño.
Por otra parte, los resultados de diversos trabajos han aportado otras características importantes como son: la percepción de
trayectorias curvas a partir del flujo óptico; que la percepción de la dirección a partir del flujo óptico es independiente de la
posición retiniana (con la excepción de una ligera ventaja en la fóvea) y que la información efectiva no es el foco de
expansión per se sino el patrón de flujo global que lo define (Warren, 1998).
Finalmente, los resultados de investigaciones sobre mecanismos fisiológicos indican que las células del área MST
responden ante sits estimulares características del flujo óptico como desplazamientos en el área frontal, rotaciones, y
patrones de expansión y contracción.
RESUMEN: La percepción del movimiento es extraordinariamente importante para una interacción adecuada del
organismo con los objetos de su entorno. Se puede percibir movimiento bajo distintas circunstancias. Cuando la percepción
del movimiento es causada por el desplazamiento del objeto se denomina movi- miento real. Las investigaciones clásicas
sobre movimiento real se han centra- do fundamentalmente en la determinación de los umbrales de movimiento. Por otra
parte, bajo el término <<ilusiones de movimiento>> se hace referencia a la percepción del movimiento bajo distintas
condiciones en las que no exis- te desplazamiento del objeto. Los posefectos de movimiento, el movimiento auto-cinético,
el movimiento inducido y el movimiento aparente, constitu- yen ejemplos de ilusiones de movimiento. La percepción de
acontecimientos, hace referencia a la percepción de movimientos complejos y encadenados, como la que se experimenta en
la percepción de la causalidad, el movimiento biológico y el movimiento propio. Finalmente, los estudios realizados sobre
mecanismos neuronales implicados en la percepción del movimiento indican por una parte, la existencia de detectores
especializados en la dirección del movimiento y, por otra parte, a nivel cortical, la intervención de las áreas MT y MST del
lóbulo temporal en la percepción del movimiento.
T.6 PERCEPCIÓN DE LA FORMA I. ORGANIZACIÓN PERCEPTIVA
Habitualmente no percibimos un mundo formado por bordes, rayas, puntos, etc., a no ser que hayamos sido entrenados, o a
menos que en alguna sit experimental se nos proporcionen instrucciones para hacer esto. Lo q percibimos es un mundo
formado por objetos estructurados, es decir, escenas mucho más complejas que las características o rasgos simples.
La percepción de objetos constituye un nivel superior a la simple detección de características en el proceso perceptivo.
La percepción de objetos del mundo real nos parece obvia y no nos plantea problemas a no ser q padezcamos deficiencias
visuales o neurológicas, pero es un proceso complejo y de difícil explicación. La estimulación que incide en los millones
de fotorreceptores de la retina es energía electromagnética, luz reflejada desde los objetos reales del medio ambiente. Esta
energía forma una imagen en la retina, imagen retiniana, q consiste en una distribución bidimensional (un mosaico) de luz
de diferentes intensidades y longitudes de onda. La inf contenida en la imagen retiniana es ambigua y no está organizada,
es decir, no contiene objetos tal y como los percibimos. ¿Cómo es posible, que podamos tener en los objetos percibidos un
reflejo tan exacto de los objetos del mundo real a partir de la inf contenida en la imagen retiniana? Este es el problema
básico en la percepción de la forma y su objetivo de estudio es comprender los procesos por medio de los cuales el sistema
visual genera la experiencia perceptiva de un objeto a partir de la inf contenida en la imagen retiniana.
Pero los procesos que subyacen a la experiencia perceptiva no se pueden identificar con los fenómenos de la percepción de
la forma. Los fenómenos de los que se ocupa la percepción de la forma, son el resultado del proceso perceptivo, incluyen
tanto la experiencia perceptiva del observador como los datos obtenidos mediante la utilización de tareas experimentales en
el agrupamiento, segregación de la textura, discriminación de formas, etc. En los capítulos dedicados a percepción de la
forma se examinarán algunos ejs de fenómenos que constituyen el resultado de los procesos perceptivos y, a partir de los
cuales, se puede inferir la actuación de una serie de mecs y procesos q el sistema visual utiliza para extraer, interpretar y
dar significado a la información sobre los objetos del entorno. Uno de estos mecanismos, la organización perceptiva,
facilita la extracción de regularidades presentes en los objetos naturales, permitiendo así la segregación y agrupamiento de
la estimulación necesarias para la percepción del objeto. Otros procesos nos facilitan el desenvolvimiento en el entorno.
Entre estos, los procesos de detección, nos permiten descubrir la presencia de uno o varios objetos en el entorno (ej: si
caminamos en la oscuridad es importante que podamos descubrir la presencia de obstáculos en nuestro camino). Un
proceso más complejo que el anterior es el de discriminación que nos permite diferenciar un objeto de otro y, de este
modo, seleccionar la información relevante en un momento determinado o para realizar una acción específica. Ej: si
estamos conduciendo es necesario discriminar las señales que indican un peligro de aquellas otras señales que indican solo
una información, esto puede realizarse simplemente discriminando la forma o el color de las señales. Finalmente, los
procesos más complejos, identificación y reconocimiento, permiten determinar con exactitud el objeto en cuestión; ej:
para abrir la puerta es imprescindible no sólo distinguir unas llaves de otras sino tb identificar y reconocer la llave
apropiada, e implican la intervención de procesos plógicos como la representación en la memoria de una imagen det.
Los procesos de detección, discriminación y rec están jerarquizados en cuanto a su func y al grado de inf estimular que
requieren. En relación con el func, los procesos más complejos requieren la intervención de los más simples. No podemos
discriminar un objeto de otro si previamente no lo hemos detectado, tampoco reconocer un objeto si previamente no lo
hemos detectado y lo hemos diferenciado de otros objetos presentes en el entorno. En cuanto a la jerarquía en el grado de
inf q requieren los procesos, los más complejos requieren inf estimular más precisa que los procesos más simples.
1. ORGANIZACIÓN PERCEPTIVA La definición de org perceptiva difiere de unos a otros x su posición teórica.
Teoría de la Gestalt: el conjunto de fs o condiciones q permiten la constitución del objeto percibido.
Lo común a todas las posturas teóricas es la preocupación por dar respuesta a dos preguntas básicas que se han planteado
los científicos desde los inicios de la Psicología Experimental en relación con la percepción de la forma:
1) para poder percibir un objeto es necesario distinguirlo del contexto así como de otros objetos presentes ¿cómo se
segregan las unidades estimulares unas de otras para dar lugar a la percepción de objetos distintos y diferenciados?
2) si la inf en la imagen retiniana es ambigua ¿cómo se agrupan los elementos estimulares discretos e inconexos para dar
lugar a unidades perceptivas más amplias como objetos o superficies?
1.1 Principios de organización perceptiva
En rel con estas 2?, la Gestalt desarrolló una serie de principios q describen cómo se llevan a cabo dos mecs básicos de la
org perceptiva: la segregación de objetos, o percepción de la figura y el fondo, y el agrupamiento de elementos
estimulares discretos e inconexos en unidades perceptivas más amplias o agrupamiento perceptivo.
- Principios de segregación de la figura y el fondo: La segregación de objetos consiste en la percepción de una figura que
se destaca sobre un fondo y se considera como el tipo de org perceptiva más elemental. Descubierta x Rubín a partir de sus
trabajos con figuras reversibles como la presentada en la parte superior de la Fig 6.1, en la q se puede percibir una copa o
dos caras_ En esta fig se pueden diferenciar dos regiones, una blanca q corresponde a la fig de la copa, y otra negra, a de
las caras. Las dos regiones están delimitadas por un contorno (límite entre la parte
blanca y la negra). Véase que cualquiera de las dos partes representa en esta fig puede
actuar de figura o de fondo dependiendo de que el sistema visual asigne el contorno a
una de las dos regiones. Si se asigna el contorno a la parte blanca se percibirá la copa
como figura. Por el contrario, si se asigna a la parte negra se percibirán las caras. Sin
embargo, es imposible percibir las dos partes como figura o como fondo a la vez. Si
se percibe la copa como figura no se pueden percibir las caras al mismo tiempo, sino que éstas se perciben como fondo.
Por el contrario, si se perciben las caras como figura, la copa pasa apercibirse inevitablemente como fondo. En la parte
inferior de la figura si se percibe un candelabro se puede percibir a la vez una cara de frente, pero resulta difícil percibir las
dos caras de perfil. A su vez, si se perciben las dos caras de perfil resulta muy difícil percibir el candelabro.
Otros ejs de este principio lo encontramos en algunas obras de arte como las conocidas obras de Escher en las que se
alterna la percepción de figuras (véase Figura 6.2).
Las invests de Rubín consistieron en observaciones y descripciones fenomenológicas sobre las
impresiones de los observadores cuando se les presentaban Es como los descritos antes llamados
figuras reversibles. A partir de aquí desarrolló una serie de descripciones sobre las características
diferenciales de la figura y el fondo según los cuales, la figura y el fondo se diferencian en:
a) la figura tiene carácter de objeto, el fondo no.
b) la figura tiene forma, el fondo no. La forma de la figura procede del contorno que la delimita,
ej en las figuras reversibles presentadas en la parte superior de la Fig1 la asignación del contorno
a la parte blanca o negra determina q esa parte se perciba cm figura.
c) la figura tiene color de superficie mientras que el fondo es menos denso;
d) la figura está localizada frente al fondo.
e) resulta más fácil discriminar figuras entre sí que fondos.
f) la figura se conecta más fácilmente a significados que el fondo.
Rubín y dp otros, establecieron a partir de sus invests, las condiciones estimulares q permiten
predecir qué partes del campo visual se percibirán como figura o como fondo. Estas condiciones
estimulares fueron llamadas x los de la Gestalt “principios de organización de la figura y el fondo” (Cuad 6.1). Ejs Fig 6.3.
CUADRO 6.1. Principios de organización gura-fondo
Áreas envolventes y envueltas. Las áreas envueltas tenderán a percibirse como gura y las
envolventes como fondo.
Simetría. Las áreas que presentan simetría en su eje vertical tenderán a percibirse como
guros con mayor facilidad que las que no la presentan.
Áreas convexas y cóncavas. Las áreas convexas tenderán a percibirse como guros con
mayor probabilidad que las cóncavas.
Orientación. Las áreas orientadas vertical-horizontalmente se perciben como ggros con
mayor facilidad que las oblicuas.
Tamaño relativo. Las áreas de menor tamaño tenderán a percibirse como gu- ra con
prioridad a aquellas que presenten un tamaño mayor.
Contraste. Las áreas que presenten mayor contraste con el contorno global se percibirán
más fácilmente como guros que aquellas que presenten menos contraste.
- Principios de agrupamiento perceptivo: desarrollados por Wertheimer, quien advirtió que, a igualdad de otras
circunstancias, los elementos estimulares discretos e inconexos cuando se presentan simultáneamente tienden a percibirse
como patrones o unidades perceptivas más amplios o distintos, en función de determinadas propiedades. Es decir, se trata
de la reunión de dets elementos estimulares que comparten alguna propiedad común en unidades perceptivas distintas.
Ej: en la parte superior de la Fig 6.4, la organización percibida es ambigua porque en este caso puede percibirse desde un
cuadrado formado por puntos hasta distintas organizaciones alternativas: filas, columnas o diagonales de puntos, aunq la
percepción de estas orgs alternativas requiera un esfuerzo y no sea tan evidente como la primera. Sin embargo los
elementos estimulares discretos se pueden agrupar en función de una serie de principios (Cuadro 6.2). En la fig 6.4 se
presentan algunos ejs de estos principios.
Palmer, ha sugerido una clasificación de los principios de agrupamiento perceptivo:
- principios de agrupamiento intrínseco, se encuadran la mayoría de los principios clásicos de la Gestalt, y según los cuales,
los elementos estimulares discretos se agrupan en unidades perceptivas más amplias o distintas en función de su
proximidad, semejanza en color, forma, tamaño, etc.
- principios de agrupamiento extrínseco, en los q los els estimulares discretos se agrupan y forman unidades perceptivas
distintas en función de la actuación de elementos externos añadidos al E inicial. Ej: el hecho de encerrar los els estimulares
discretos en una figura geométrica, puede determinar q se agrupen (principio de región común), o, el hecho de q se
conecten los distintos elementos, puede producir que se perciban como una unidad (principio de conexión o cohesión de
elementos). Estos 2 principios de agrupamiento extrínseco han sido propuestos por Palmer y Rock (Fig 6.4). Finalmente,
los principios de agrupamiento tb pueden diferenciarse según la cohesión del percepto resultante de su actuación. Ej: en
algunos principios de agrupamiento intrínseco como semejanza y proximidad y en el principio extrínseco de región común,
se forman agregados perceptivos en los q los els se perciben con una relativa independencia, mientras q en el principio
intrínseco de buena continuación y en el extrínseco de conexión se percibe un objeto más cohesionado (Palmer, 1999)
CUADRO 6.2. Principios de agrupamiento perceptivo
Proximidad. Los elementos más próximos tienden a agruparse entre sí forman- do unidades perceptivas distintas.
Semejanza. Los els más semejantes tenderán a agruparse entre sí. La semejanza puede ser de forma, color, tamaño, orientación etc. y la
conjunción de varias dims llevará a un agrupamiento más o menos potente. Cierre. Las formas cerradas tienden a percibirse con
preferencia a las formas abiertas.
Buena continuación. Se tiende a percibir cambios suaves en la estimulación con preferencia a cambios pronunciados.
Destino común. Los elementos q presentan una misma pauta de mov se percibirán como formando una misma unidad perceptiva.
Los principios de org perceptiva propuestos por la Gestalt han sido considerados por algunos autores como regularidades q
usa el sistema visual para organizar la inf ambigua. Estas regularidades, además, constituyen propiedades de los objetos.
Cuando observamos una mesa la distinguimos como figura en un entorno det (figura-fondo), la percibimos cm un objeto
compacto formado x distintos elementos (tablero, patas, travesaños, etc.); a su vez percibimos las uniones de estos
elementos (proximidad), las partes q son similares y diferentes (tablero frente a patas); y seguimos percibiendo la mesa
como un único objeto aun en el caso de q uno de los travesaños esté despegado (cierre).
- Limitaciones de la Teoría de la Gestalt: La principal aportación de la Gestalt a la percepción fue la observación de dets
fenómenos perceptivos y la descripción de las condiciones bajo las cuales se percibe una det org. Limitaciones teóricas:
1) los principios de org perceptiva de los gestaltistas han sido considerados vagos e imprecisos. Consecuencias:
- q los principios no se apliquen siempre de la misma forma ante los mismos fenómenos. Ej: en las figuras reversibles o
ambiguas, el esfuerzo del observador en dirigir la atención hacia una parte det del estímulo puede hacer que se inviertan las
relaciones entre la figura y el fondo percibiéndose lo que en un principio aparecía como figura como fondo y viceversa.
- q se puedan aplicar principios de org perceptiva que presentan una contraposición teórica a un mismo patrón estimular.
Ej: frecuentemente los principios de simetría y convexidad, que intervienen en la segregación de la figura y el fondo,
entran en conflicto, prevaleciendo generalmente el principio de convexidad sobre el de simetría, lo cual iría en contra del
principio teórico de la Gestalt según el cual se percibirá la organización más simple posible.
2) los principios son meramente descriptivos y no se ha desarrollado una teoría general que proporcione una explicación
sobre los mismos. La falta de explicación de los principios se ha atribuido, a la escasa experimentación y a la metodología
q consistió fund en demostraciones fenomenológicas. Este proced consistía en presentar a los observadores un patrón como
el de la parte superior de la Fig 6.4, que no produce un agrupamiento det, y patrones semejantes a los q se presentan en la
misma figura (A, B, C y D) y en los que se puede percibir una org det, en virtud del
agrupamiento de los elementos en base a dets propiedades (color, tamaño, forma y
proximidad) y los observadores tenían q informar de la org percibida en cada uno de
ellos. Este proced presenta el inconveniente de q al estar basado en la impresión subjetiva
no permite determinar objetivamente q una R sea o no correcta, ni obtener datos
numéricos q permitan contrastar las teorías.
Pero en rel con las críticas a la metodología, señalar por una parte, q algunos autores
consideran las demostraciones de la Gestalt como auténticos experimentos. Según Rock,
la manipulación en los Es puede considerarse como una VI, mientras q la VD consistiría
en el percepto q se obtiene como consecuencia de esta manipulación. Por otra parte, se
han desarrollado métodos de cuantitativos en el estudio del agrupamiento, q permiten
paliar algunas de las dificultades señaladas.
Pero algunos de los problemas planteados por la Gestalt siguen siendo problemas funds
en el ámbito de la percepción. El estudio de las rels entre el todo y las partes, los efectos
de superioridad del objeto y de superioridad configuracional, el proces de aspectos
globales y locales de los patrones visuales jerárquicos, la segregación perceptiva en base a la textura y las rels entre mecs
de selección atencional y org perceptiva, constituyen algunos ejs del interés actual de los investigadores en los problemas
planteados en el seno de la Gestalt reflejado en el notable volumen de invest desarrollado desde los 80, hasta ahora.
2. DESARROLLOS POSTERIORES EN EL ESTUDIO DE LA ORGANIZACIÓN PERCEPTIVA
La mayoría de invests posteriores han intentado dar explicaciones teóricas bsadas en la ejecución en tareas experimentales.
2.1. Investigaciones sobre la segregación de la figura y el fondo
han dedicado menos at a las diferencias fenomenológicas entre estas dos regiones del campo visual y se han centrado en el
análisis de los mecs q las diferencian y en encontrar una explicación a este fenómeno basada en el procesamiento de la inf.
- Componentes de frecuencia espacial y segregación de la figura y el fondo
Julesz sugirió sistemas o mecs diferentes de proces para la percepción de la figura y el fondo. Partiendo de las
descripciones fenomenológicas de la Gestalt q afirman q la figura está más articulada y tiene carácter de objeto, mientras q
el fondo no presenta estas caracs, y de la predicción de q la región del campo visual q presente más detalles se percibirá
como figura, Julesz propuso que el proces de la figura se caracterizaría x un análisis de los detalles de la imagen, mientras
que el procesamiento del fondo por un análisis de estructuras más globales. Ahora sabemos a través de los resultados de
estudios psicofísicos, q la zona espectral q contiene frecuencias espaciales altas contiene inf sobre los detalles de la imagen
(características de grano fino), mientras q la zona espectral q contiene frecuencias espaciales bajas lleva inf sobre aspectos
globales de la imagen (características de grano grueso).
Algunos investigadores han tratado de analizar si existe una asociación entre los cs de frecuencia espacial de las imágenes
y la percepción de la figura y el fondo. Wong y Weisstein diseñaron una sit experimental en la q presentaban líneas nítidas
(características de grano fino de la imagen) o borrosas (características de grano grueso de la imagen) en las dos regiones de
una figura reversible, en la figura de la copa y las caras de Rubin. La tarea consistía en detectar líneas
nítidas o borrosas cuando se presentaban en el contexto de la figura o en el del fondo. En la parte superior
de la Fig 6.5 se presenta la región del campo visual (A, B o C), en la q se presentaba la línea a detectar.
Cuando se presentaba en A, la copa era la figura, cuando se presentaba en B y C, las caras eran la figura.
Los resultados mostraron q las líneas nítidas, que presentarían cs de alta frecuencia espacial, se detectaban
mejor en el contexto de una figura que en el de un fondo. Por el contrario, cuando la línea era borrosa, es
decir presentaba cs de baja frecuencia espacial, se detectaba mejor en el contexto de un fondo.
Klymenko y Weisstein analizaron la influencia de los cs de frecuencia espacial en la percepción de la figura
y el fondo. Utilizaron también figuras reversibles pero además rellenaron las regiones correspondientes a la
figura y el fondo con enrejados sinusoidales de distinta frecuencia espacial (parte inferior de la Fig 6.5).
Registraron el nº de veces q cada región se percibía como figura y como fondo en función de q se hubiera
rellenado el espacio con enrejados de altas o bajas frecuencias espaciales. Los resultados indicaron q la región rellena con
enrejados de alta frecuencia espacial (las caras en el ej presentado aquí) se percibían como figura un mayor nº de veces.
Los resultados anteriores apoyan la hipótesis de una diferencia funcional entre la percepción de la figura y el fondo según
la cual cada proceso sería responsable de un tipo de proces visual y sensible a diferentes tipos de inf. El análisis de la fig se
caracterizaría por una inspección detallada de las áreas más pequeñas del campo visual y la inf relevante en este caso serían
los detalles y los contornos. El análisis del fondo sería responsable de la extracción de la inf global del campo visual.
- Asignación unilateral de bordes
En relación con la explicación de la segregación de la figura y el fondo basada en el procesamiento de la inf, una serie de
autores han considerado qué tipo de procesos, preatencionales o atencionales, intervienen en el análisis de la figura.
Driver y Baylis, intentaron determinar el papel de la asignación de bordes a la región de la figura o a la del fondo. Como
hemos visto, cuando se observa la figura de la copa y las caras se percibe un único objeto, o la copa o las caras, pero no las
dos figuras a la vez. Los teóricos de la Gestalt lo atribuían a q el sistema perceptivo impone un orden en la estimulación.
Pero Driver y Baylis proponen q los bordes que dividen regiones adyacentes del campo visual se asignan unilateralmente,
es decir, se asignan a un único lado. Este supuesto fue puesto a prueba en una serie de experimentos en los que se
presentaban estímulos similares a los de la Fig 6.6. En estos Es, un borde (línea quebrada entre la zona clara y oscura)
divide el rectángulo en 2 partes, 1 más pequeña y oscura y 1 más grande y clara. El
borde se puede asignar a cualquiera de las dos regiones del E, la figura o el fondo,
y una vez asignado a una de las partes se denomina contorno que delimita la figura,
si se asigna a ésta, o contorno que delimita el fondo, si se asigna al fondo.
Por otra parte, y de acuerdo con los principios de org de la figura y el fondo
postulados por la Teoría de la Gestalt, el tamaño relativo y el contraste
determinarían q la parte más pequeña y con más contraste del E tienda a percibirse
como figura y la parte más grande y con menor contraste como fondo. Por tanto,
en los Es (A) y (B), de la fig 6.6, la parte más pequeña se percibirá como figura y
la más grande y clara como fondo.
En los experimentos se presentaba 1º un estímulo similar a los (A) y (B), llamado
E previo, y una vez desaparecía el E previo se presentaba inmediatamente uno de
los Es de comparación (C, D, E, ó F). La tarea era comparar si los bordes del E previo y de comparación, eran iguales o
diferentes. Ej: en la Fig 6.6, si el E previo era (A), el E de comparación (C) presentaría un borde igual al asignado a la fig y
el estímulo (E) presentaría un borde diferente; mientras q los bordes presentados en (D) y (F) corresponderían al fondo (D,
presentaría un borde igual al del fondo y F un borde diferente). Lo contrario ocurriría si se presentara (B) como E previo,
puesto q, la parte pequeña situada a la derecha tendería a percibirse como figura, por lo que los Es (D) y (F) serían los Es
de comparación para la figura (D, sería el igual y F el diferente) y los Es (C) y (E) para el fondo (C, igual y E, diferente).
Se dieron instrucciones a los observadores para q atendieran sólo al borde como si se presentara una única línea quebrada
prescindiendo del resto del E, tanto en el E previo como en el de comparación. Pero de acuerdo con la hipótesis de
asignación unilateral de los bordes, se predijo que la atención selectiva a la línea quebrada resultaría imposible dado que
siempre se percibiría una figura delimitada por un contorno. Y se predijo que los observadores rendirían mejor en la tarea
de comparación cuando los Es de comparación correspondieran a las figuras que cuando correspondieran a fondos. La
predicción se basa en que, según esta hipótesis, el borde se asigna a un único lado y, de acuerdo con la manipulación
realizada sobre el E previo, la parte más pequeña se percibiría como figura desde el principio, por lo que sería más fácil
reconocer el contorno que la delimita en la tarea de comparación. Es decir, se produciría una ventaja en el rec del contorno
que delimita la figura desde el momento en q ésta se presenta como E previo. Esta predicción sólo podría mantenerse en el
caso de q los observadores no atendieran exclusivamente a la línea quebrada que divide el E en dos partes y la asignaran a
una de ellas. Si atendieran únicamente a la línea quebrada, la ejecución en la tarea de comparación de contornos, sería igual
en los dos casos, puesto q la ventaja de asignar el borde a la figura cuando se presenta el ensayo previo desaparecería, y los
juicios de comparación de contornos serían iguales.
Resultados: sugieren q los observadores asignaron el borde a un único lado dl campo visual, el correspondiente a la figura.
Esta operación tuvo consecuencias en la ejecución, los sujetos rendían mejor (empleaban menos tiempo y cometían menos
errores) cuando juzgaban si el contorno de la figura era igual al de comparación, que cuando juzgaban si el contorno
correspondiente al fondo y el de comparación eran iguales. Resultados obtenidos con Es en los q se definía la figura en
base a otros principios de org, como simetría y convexidad, confirmaron la hipótesis de asignación unilateral de bordes.
Conclusión: la asignación d los bordes q dividen la figura y el fondo es unilateral y espontánea y no depende d la atención.
- Influencia de los procesos de reconocimiento en la segregación de la figura y el fondo
La mayoría de las teorías de la percepción visual han defendido que la segregación de la figura y el fondo constituyen un
paso previo al proceso de rec del objeto. Parece obvio, q para poder reconocer un objeto, es necesario antes segregar ese
objeto del fondo o de otros objetos presentes en el campo visual y, una vez hecho, compararlo con una representación en la
memoria. Esta afirmación ha sido puesta en cuestión por Lowe y fund a través de las invests de Peterson y cols.
Peterson, Harvey y Weidenbacher presentaron estímulos reversibles, en los que se podía invertir la figura y el fondo. Se
trataba de un rectángulo que contenía una parte central negra rodeada por unas partes laterales en blanco, parecido al
estímulo de la copa y las caras de Rubín. La tarea consistía en observar los estímulos durante un det tiempo e informar
cada vez que se produjera una inversión, es decir siempre que la región del campo visual que se estaba percibiendo como
figura cambiara a fondo o vs. En una serie de ensayos se daban instrucciones para q intentaran ver la parte central como
figura; en otra serie de ensayos se les instruía para que intentaran ver las partes laterales como figura. Los resultados
mostraron que los observadores percibían la parte central como figura un mayor nº de veces. En otra serie de ensayos
manipularon los Es de manera que las dos partes del mismo estuvieran igualadas en los fs que determinan la formación de
la figura como área, tamaño relativo, etc., pero las zonas correspondientes a la figura (parte oscura del estímulo) y al fondo
(partes laterales blancas del estímulo) en algunas ocasiones se parecían a un objeto familiar y en otras no se presentaba esta
propiedad (ver Fig 6.7). Los resultados indicaron que las zonas del estímulo que se parecían a objetos familiares se
percibían con mayor frecuencia como figura. Sin embargo, al presentar los mismos Es en una
posición invertida, en la que ya no podían ser reconocidos como objetos familiares, el efecto
desaparecía. Los autores lo interpretaron como evidencia a favor de que el procesamiento de
objetos familiares puede comenzar con anterioridad a que se haya completado la segregación de
la figura e influir en ésta.
A raíz de estos resultados propusieron un modelo para los procesos de reconocimiento prefigural,
según el cual los procesos de rec q contribuyen a la segregación de la figura y el fondo actuarían
sobre los bordes (cambios abruptos en intensidad, representados por las líneas que separan las
partes blanca y negra de los estímulos presentados en la Fig 6.7) que dividen el campo visual y no
sobre los contornos ya asignados a la figura o el fondo. Una vez detectados los bordes, los
procesos de rec actuarían sobre las zonas situadas a ambos lados de los mismos influyendo en la
segregación de la figura y el fondo. El modelo no supone q el proceso completo de rec de la
figura se complete con anterioridad a la segregación de la figura y el fondo, sino que algunos procesos de rec actúan en
paralelo al proceso de segregación de las dos partes del campo visual. Esta propuesta es compatible con la teorías del rec
basadas en la detección de bordes que veremos en el cap de reconocimiento visual, la diferencia entre ambas radica en el
hecho de que estas últimas teorías consideran q la segregación de la figura y el fondo es un proceso previo al de rec de las
formas visuales mientras q la teoría de Peterson es interactiva.
2.2 Investigaciones sobre agrupamiento perceptivo
Las invests experimentales sobre agrupamiento perceptivo se iniciaron en los 50. Nos centraremos en algunos desarrollos
más recientes centrados en el procesamiento de la inf, examinando algunos estudios sobre agrupamiento perceptivo
desarrollados en el ámbito de la Psicología Cognitiva y algunas contribuciones desde la teoría computacional de la visión.
- Agregados perceptivos y configuraciones
El agrupamiento perceptivo de elementos estimulares discretos e inconexos permite la formación de 2 tipos de unidades:
1) Agregados perceptivos, son unidades perceptivas formadas en base al agrupamiento de elementos discretos e
inconexos que presentan una propiedad común (elementos semejantes, próximos, etc.).
2) Configuraciones, son unidades perceptivas distintas a los elementos de que están formadas y en la que se percibe la
relación entre las partes. De la percepción de estas relaciones surgen propiedades emergentes que son distintas a los
elementos componentes, y que no se pueden explicar en base a los mismos. Ej: la percepción de un rostro no es siempre la
misma, aunque todas las caras posean los mismos elementos: dos ojos una boca una nariz, etc.
En la parte superior de la Fig 6.8 se presentan los elementos estimulares discretos, dos
paréntesis abiertos a la derecha o a la izquierda.
En A: un ej de agregados perceptivos, en este caso los elementos estimulares discretos se
agrupan por proximidad.
En B: ejemplos de configuraciones. Como se ve, el agrupamiento de los els discretos da
lugar a unidades perceptivas distintas y diferenciadas. Además la percepción de rels entre
los els discretos da lugar al surgimiento de propiedades emergentes como la simetría en el
estímulo 4 )(, repetición en 1 ((y 2 )) y la simetría y el cierre en el estímulo 3 ( ).
Se han considerado como propiedades emergentes los siguientes tipos: relaciones entre los
elementos componentes de los estímulos que dan lugar a simetría, cierre, repetición,
reflexión, intersección, y conjunción de elementos; relaciones espaciales entre los
contornos, como la intersección de líneas y los extremos de las mismas; la orientación
tridimensional de las superficies; las claves pictóricas de profundidad; la dirección de la
iluminación de la escena; y la percepción de profundidad estereoscópica. Sin embargo, esta
enumeración no agota el nº de propiedades emergentes y es posible que en futuras invests
se descubran algunas otras no contempladas.
Tomando como punto de partida esta distinción examinaremos las invests de Pomerantz
sobre agrupamiento perceptivo. Uno de los supuestos básicos de los que parte Pomerantz es
la consideración del agrupamiento como una operación efectuada sobre los estímulos. En
consecuencia, sus efectos pueden reflejarse en la ejecución en tareas experimentales y esto
permite obtener una medida del agrupamiento a través de la ejecución en dichas tareas.
El primero de los trabajos que vamos a examinar está en relación con el problema de la
configuración de los estímulos. El supuesto general fue: cuando en un patrón estimular los
elementos componentes se organizan en una configuración, debería resultar muy difícil o
imposible el procesamiento independiente de los elementos del patrón estimular por
separado. En consecuencia, se predijo que la atención selectiva a los elementos componentes de la configuración sería muy
difícil o imposible cuando los elementos componentes forman una configuración. Los Es utilizados fueron los paréntesis
presentados en la Fig 6.8. Los Es se dibujaron en tarjetas y la tarea de los sujetos consistía en clasificarlas en dos grupos,
de acuerdo con las instrucciones que les daba el experimentador. De igual modo se les indicaba q atendieran
exclusivamente al elemento componente q permitía discriminar un E de otro y que ignoraran los demás. Las condiciones
experimentales se presentan en el cuadro 6.3 y Fig 6.9.
Resultados: los Es se clasificaron más rápidamente en la condición de control q en la de atención selectiva. Esto refleja q la
atención selectiva a los elementos componentes del estímulo x separado resultó imposible, ya q si se hubiera atendido
exclusivamente al elemento componente relevante para realizar la discriminación, los tiempos de clasificación hubieran
sido iguales en las condiciones de control y atención selectiva. Así, los resultados indican que los Es se agruparon
percibiéndose como un todo y no como elementos
componentes del E.
En un 2º estudio transformaron los Es rotando 90° el
elemento derecho. Las tareas fueron iguales a las del
estudio citado. Los resultados mostraron que el
tiempo empleado en las dos condiciones (control y
atención selectiva) era similar y, en consecuencia, los
elementos estimulares no se agruparon y se percibían
como elementos separados. Sin embargo, otros
autores (Rock, 1986), consideran una interpretación
alternativa a estos resultados. En opinión de este
autor, los estímulos presentados en este experimento
son agregados perceptivos. En este caso, como hemos
señalado, los paréntesis se agrupan por proximidad y
se perciben como una unidad, aunq no forman
configuraciones como en el estudio anterior. Por lo
tanto, lo q indican los resultados en este caso, es que
se puede atender selectivamente a los elementos
estimulares cuando se agrupan formando agregados
perceptivos pero esto no es posible cuando los els
estimulares se agrupan formando configuraciones,
como en el 1r experimento citado, q presentan
propiedades emergentes y determinan que el E se
perciba como un todo con una forma propia de la que
no se pueden aislar los elementos.

- Cuantificación del agrupamiento perceptivo


Estudios recientes han tratado de cuantificar el agrupamiento perceptivo. La importancia de los métodos cuantitativos para
determinar el agrupamiento perceptivo reside en la posibilidad de obtener una medición precisa de los efectos del
agrupamiento sobre todo en aquellos casos en que la aplicación del método fenomenológico no permite determinar con
claridad los efectos, o cuando existen contradicciones entre la descripción del estímulo basada exclusivamente en la
descripción fenomenológica y la ejecución en tareas ex- perimentales.
Kubovy y Wagemans (1995), determinaron cuantitativamente la potencia de distintos tipos de agrupamiento midiendo la
probabilidad de respuesta a estímulos que presentaban organizaciones ambiguas como los presentados en la Figura 6.10.A.
En este tipo de estímulos se pueden percibir distintas organi- zaciones como cuadrados, rectángulos rombos, líneas con
distinta orientación, etc. En el estímulo presentado en la Figura 6.10.A, los elementos
estimulares (puntos) se pueden agrupar y, como consecuencia se percibirían líneas que
presentan distinta orientación como se puede observar en la Figura 6.10A.B (las líneas
grises indicarían las posibles orientaciones). Los sujetos realizaron una tarea de elección
forzosa en la que observaban cada uno de los estímulos ambiguos durante un periodo de
exposición relativamente breve (300 milise- gundos), y a continuación elegían una de las
cuatro posibles respuestas repre- sentadas en la Figura 6.1OA.C. Este procedimiento
permitía calcular, tras un elevado número elevado de ensayos, la probabilidad de percibir
cada tipo de agrupamiento.
Beck y Palmer (2002), desarrollaron una tarea para medir el agrupamien- to en la que se
presenta una fila de elementos estimulares formada por ele- mentos distintos, por
ejemplo círculos y cuadrados, que se alternan con la ex- cepción de uno que se repite
para inducir agrupamiento (véase Figura 6.10.B). La tarea de los observadores consiste
en identificar el elemento adyacente que se repite presionando una llave de respuestas si
es un cuadrado o una llave distinta si es círculo. La potencia del agrupamiento se
examinó presentando tres condiciones: una condición de control, en la que los círculos y
cuadrados estaban situados a la misma distancia uno de otro, y, dos condiciones experi-
mentales en las que los elementos estimulares se agrupaban por proximidad bien dentro
de cada grupo, o entre grupos (véase Figura 6.10.B). Los resul- tados indicaron que el
elemento que se repite se identificaba más rápidamen- te en la condición intragrupo que
cuando los elementos a agrupar estaban situados en grupos distintos. Se obtuvieron
resultados semejantes utilizando principios de agrupamiento distintos como semejanza,
color, región común y conexión de elementos, lo que indica la validez de la tarea para
cuantificar el agrupamiento perceptivo.
- Teoría computacional de la visión y agrupamiento perceptivo
La actuación de los principios de organización perceptiva han sido considera- dos en el marco de la teoría computacional
de la visión. David Marr diseñó un programa de ordenador con la finalidad de examinar que es lo que sucede una vez que
se ha obtenido la descripción de características de nivel inferior. A través de una imagen de entrada y la descripción de sus
caracterís- ticas simples el programa aplicaba los principios de agrupamiento perceptivo para identificar las estructuras
perceptivas que se obtenían a partir de la reunión de dets elementos que compartían propiedades comunes.
En la Figura 6.11 puede observarse el procedimiento seguido. En A se presenta la imagen de
un oso de peluche que constituye la imagen de entrada, en B se presentan los niveles de gris
de la imagen de entrada, en C se muestra una versión abreviada de la descripción de
características simples, es decir, se presentan únicamente segmentos en una posición y
orientación determinadas (con fines didácticos se prescinde del tipo de características, línea,
borde, abertura, y de la inf sobre contraste y borrosidad). En esta imagen el sistema visual
detectaría muchas características situadas en posiciones distin- tas y con una determinada
orientación. Sin embargo persistiría la ambigüedad en el estímulo. El resultado de la
aplicación de los principios de agrupamiento por el programa se presenta en la parte inferior
de la figura. Como puede ob- servarse se identifican una serie de estructuras perceptivas
diferentes en base al agrupamiento de características que comparten alguna propiedad
común. En D, la estructura del contorno global del osito presenta un agrupamiento de
características simples basado en el principio de buena continuación. En E, la estructura
correspondiente a ojos y nariz presenta un agrupamiento de características en base a los
principios de semejanza y proximidad; finalmen- te, en F, la estructura correspondiente al
hocico muestra la actuación del principio de cierre y reúne las características simples que
forman una figura ovalada. Todas estas estructuras se obtuvieron sin un conocimiento previo por parte del programa acerca
de las estructuras que estaba buscando con la aplicación de los principios de agrupamiento perceptivo.
Sin embargo hay imágenes que no permiten la extracción de determinadas estructuras a menos que se le proporcione
información al programa acerca de lo que se está buscando. En la Figura 6.12, se presenta un ejemplo. La parte superior de
la figura muestra la imagen de entrada, y los niveles de gris de esa imagen. La parte intermedia presenta las estructuras
identificadas en base al agrupamiento. Como puede observarse, el programa no extrajo estructuras diferentes para las dos
hojas situadas en el recuadro en la imagen de niveles de gris, sino que aparecían como un único objeto. Posiblemente esto
se debió a que los niveles de gris en esa zona eran muy homogéneos (Frisby, 1978) y no permitían una diferenciación clara
de las líneas. Marr resolvió el problema «indicándole» al programa que los segmentos adyacentes de la imagen perte-
necían a dos objetos diferentes, o sea, proporcionándole información corres- pondiente a procesos de reconocimiento; de
esta forma, el programa extrajo las estructuras representadas en la parte inferior de la Figura 6.12.
En el ámbito teórico de la visión espacial inicial que se ha examinado en el capítulo 3, los fenómenos de organización
perceptiva se consideran como un resultado natural del funcionamiento del sistema visual humano. Desde esta perspectiva
se ha planteado la cuestión del papel desempeñado por los canales psicofísicos en la percepción visual de la forma. En esta
línea, Gins- burg (1986) mantiene que la percepción visual de la forma se basa en un procesamiento espacial y que los
principios de organización perceptiva son un resultado del filtrado espacial de las imágenes estimulares. Este proceso se
puede observar en la Figura 6.13. La aplicación de un filtro paso-bajo a las
imágenes, que elimina la información sobre altas frecuencias, presen- tadas en la
parte izquierda de la Figura 6.13, produce como resultado las imágenes de la
derecha, en las que se percibe una organización. En la Figura 6.13, la letra R
inicial inmersa en un fondo de ruido (puntos aleatorios) se percibe en la derecha
como una letra R con mayor nitidez frente a un fondo más tenue que en la
imagen de la izquierda (principio de segregación
figura-fondo). En B, los cuadrados se organizan en columnas (principio de
proximidad).
2.3 Segregación de la textura
En el apartado correspondiente a la segregación de la figura y el fondo he- mos visto como la asignación del contorno a
una de las regiones del patrón estimular determinaba la percepción de la figura o el fondo. En este caso, el contorno se
delimita en base a diferencias intensas de color o brillo y define una segregación en el patrón estimular: la región
correspondiente a la figura y la región correspondiente al fondo. La asignación de contornos en base a diferencias de brillo
o color no es la única forma de producir segmentaciones en el patrón estimular. También se puede lograr esta segregación
en base a las diferencias en las texturas de los estímulos.
Texturas son patrones visuales formados por conjuntos de pequeños ele- mentos
repetidos y distribuidos sobre un área ya sea aleatoriamente o en una posición
aproximadamente regular. En los patrones que se presentan en la Figura 6.14, se
perciben pequeñas figuras que difieren en color (blanco o negro), forma (cuadrado o
círculo), tamaño (grande o pequeño) o distintas combinaciones de estas dimensiones
Obsérvese que aparentemente los dife- rentes grupos de textura establecen un
contorno o límite entre las diferentes regiones del patrón estimular. Este contorno o
límite es puramente subjetivo, no responde a una realidad física presente en la
estimulación.
- procedimiento experimental
Los trabajos iniciales sobre segregación de texturas trataron de determinar si la segregación de regiones en los patrones
texturados se producía en base a la actuación del principio de agrupamiento por semejanza. La hipótesis ini- cial establecía
que una región del patrón estimular se segregaría más fácil y rápidamente cuando los elementos locales de que estaba
formada fueran muy similares (agrupándose entre sí) y, a la vez, se diferenciaran del resto de los elementos del patrón.
(Beck, 1966, Olson y Attneave, 1970).
Como ejemplo vamos a examinar uno de los trabajos clásicos sobre se- gregación de la textura realizados por Beck (1966).
Presentó patrones textu- rados como los de la Figura 6.15, en los que los elementos
diferían sólo en la forma (T vs. L), en la forma y la dirección (T vs. L inclinada),
únicamente en la orientación (T vs. T inclinada) y sólo en la posición horizontal-
vertical (T vs. T invertida). La tarea de los observadores consistía en indicar cuál
era la región que se segregaba del resto del patrón estimular. Los resultados
mostraron que el factor fundamental para la segregación de regiones en base a la
textura era la diferencia en orientación o inclinación más que la diferen- cia en
forma. Estos resultados son comprometedores para la explicación de una
segregación en base al agrupamiento por semejanza, dado que, al menos
conceptualmente, son más semejantes las formas cambiadas de orientación o
inclinación que dos formas diferentes (T vs. L).
Los resultados de estudios posteriores (Beck, 1982, Beck, Prazdny y Rosenberg,
1983)) indicaron que la segregación de regiones en base a la textura se produce más fácil y rápidamente cuando los els q la
forman difieren en orientación, tamaño o luminancia y menos rápidamente cuando difieren únicamente en forma.
- Teorías
Una aproximación algo diferente al estudio de la segregación de la textura es la de Bela Julesz quien trató de averiguar
cuales eran los atributos o propie- dades de los patrones texturados que permiten discriminar unas regiones de otras.
Propuso una teoría, conocida como Teoría de los textones, en la que su- gería que la segregación rápida y sin esfuerzo
(automática) de la textura estaba determinada por una serie de características locales fundamentales, denomi- nadas
textones, a los que el sistema visual sería especialmente sensible Oulesz, 1981). Aunque la propuesta inicial del número de
textones era más amplia, los resultados de distintas investigaciones han permitido acotar su número a los siguientes: a) los
extremos de las líneas, b) las intersecciones de líneas y e) manchitas alargadas con una longitud, color y orientación dets.
La segregación inmediata de la textura estaría determinada por dos
facto- res: la diferencia en la naturaleza de los textones (diferencia
de textones) y las diferencias en el número (densidad) de los
textones en los patrones texturados (véase Figura 6.16).
Posteriormente Julesz y Bergen (1983) desarrollaron un modelo en
el que distinguen dos sistemas:
a) un sistema preatencional, en el que la información se procesaría
en paralelo, rápidamente y sin el concurso de la atención y que se
correspondería con un procesamiento inicial y
b) un sis- tema atencional, que se correspondería con una etapa de procesamiento más tardío, en el que la información se
procesa en serie, más lentamente y requiere atención a determinadas características del patrón estimular. Los textones se-
rían los elementos básicos o primitivas perceptivas en el sistema preatencional que determina la segregación inmediata de
la textura. El sistema preatencional detectaría diferencias locales en el número y naturaleza de los textones y en base a esto
se produciría la segregación automática de la textura. Los patrones texturados que presenten propiedades diferentes a las
que definen los textones serían ignorados por el sistema preatencional y únicamente se detectarían por medio de un examen
detallado del patrón estimular y atención a determinadas características del mismo para poder percibir los límites de la
texturas.
Sin embargo la teoría y el modelo propuestos por Julesz y Bergen no están exentos de problemas. Los resultados de
investigaciones posteriores indican que todos los textones no son igualmente eficaces a la hora de determinar los límites
que permiten la segregación de la textura. Por lo general, las diferen- cias en color tienen preponderancia sobre las
diferencias en forma en la segre- gación de la textura (Enns, 1986). Por otra parte, aunque Julesz considera que las
interacciones entre textones contribuirían a la segregación de la textura, los resultados de Treisman y Gelade (1980)
revelan que la segregación de la textura es automática y sin esfuerzo cuando los elementos en las regiones de los patrones
texturados difieren en una única dimensión (por ejemplo color o forma) pero no cuando difieren en una combinación de
dimensiones (véase Figura 6.17). En este último caso se requiere un mayor escrutinio para que se puedan percibir los
límites de la textura.
La teoría de los textones proporciona una forma de identificar y describir la naturaleza de los elementos discriminables que
permitirían la segregación de la textura pero no explican en base a qué procesos o mecanismos se lleva a cabo la
segregación de la textura. Algunos modelos desarrollados posterior- mente establecen que los canales de frecuencia
espacial desempeñan un papelfundamental en la segregación de la textura (Caelli, 1985, 1993; Beck, 1987; Beck, Sutter &
Ivry, 1987). Los resultados de los trabajos de Beck (1987), Su· tter, Beck y Graham (1990) constituyen evidencia que
apoyaría este plantea· miento y sugieren que, en determinados patrones, la segregación de la textura estaría determinada
por la respuesta de los canales de frecuencia espacial a las diferentes regiones texturadas del patrón estimular.
RESUMEN
En los capítulos dedicados a percepción de la forma se estudian una serie de mecanismos y procesos utilizados por el
sistema visual para extraer, ínter· pretar y otorgar significado a la información sobre los objetos del entorno. Entre estos
mecanismos, en el presente capítulo nos hemos centrado en la organización perceptiva, que facilita la extracción de
regularidades presentes en los objetos naturales. Los psicólogos de la Gestalt desarrollaron una serie de principios en
relación con los mecanismos básicos de la organización per- ceptiva: los procesos de segregación de la figura y el fondo y
el agrupamiento de elementos estimulares discretos en unidades perceptivas más amplias. Los principios relacionados con
la segregación de la figura y el fondo especifican que tenderán a percibirse como figura las áreas envueltas, simétricas,
con- vexas, con orientación horizontal-vertical, las que presenten un menor tama- ño y un contraste mayor con el contorno
global. Por otra parte, los principios de agrupamiento perceptivo postulan que, manteniendo constantes el resto de los
factores, tenderán agruparse los elementos estimulares que estén más próximos; compartan propiedades (forma, color,
tamaño) y compartan direc- ción o movimiento. En la actualidad, los problemas señalados en el contexto de la Teoría de la
Gestalt siguen considerándose importantes en el ámbito de la percepción, aunque la metodología utilizada en el estudio de
la organiza- ción perceptiva ha sufrido importantes cambios.
Los desarrollos posteriores en el estudio de la segregación de la figura y el fondo, más que en la descripción
fenomenológica, se ha centrado en el análisis de los mecanismos que los diferencian y en tratar de encontrar una
explicación en términos de procesamiento de la información. Las investiga- ciones sobre las relaciones de los componentes
de frecuencia espacial con la segregación de la figura y el fondo, asignación unilateral de bordes y la in- fluencia de los
procesos de reconocimiento en la segregación de la figura y el fondo, constituyen ejemplos de líneas de investigación
actuales en este cam- po. Las investigaciones en relación con el agrupamiento perceptivo se han centrado en varios
aspectos como la relación entre agrupamiento perceptivo y atención selectiva; la elaboración de medidas cuantitativas
sobre los efectos del agrupamiento, y la identificación de estructuras perceptivas a partir de ca- racterísticas simples
mediante programas que permiten aplicar los principios de agrupamiento perceptivo.

T.7 PERCEPCIÓN DE LA FORMA II. DETECCIÓN Y DISCRIMINACIÓN DE FORMAS VISUALES


1. DETECCIÓN DE FORMAS VISUALES
Como se ha señalado en el capítulo anterior, los procesos de detección per- miten descubrir la presencia de objetos o
propiedades de los estímulos en el entorno. Como procedimiento general en una tarea estándar de detección, se presenta a
los observadores determinadas formas visuales (patrones formados por puntos, figuras geométricas, etc.) bajo condiciones
de degradación que hacen que la tarea resulte difícil, y se les pide que indiquen la presencia o au- sencia del objeto. Con el
fin de incrementar la dificultad de la tarea, se utilizan diversos procedimientos que permiten degradar los estímulos
presentados; por ejemplo, se reduce el tiempo de exposición de los estímulos, se reduce el contraste, se enmascaran los
estímulos o se presentan formas visuales incom- pletas. La diferenciación del objeto en relación al contexto puede
realizarse sobre la base de color, movimiento, forma, profundidad, etcétera.
En este capítulo nos centraremos exclusivamente en aspectos relacionados con las formas visuales, prescindiendo de otros
aspectos como la detección de la energía (luminancia, etc.), que se examina en el capítulo dedicado a psico- física. Como
ejemplo para ilustrar la actuación de los procesos de detección hemos seleccionado la detección de formas visuales en un
contexto de puntos aleatorios y la detección de la simetría. Un tema propio de este punto, la de- tección del contraste se ha
examinado en el capítulo 3.
1.1. Detección de patrones de puntos
Una de las líneas de investigación dedicadas al estudio del proceso de detec- ción de las formas visuales ha sido
desarrollada por Uttal en sus investigacio- nes desde principios de los años 70.
1.1.1. Procedimiento de enmascaramiento visual
El procedimiento utilizado consiste básicamente en la presentación de estí- mulos (patrones visuales formados por puntos)
a los que se superpone un pa- trón de ruido, también formado por puntos pero distribuidos aleatoriamente. Este
procedimiento se conoce en Psicología como <<procedimiento de enmas- caramiento visual>>. La superposición del
patrón de ruido al patrón original enmascara el estímulo original degradándolo de tal forma, que la tarea de detección
resulta muy difícil (véase Figura 7.1). Cuando se presenta el patrón o forma visual sin degradar (línea de puntos en la parte
A de la Figura 7.1), el estímulo se detecta perfectamente, incluso cuando la duración de la exposi- ción de los estímulos es
muy breve. Cuando se presenta el patrón degradado (parte B de la Figura 7.1) resulta considerablemente más difícil
detectar la línea recta de puntos presentada en el patrón original. El grado de degrada- ción en el estímulo original, cuando
se superpone una máscara, depende del número de elementos que componen la máscara. En la parte C de la Figura 7.1, se
puede observar cómo el aumento en el número de puntos en el patrón de ruido que enmascara el patrón original, produce a
su vez un aumento en la dificultad de detección del patrón.
El procedimiento desarrollado por Uttal, es particularmente adecuado para el estudio del efecto de la organización espacial
de los elementos discre- tos que forman el patrón sobre la percepción de la forma visual ya que los

patrones de puntos pueden considerarse como


formas no familiares. La lógica que subyace
al procedimiento radica en la consideración de
que los puntos aislados, o elementos locales
de la estimulación, no aportan suficiente
infor- mación para determinar la percepción de la forma visual. Únicamente a partir de una configuración de puntos, con
una determinada organización espacial, se puede detectar una forma o patrón visual.
Además, no todas las configuraciones de puntos son igualmente apropia- das a la hora de detectar el patrón visual. Se ha
constatado empíricamente, que algunas se detectan más fácilmente que otras cuando se mantienen constantes otros factores
importantes como el número de puntos (densidad del patrón) o la distancia entre ellos (espaciamiento del patrón). Es decir,
lo importante para la detección de las formas visuales es la geometría global de la configura- ción de puntos, mientras que
las características locales son secundarias.
1.1.2. Factores que afectan a la detectabilidad de las formas visuales
El núcleo más importante de estudios sobre el proceso de detección se ha dedicado a determinar los factores que
contribuyen a la detectabilidad de los patrones o formas visuales compuestos por puntos. Se estudiaron dos tipos de
patrones: líneas y figuras geométricas. En la Figura 7.2 se presentan ejemplos de algunos estímulos y manipulaciones
realizadas en los experimentos.
l. Por lo que respecta a las líneas de puntos (véase parte A de la Figura 7.2), se analizó el efecto del número de puntos
sobre la detectabilidad del patrón. Los resultados indicaron que las líneas se detectaban mejor cuan- do el patrón estaba
formado por un número determinado de puntos (cinco puntos). Se detectaba peor cuando estaba formado por menos
puntos, y no se obtenía una mejora considerable en la detección cuando el patrón estaba formado por más de cinco puntos
(Uttal, Bunnell & Corvin, 1970).
Otro de los factores considerados como variable independiente fue la orientación de las líneas. Se presentaron líneas
compuestas por siete puntos en cuatro orientaciones diferentes: vertical, horizontal y oblicuas (inclinadas hacia la derecha y
hacia la izquierda). No se encontraron diferencias en la detección de líneas en función de sus distintas orientaciones, por lo
que los autores concluyeron que la detección es independiente de la orientación de los patrones (Uttal, 1975). También se
examinó si la detección dependía del tipo de configuración de puntos (líneas rectas, curvas, etc.). Por lo general los
resultados muestran que se detectan mejor las líneas rectas que las configura- ciones que presentan curvatura o ángulos
(Uttal, 1973a, 1975). Uttal sugiere que los resultados obtenidos se deben a
la actuación de la regla de periodi- cidad lineal, según la cual, las líneas
rectas formadas por puntos constituyen el estímulo más potente en la
detección de formas visuales ya que el sistema visual es especialmente
sensible a la detección de líneas rectas.
2. Entre los factores que pueden afectar a la detectabilidad de las figuras
geométricas (polígonos formados por puntos, véase parte B de la Figura 7.2)
se han estudiado los siguientes: a) partes fundamentales en la detección de
los polígonos. Para analizar este problema se produjo una distorsión en dis-
tintas partes de un triángulo mediante la eliminación de puntos en los lados,
ángulos o se eliminaron algunos puntos aleatoriamente en la figura completa
(véase Figura 7.2.B) y se examinó en qué condición de las tres citadas se de-
tectaba mejor el triángulo. Los resultados mostraron que la eliminación de
puntos en los ángulos del triángulo empeoraba ligeramente la detección del
patrón; además el empeoramiento era más drástico cuando se distorsionaban
los lados del triángulo eliminando puntos en los lados. Este resultado podría
deberse a que la distorsión de los lados afecta a la geometría global del
patrón dificultando su detección (Uttal, 1971).
b) Al igual que en la detección de líneas de puntos, otro de los factores
examinados fue el efecto de la orientación de las figuras sobre la
detectabilidad. Para comprobar si este factor era importante en la detección
de figuras geométricas se realizaron experimentos con estímulos similares a
los presen- tados en la Figura 7.2.C. Los resultados indicaron que la
detección es inde- pendiente de la orientación de las figuras, por lo que este
factor no parece tener relevancia en la detección de patrones visuales formados por puntos en general.
e) Finalmente, una serie de estudios han tratado de determinar el efecto de la organización global del patrón sobre la
detección. La organización del patrón es importante porque afecta directamente a la geometría global de las formas
visuales. Los resultados indican que la detección de los patrones for- mados por puntos es afectada por la organización de
la figura, se detectan me- jor las formas regulares (cuadrados) que las irregulares (paralelogramos); así como por el grado
de organización del patrón, se detectan más fácilmente los patrones más organizados que los menos organizados (véase
Figura 7.2.0).
1.2. Detección de la simetría
Antes de examinar la detección de la simetría describiremos brevemente qué es un patrón simétrico. El término patrón
simétrico hace referencia a la inva- rianza de una configuración de elementos bajo determinadas transformacio- nes. La
categoría de patrones simétricos en geometría es amplia t Sin embargo aquí nos centraremos exclusivamente en aquellos
tipos de simetría relevantes en el estudio de la percepción: a) patrones simétricos generados por medio de la transformación
de reflejo o simetría bilateral, b) patrones simétricos gene- rados por la transformación de traslación o simetría traslacional;
e) patrones simétricos generados por cambio en la orientación o simetría rotacional (véa- se Figura 7.3). A continuación se
examinan los tipos de patrones simétricos y procedimientos experimentales más utilizados en el estudio de la detección de
la simetría.
1.2.1. Patrones estimulares y procedimientos experimentales
La detección de la simetría ha preocupado a los investigadores desde los ini- cios de la Psicología Experimental. En el
tratado de E. Mach <<El análisis de las sensaciones>> publicado en 1906, ya encontramos una descripción de los distintos
tipos de simetría y observaciones relacionadas con la detección de los mismos. En la Figura 7.3, se presentan los distintos
tipos de patrones si- métricos descritos por Mach, generados por transformaciones de reflejo, tras- lación y cambio en la
orientación del patrón original. Arriba aparece un
ob- jeto. En A, el reflejo en espejo del objeto
original sobre un eje vertical genera simetría
bilateral o simetría en espejo. En B, la repetición del
objeto original
produce simetría traslacional (generada por
traslación del objeto original). Y por último en C, el
objeto original se presenta en una orientación
diferente, generando simetría rotacional. En la parte
inferior se presentan los mismos tipos de simetría
en un patrón ornamental.
Mach también observó que los diferentes tipos de
simetría se detectan de diferente forma, resultando
más fácil la detección de la simetría bilateral que la
obtenida por traslación o rotación de los patrones
originales. En la misma línea, Julesz (1971) observó
que la simetría bilateral se detectaba automáti- camente y sin esfuerzo, mientras que la detección de la simetría en patrones
generados por traslación o rotación requería un escrutinio detallado de los patrones.
Posteriormente, en diversos estudios experimentales se ha tratado de de- terminar qué tipo de simetría es más saliente. En
estos estudios generalmente se utilizan como estímulos patrones simétricos formados por elementos dis- cretos (puntos,
líneas, etc.) o figuras geométricas que difieren en el tipo de simetría que presentan y el procedimiento experimental
consiste en presentar los estímulos durante un periodo de exposición breve (generalmente menos de 160 milisegundos) y
medir el tiempo empleado en detectarlos.
Por lo general, los resultados confirman que la simetría bilateral se de- tecta más rápidamente que la simetría obtenida por
rotación (Palmer & He- menway, 1978; Royer, 1981) o por traslación (Corballis & Roldan, 1974; Baylis & Driver, 1994,
1995). Algunos autores sugieren como posible expli- cación al mayor relieve de la simetría bilateral la posibilidad de
comparar las dos regiones contiguas al eje de simetría. El hecho de que la simetría bilateral sea más saliente y se detecte
más rápidamente, no significa que los otros tipos de simetría no se detecten. No obstante, la mayoría de los estudios sobre
de- tección de la simetría se han centrado en la simetría bilateral, por lo que, en este apartado examinaremos únicamente
este aspecto.
En los estudios sobre detección de la simetría bilateral se han
utilizado es- tímulos muy variados, desde patrones no familiares
como figuras, polígonos y patrones texturados aleatorios hasta
patrones muy familiares como caras o figuras subrayadas. En la
Figura 7.4 se presentan algunos ejemplos.
Por lo que respecta a los procedimientos experimentales se han
utilizado también una gran variedad de ellos (Tyler, 2002), entre
los más utilizados se encuentran: a) procedimientos psicofísicos,
como el procedimiento de de- terminación del umbral de duración
de detección de la simetría en el que se determina el tiempo
mínimo necesario para detectar la simetría o la tarea de de
determinación del umbral de contraste, en el que se determina el
contraste mínimo necesario para detectar la simetría; tareas de
tiempo de reacción, en las que se mide el tiempo empleado en la
detección; tareas de precisión enlas que se observa el porcentaje de
detecciones correctas; tareas de discrimi- nación de la orientación,
en las que se mide la precisión en la detección del eje de simetría y
tareas de discriminación de patrones simétricos, en las que se
degrada el patrón superponiendo ruido (es un procedimiento
similar al de enmascaramiento visual que se ha descrito en el
apartado de detección de puntos aleatorios).
1.2.2. Factores que influyen en la detección de la simetría
a) Un factor que puede afectar a la detección de la simetría es la posición que ocupa el patrón en el campo visual. Un
aspecto considerado en relación con este factor es la presentación central o periférica del patrón, es decir, que la posición
del patrón coincida o no con el punto de fijación. Los resultados de los estudios que han examinado este aspecto indican
que la influencia de la posición central del patrón sobre la detección de la simetría depende del tipo de estímulo utilizado.
Cuando se utilizan estímulos simples como las figuras aleatorias presentadas en la Figura 7.4 que contienen frecuencias
espaciales bajas, la detección de la simetría no se ve afectada por la posición central del patrón en el campo visual. Por el
contrario, cuando se presentan estímulos complejos, como patrones texturados (Véase Figura 7.4) que con- tienen
frecuencias espaciales altas, la detección de la simetría se ve facilitada por la posición central del patrón y deteriorada a
medida que se aleja desde esta ubicación hacia posiciones más periféricas. A partir de lo anterior, Julesz (1971) sugirió la
intervención de dos mecanismos diferentes en la detección de la simetría: un mecanismo que extraería globalmente las
relaciones si- métricas existentes en el patrón cuando los estímulos contienen frecuencias espaciales bajas y un mecanismo
de comparación punto por punto de todos los elementos del patrón cuando los estímulos contienen frecuencias espa- ciales
altas.
b) Una forma distinta de analizar la actuación del mecanismo de detec- ción ha consistido en observar si existen diferencias
en la detección de patro- nes perfectamente simétricos con respecto a patrones que presentan ligeras distorsiones. En este
tipo de estudios se suele presentar a los observadores tres tipos de patrones: patrones perfectamente simétricos, patrones
con una ligerísima distorsión de la simetría y patrones aleatorios (no simétricos) que se presentan como distractores y los
observadores tienen que detectar los pa- trones simétricos y no simétricos (algunos ejemplos, se presentan en la Figura
7.4). Los resultados de Barlow y Reeves (1979) utilizando este procedimiento muestran que el mecanismo de detección de
la simetría es muy potente ya que se pueden detectar distorsiones mínimas en los patrones. Wagemans y cols. (1992)
observaron el efecto sobre la detección de una distorsión en el patrón simétrico producida por la observación del patrón
desde un punto de vista no frontal como el que se puede observar la Figura 7.4.F. Los resultados obtenidos utilizando este
procedimiento mostraron que el tiempo de reacciónen la tarea de detección de patrones simétricos aumentaba a medida que
la distorsión en el patrón era mayor.
e) La detección de la simetría también puede ser afectada por el agrupa- miento perceptivo de los elementos estimulares
que componen el patrón. La evidencia empírica que apoya esta afirmación procede de estudios en los que se han utilizado
como estímulos patrones similares a los presentados en la Figura 7.5.
En la parte superior de la Figura 7.5, se presentan dos patrones simétri- cos (A y B) formados por líneas orientadas y un
patrón simétrico formado por puntos (C). En la parte inferior, se
presenta un patrón no simétrico (D) semejante a los anteriores pero
en el que se ha producido una distorsión de la simetría
desplazando algunos elementos estimulares y un patrón aleatorio
no simétrico (E).
Con el fin de examinar la influencia del agrupamiento perceptivo
sobre la detección de la simetría, Locher y Wagemans (1993)
utilizaron patrones similares a los presentados en la Figura 7.5,
formados por líneas en distintas orientaciones (vertical, horizontal
y oblicuas) o compuestos por puntos. En este tipo de patrones, la
orientación de las líneas contribuye a determinar la organización
del patrón global; en las figuras formadas por líneas, se percibi- ría
un patrón global simétrico orientado verticalmente y otro orientado ho- rizontalmente. Sin embargo, en el patrón formado
por puntos, se percibiría agrupamiento pero no se percibiría un patrón orientado ya que los puntos, al carecer de
orientación, no determinan que se perciba una orientación clara del patrón global. El planteamiento del estudio era que si la
orientación de las líneas (elementos estimulares) contribuía a la detección de la simetría en el patrón global, la ejecución en
la tarea de detección de la simetría (tiempo dedetección y precisión) sería mejor en los patrones formados por líneas que en
los formados por puntos. Por el contrario, si el mecanismo de detección de la simetría actuaba sobre la base de la
comparación de la información del patrón agrupada espacialmente, no habría diferencias entre los patrones agrupados
formados por líneas o por puntos. Los resultados indicaron que la ejecución en la tarea de detección de la simetría se veía
facilitada cuando los los elemen- tos estimulares que formaban los patrones se agrupaban espacialmente, con
independencia de que fueran líneas orientadas o puntos.
d) Finalmente, examinaremos el factor más estudiado en relación con la de- tección de la simetría: la orientación del eje de
simetría. Como hemos señalado al principio de este apartado, la observación de que la simetría reflejada sobre el eje
vertical es más potente se debe a E. Mach. El primer estudio experimen- tal dedicado a analizar la influencia de la
orientación del eje de simetría sobre la detección de la misma se debe a Goldmeier (1937). En sus experimentos se
presentaba a los observadores un patrón estimular con simetría
bilateral hori- zontal y vertical. A continuación se presentaban dos
estímulos de prueba, uno de ellos presentaba simetría sobre el eje
vertical, el segundo era simétrico sobre el eje horizontal. La tarea
de los observadores consistía en indicar cuál de los dos estímulos
de prueba se parecía más al patrón presentado en primer lugar. Los
resultados indicaron que los observadores elegían el patrón de
prueba que presentaba simetría a partir del eje vertical.
En otra serie de experimentos se ha comparado la detección de la
simetría bilateral sobre el eje vertical con simetría bilateral sobre
los ejes horizontal y oblicuos. Un ejemplo representativo de este
tipo de experimentos es el reali- zado por Palmer y Hemenway
(1978). El objetivo de su investigación consis- tía en analizar el
efecto de la presentación de figuras con diversos grados de
simetría en varias orientaciones diferentes. Los patrones
estimulares presen- tados diferían en dos variables: grado de
simetría y orientación (Véase Figura 7.6). Con respecto al grado de simetría se presentaron patrones que presenta- ban: a)
simetría sobre un único eje (vertical, horizontal u oblicuo), b) simetría doble (sobre dos ejes), e) simetría cuádruple (sobre
cuatro ejes) y figuras casi simétricas. Con relación a la orientación, los patrones se presentaban en una orientación: a)
vertical (0°), horizontal (90°) y oblicuas (45° y -45°). La tarea de los observadores consistía en presionar una llave de
respuesta si el patrón presentado les parecía simétrico y otra distinta si les parecía asimétrico. Los resultados revelaron que
la simetría se detectaba mejor cuando los patrones presentaban una orientación vertical, en segundo lugar en la orientación
ho- rizontal y por último en las orientaciones oblicuas. Por otra parte, también se manifestó un claro efecto de los grados de
simetría detectándose mejor los patrones con mayor grado de simetría. En la misma línea, los resultados obtenidos por
Barlow & Reeves, 1975; Royer, 1981; Wagemans, Van Gool y d'Ydewalle, 1992 y Wenderoth, 1994, 1997, confirman la
prioridad de de- tección de la simetría reflejada sobre el eje vertical.
A raíz, de los resultados que ponen de manifiesto la primacía de la sime- tría bilateral, se han propuesto varios modelos que
intentan explicar los resul- tados obtenidos en los experimentos sobre detección de la simetría. Palmer y Hemenway (1978)
propusieron un modelo de un proceso que actuaría en dos etapas. En la primera etapa, se realizaría un análisis tosco y se
seleccionaría un posible eje de simetría sobre el cual se refleja el patrón. En una segunda etapa, se compararían las dos
mitades del patrón y, con fundamento en esta comparación, se determinaría si el patrón es o no simétrico.
Jenkins (1983) propuso que la detección de la simetría se llevaría a cabo mediante tres procesos: el primero de ellos detecta
si la orientación del patrón es uniforme; el segundo proceso agrupa los elementos que forman el patrón alrededor del eje,
formando de esta manera una estructura más amplia, por úl- timo el tercer proceso determina si la estructura obtenida en el
proceso anterior es simétrica. El problema que subyace a los dos modelos citados es que ambos pueden considerarse más
bien como estrategias a utilizar por los sujetos ante determinadas tareas utilizadas en experimentos concretos que como
teorías que expliquen la detección de la simetría bilateral en general.
2. DISCRIMINACIÓN DE FORMAS VISUALES