Sunteți pe pagina 1din 40

Psicología cognitiva: raíces,

supuestos y prospectiva
Tomado de : Puente–Ferraras, A. (2003) Cognición y
Aprendizaje, Ed. Pirámide, Madrid. Cap. 3 pp. 59-83
INTRODUCCIÓN
La psicología cognitiva estudia los procesos
cognitivos naturales o artificiales que manejan información
y conocimiento. La psicología cognitiva
forma parte de la ciencia cognitiva, una de las disciplinas
que estudian la mente y el cerebro humanos.
La psicología cognitiva estudia procesos humanos
cognitivos tales como la percepción, el aprendizaje,
memoria, hábitos de aprendizaje, etc., como propiedades
de la mente humana. Los científicos cognitivos
consideran la mente humana como un sistema que recibe,
almacena, transforma, encuentra y transmite información.
Es lo que se denomina procesamiento de la información.
Sin embargo, este procesamiento de la información debe
ser analizado en sus distintos niveles, y es precisamente
este método el que origina diversas disciplinas dentro de la
ciencia cognitiva. Un primer nivel estudia el sustrato
físico que realiza estos procesos (ciencias neurológicas),
otro, la computación que estudia los diferentes
tratamientos a los que se puede someter una información
(inteligencia artificial, lógica). Otros niveles de análisis se
corresponden con los filosóficos, los culturales, los
antropológicos y los lingüísticos. El nivel filosófico es el
nivel superior y analiza al sujeto como un todo,
utilizando en muchas ocasiones un metanivel que aporta
conceptos, cosmovisiones, y un análisis metafísico de los
conceptos y sus relaciones lógicas.
El procesamiento de la información se considera
representacional, es decir, nuestro sistema neuronal debe
representar de alguna manera el mundo exterior. Estas
representaciones son intencionales y tienen sentido: son
representaciones de algo.
Los primeros estudios sobre la cognición humana
aplicaron los conceptos formales de manipulación de
símbolos de una manera estricta a la mente humana, de
modo que cualquier aparato, construido en cualquier
material, que pudiera realizar los mismos cálculos y el
mismo tratamiento de los símbolos, se podría
considerar semejante a la mente humana; es lo que se
denominó inteligencia artificial fuerte. Hoy, la ciencia
cognitiva no sostiene esta tesis, se contenta con decir que
el procesamiento de la información se puede describir
formalmente.
Las raíces del movimiento cognitivo son extremadamente
variadas: incluyen la Escuela de Wurzburgo, la psicología
de la Gestalt, el neoconductismo, la psicología soviética,
incluso el humanismo. Ha hecho suyas las ideas de
Edward C. Tolman, Albert Bandura, George Kelly,
León Festinger o Martin Fishbein. Incluye pensamiento de lingüistas, neurocientíficos, filósofos
ingenieros. De una manera especial ha incorporado mentalidad, el lenguaje y la filosofía de
fondo de los
especialistas en tecnología de ordenador y el campo de
la inteligencia artificial.
3.1. PRESUPOSICIONES DE LA PSICOLOGÍA
COGNITIVA
La psicología cognitiva presupone que la cognición
humana depende de un sistema de procesa- miento
de la información. Tanto el conductismo como otros
sistemas anteriores suponían que la mente era pasiva,
simplemente respondía a los estímulos de una manera
mecanicista. La psicología cognitiva, por el contrario,
presupone que la actividad mental opera de modos
muy complejos para representar los impulsos
eléctricos que llegan al cerebro.
La información disponible nos llega a través de los
sentidos y es manipulada por una serie de sistemas de
procesamiento (por ejemplo, atención, percepción,
memoria, imaginación, etc.). Los sistemas transforman
o modifican la información de varias maneras (por
ejemplo, en las ilusiones se perciben elementos
diferentes de los existentes, incluso algunos que ni
siquiera existen).
El interés de los investigadores de psicología
cognitiva es descubrir y describir los procesos estructuras que subyacen a los estados cognitivos
(por
ejemplo, los estudios de neuropsicología cognitiva
intentan determinar qué áreas del cerebro intervienen
en la producción del lenguaje o en la visión ciega).
Muchos de los procesamientos cognitivos tienen una
analogía clara con el ordenador, ambos se pueden
considerar procesadores de información. La actividad
cognitiva humana, sin embargo, es mucho más
compleja, tiene sentimientos, emociones, etc., de las
que carece el ordenador.
Existen dos formas de procesar la información:
bottom-up y top-down. La primera viene determinada
por los estímulos que recibimos del exterior. Estos
estímulos aportan información que recorre el camino
desde la periferia hacia las áreas corticales. La
segunda forma parte del conocimiento adquirido y va
proponiendo hipótesis explicativas de los estímulos
que se reciben. Por ejemplo, cuando leemos la palabra
banco, los ojos intervienen para captar la información

Psicología cognitiva: raíces,


supuestos y prospectiva
Tomado de : Puente–Ferraras, A. (2003) Cognición y
Aprendizaje, Ed. Pirámide, Madrid. Cap. 3 pp. 59-83
INTRODUCCIÓN
La psicología cognitiva estudia los procesos
cognitivos naturales o artificiales que manejan información
y conocimiento. La psicología cognitiva
forma parte de la ciencia cognitiva, una de las disciplinas
que estudian la mente y el cerebro humanos.
La psicología cognitiva estudia procesos humanos
cognitivos tales como la percepción, el aprendizaje,
memoria, hábitos de aprendizaje, etc., como propiedades
de la mente humana. Los científicos cognitivos
consideran la mente humana como un sistema que recibe,
almacena, transforma, encuentra y transmite información.
Es lo que se denomina procesamiento de la información.
Sin embargo, este procesamiento de la información debe
ser analizado en sus distintos niveles, y es precisamente
este método el que origina diversas disciplinas dentro de la
ciencia cognitiva. Un primer nivel estudia el sustrato
físico que realiza estos procesos (ciencias neurológicas),
otro, la computación que estudia los diferentes
tratamientos a los que se puede someter una información
(inteligencia artificial, lógica). Otros niveles de análisis se
corresponden con los filosóficos, los culturales, los
antropológicos y los lingüísticos. El nivel filosófico es el
nivel superior y analiza al sujeto como un todo,
utilizando en muchas ocasiones un metanivel que aporta
conceptos, cosmovisiones, y un análisis metafísico de los
conceptos y sus relaciones lógicas.
El procesamiento de la información se considera
representacional, es decir, nuestro sistema neuronal debe
representar de alguna manera el mundo exterior. Estas
representaciones son intencionales y tienen sentido: son
representaciones de algo.
Los primeros estudios sobre la cognición humana
aplicaron los conceptos formales de manipulación de
símbolos de una manera estricta a la mente humana, de
modo que cualquier aparato, construido en cualquier
material, que pudiera realizar los mismos cálculos y el
mismo tratamiento de los símbolos, se podría
considerar semejante a la mente humana; es lo que se
denominó inteligencia artificial fuerte. Hoy, la ciencia
cognitiva no sostiene esta tesis, se contenta con decir que
el procesamiento de la información se puede describir
formalmente.
Las raíces del movimiento cognitivo son extremadamente
variadas: incluyen la Escuela de Wurzburgo, la psicología
de la Gestalt, el neoconductismo, la psicología soviética,
incluso el humanismo. Ha hecho suyas las ideas de
Edward C. Tolman, Albert Bandura, George Kelly,
León Festinger o Martin Fishbein. Incluye el
pensamiento de lingüistas, neurocientíficos, filósofos e
ingenieros. De una manera especial ha incorporado la
mentalidad, el lenguaje y la filosofía de fondo de los
especialistas en tecnología de ordenador y el campo de
la inteligencia artificial.
3.1. PRESUPOSICIONES DE LA PSICOLOGÍA
COGNITIVA
La psicología cognitiva presupone que la cognición
humana depende de un sistema de procesa- miento
de la información. Tanto el conductismo como otros
sistemas anteriores suponían que la mente era pasiva,
simplemente respondía a los estímulos de una manera
mecanicista. La psicología cognitiva, por el contrario,
presupone que la actividad mental opera de modos
muy complejos para representar los impulsos
eléctricos que llegan al cerebro.
La información disponible nos llega a través de los
sentidos y es manipulada por una serie de sistemas de
procesamiento (por ejemplo, atención, percepción,
memoria, imaginación, etc.). Los sistemas transforman
o modifican la información de varias maneras (por
ejemplo, en las ilusiones se perciben elementos
diferentes de los existentes, incluso algunos que ni
siquiera existen).
El interés de los investigadores de psicología
cognitiva es descubrir y describir los procesos y
estructuras que subyacen a los estados cognitivos (por
ejemplo, los estudios de neuropsicología cognitiva
intentan determinar qué áreas del cerebro intervienen
en la producción del lenguaje o en la visión ciega).
Muchos de los procesamientos cognitivos tienen una
analogía clara con el ordenador, ambos se pueden
considerar procesadores de información. La actividad
cognitiva humana, sin embargo, es mucho más
compleja, tiene sentimientos, emociones, etc., de las
que carece el ordenador.
Existen dos formas de procesar la información:
bottom-up y top-down. La primera viene determinada
por los estímulos que recibimos del exterior. Estos
estímulos aportan información que recorre el camino
desde la periferia hacia las áreas corticales. La
segunda forma parte del conocimiento adquirido y va
proponiendo hipótesis explicativas de los estímulos
que se reciben. Por ejemplo, cuando leemos la palabra
banco, los ojos intervienen para captar la información
proveniente de la escritura, el nervio óptico traslada la
información en forma de impulsos eléctricos hasta las
áreas visuales. Al mismo tiempo, algunas áreas
corticales se ponen en funcionamiento y proponen como
hipótesis que el banco es un objeto de madera que sirve
para sentarse, o bien un edificio donde se guarda
dinero.
3.2. ANTECEDENTES DE LA PSICOLOGÍA
COGNITIVA
La psicología cognitiva es tan antigua como
Aristóteles. Ciertamente todos los autores que han
intentado dar una explicación de los procesos mentales
han utilizado la cognición como uno de los elementos
centrales. Incluso Wundt, el padre de la psicología
científica, pensaba que el hombre es un ser dual, por una
parte es fisiología, y todos los procesos deben ser
estudiados desde este punto de vista, pero, por otra, es
conciencia, y ésta debe estudiarse como algo que sucede
internamente y no es accesible a la observación
pública, es típica- mente privada, y solamente el sujeto
tiene acceso a ella mediante la introspección. Cuando
llega el conductismo, con el afán de hacer de la
psicología una ciencia natural, destierra todo lo que se
puede considerar mental. La psicología sólo puede
estudiar lo que es públicamente observable y
cuantificable. Pero, incluso durante el predominio del
paradigma conductista, hubo algunos psicólogos que
siguieron estudiando la mente como lo más característico
de la psicología humana.
A continuación proponemos algunos de los psicólogos
que tienen una significación especial en la aparición de
la psicología cognitiva.
3.2.1. William James (1842-1910)
Las fuentes de inspiración de James fueron los
principios del evolucionismo, el pragmatismo y
funcionalismo. En su libro Principios de psicología se
analizan algunos temas de gran 'importancia para el
desarrollo de la psicología cognitiva. Algunos de los
temas más importantes que estudió fueron: la memoria,
la atención, la emoción y la conciencia.
El tema que tiene una relación más directa con la
psicología cognitiva y es tratado de una manera más
novedosa es el de la conciencia. Cuando se pregunta en
un artículo titulado ¿existe la conciencia?, su
respuesta es NO. No existe la conciencia tal como se
entendía en su tiempo, porque no es una sustancia, no
es una potencia del alma, no es un escenario cartesiano,
no es un homúnculo que mira lo que pasa en el interior
del hombre. La conciencia es un continuo fluir, un
torrente de imágenes y sentimientos, no es una
estructura, sino un proceso.
Nuestra conciencia interna es algo que fluye
constantemente y en este fluir advertimos cuatro
elementos: es parte de una «conciencia personal», está
en perpetuo cambio, es «sensiblemente continua» en
el tiempo, y puede seleccionar los objetos de los que
se ocupa.
La conciencia juega un importante papel para el
hombre, lo que nos diferencia de los robots, e incluso
de la inteligencia artificial. Las máquinas que
actúan al modo del hombre, que no tienen
conciencia, tienen conductas «inteligentes», pero son
incapaces de tener representaciones del mundo y de
su estado interno. El juguete de plástico, Snoopy, de
la hermana de James, cuando se le daba cuerda y se
colocaba sobre la mesa caminaba hasta el borde pero
no se detenía, seguía andando hasta que caía al suelo.
Dotemos a Snoopy de conciencia, dice James, y
ganará opciones, aumentando sus posibilidades de
supervivencia. Sin conciencia, Snoopy no se preocupa
de si vive o no; con conciencia, las cosas cambian.
La conciencia tiene una función muy importante:
la selección de lo útil. La opción consciente hace
posible el aprendizaje, nos capacita para seleccionar
los estímulos que sean más significativos y desechar
los ya conocidos o no significativos, y otorga al
organismo interés por la supervivencia.
3.2.2. Frederic C. Bartlett (1886-1969)
Bartlett, en su libro Recordar, atacó el enfoque de
Ebbinghaus. Bartlett estudió la memoria utilizando
historias, y no sílabas sin sentido, apoyándose en la
noción de esquemas y en una metáfora que acentúa
los procesos de construcción (lo perceptual) y de
reconstrucción (lo mnémico). Bartlett introdujo el
problema de la representación del conocimiento, área
teórica y de investigación de gran importancia en la
psicología cognitiva actual, y su apuesto
constructivismo acerca de la percepción fue
retomado más tarde por el gran psicólogo cognitivo
Ulric Neisser.
El enfoque de Bartlett es típicamente cognitivo. La
memoria no es un almacén en que vamos colocando
los recuerdos como los libros en una biblioteca, sino
que nuestro sistema cognitivo es enormemente
constructivo: se comporta como un procesador de la
información. Los sujetos elaboran activamente el
relato desde su propia experiencia y desde su medio
cognitivo. Las modificaciones más importantes que
realiza el sujeto son: Omisiones: se omiten detalles y
elementos que no encajan en el medio psicológico del
sujeto. Racionalización: se introducen elementos
explicativos para situaciones que no son congruentes
con el medio cultural del sujeto. Realce de detalles:
ciertas características de la historia se realzan para que
sirvan de referencia al resto de la historia.
Transformación de detalles: algunos nombres y objetos
cambian para adaptarse a una mejor comprensión.
Reorganización de los elementos: el orden de los
acontecimientos puede sufrir una nueva organización.
Pérdida de elementos emotivos y afectivos. Intromisión
de la actitud del sujeto respecto al relato.
3.2.3. Edward C. Tolman (1886-1959)
Las ideas cognitivas se encuentran plasmadas en su
libro La conducta propositiva en animales y hombres.
Tolman afirmó que los estímulos entrantes no están
conectados como unos simples interruptores
(conectados uno a uno) a las respuestas salientes. Más
bien sucede todo lo contrario, los impulsos entrantes son
normalmente tratados y elaborados en la sala de control
central hasta que se convierten en un mapa aproximativo,
cognitivo del ambiente. En este mapa tentativo se indican
rutas y caminos y las relaciones medioambientales. Este
mapa será el que finalmente influirá en la respuesta que
elegirá el animal, o no dará ninguna respuesta.
Tolman basó su concepto de mapa cognitivo en
experimentos en los que las ratas eran entrenadas a correr
un laberinto; cuando una salida era bloqueada, el animal
elegía la opción más corta. El hecho de que las ratas
consiguieran la comida utilizando el camino más corto
dentro de un abanico de posibilidades, sugirió a Tolman
que las ratas no habían aprendido respuestas simples,
como «girar a derecha o izquierda», sino que habían
construido un mapa mental del entorno. Las ratas habían
procesado mucha más información de la que se suponía
en el esquema conductista. Las ratas estaban orientadas
a una meta más que orientadas a una respuesta. Sus
cerebros procesaban información para dar conductas
molares prepositivas, en vez de conductas moleculares,
tal como había señalado Watson.
Tolman ejerció una influencia relevante siendo muy
populares en el ámbito científico algunos conceptos
como «mapas cognitivos», «aprendizaje latente»,
«aprendizaje de lugares», «expectativas», «valores»,
etc.
3.2.4. Jean Piaget (1896-1980)
En Europa la psicología conductista no tuvo el impacto
que en Estados Unidos; en el continente europeo se
siguieron estudiando aspectos cognitivos desechados por
el conductismo. Después de doctorarse en zoología,
Piaget emprendió la tarea de responder a la pregunta:
¿Cómo aprende la gente? Para responder a esta
pregunta analizó el comportamiento de sus tres hijas y
el razonamiento utilizado en la solución de problemas.
Descubrió que el potencial de las estructuras de
desarrollo y de organización de la mente era tan grande
que argumentó que la educación y la enseñanza no
deben manipular la mente del niño, sino darle
oportunidades de inventar y descubrir.
En la psique humana tenemos estructuras y
funciones. Las funciones principales son las de
organización y adaptación. Esta última funciona
mediante la asimilación y la acomodación. Toda la
información que recibe el niño la integra organizando
el material en sistemas coherentes y acomodando las
estructuras cerebrales a los nuevos elementos que va
integrando.
La estructura de la psique está compuesta de
elementos básicos, la acción, que se integra en
estructuras más complejas, los esquemas, que
constituyen la forma característica de interactuar con
el medio; a esta forma típica de utilizar determinados
esquemas se denomina estadio.
Todos los seres humanos pasamos por diferentes
estadios:
1. Período sensoriomotriz (del nacimiento a; los
dos años) Esta etapa comprende las primeras
reacciones del niño al medio, que se
internalizan de forma rudimentaria por la
organización impuesta por el significado,
intenciones, causalidad y valor simbólico.
2. Período preoperacional (de los dos a los siete
años). Durante esta fase el niño adquiere el
lenguaje y se enfrenta a los dos «a priori»
kantianos de la sensibilidad, el espacio y el
tiempo.
3. Período de las operaciones concretas (de los
siete a los once años). En esta etapa el niño
capta las nociones abstractas representadas por
complejas relaciones de cantidad, posición,
relación y modo de los objetos.
4. Período de las operaciones formales (de los
once a los quince años). En este período el
niño utiliza operaciones formalizadas lógicas y
matemáticas. El niño es capaz de generar
diversas alternativas, estructurar teorías, hacer
operaciones sobre operaciones y utilizar el
metalenguaje.
3.3. PIONEROS EN ELCAMPO DE
LA COMPUTACIÓN
Las investigaciones del procesamiento de la
información de las máquinas han servido de modelo
para investigar aspectos de la elaboración interna de
la información de la mente humana. Procesar la
información es someter la energía entrante en un
organismo a un proceso de elaboración y transformación
mediante la aplicación de unos operadores. Los sistemas
físicos de computación reciben la información, se
selecciona, elabora, almacena y se recupera cuando es
necesario.
A continuación presentamos tres de los más grandes
científicos teóricos en tecnología de computación en el
campo de la inteligencia artificial: Norbert Wiener,
Alan Turing y Ludwig von Bertalanffy.
3.3.1. Norbert Wiener (1894-1964)
Norbert Wiener nació el 26 de noviembre de 1894
en Columbia, Missouri. Su padre, judío, era profesor de
lenguas eslavas. Estudió en el Tufts College y en las
universidades de Cornell, Harvard, Cambridge,
Gotinga y Columbia. Fue profesor auxiliar de
matemáticas en el Instituto de Tecnología de
Massachusetts en 1919 y, desde 1932 a 1960, profesor
titular.
Comenzó estudiando el movimiento de las partículas de
la física cuántica, lo que le llevó a desarrollar un gran
interés en los procesos de transmisión de la información
y el control de los mecanismos en las máquinas, los
animales y las organizaciones. Wiener se especializó en
matemáticas y en física matemática. Durante la Segunda
Guerra Mundial, mientras se dedicaba a la investigación
de técnicas de defensa antiaérea, se interesó por el cálculo
matemático y la teoría de la retroalimentación. Acuñó; EI
término cibernética, que en griego significa el que corrige
una nave. La cibernética se aplica no sólo al control
automático de la maquinaria por computadoras y otros
aparatos electrónicos, sino también al estudio del cerebro
y del sistema nervioso. Resumió las teorías en
Cibernética: o control de la comunicación en el animal y
la máquina (1948). En este libro, introduce términos tan
conocidos como input, output o feedback. Otras obras
son The Human Use: Human Beings (1950), Nonlinear
Problems of Random Theory (1958) y God and Golem,
Inc.: que subtituló «Un comentario sobre ciertos juicios
donde la cibernética afecta a la religión». Ese mismo año
recibió la National Medal of Science. Y unas pocas
semanas después murió en Estocolmo, Suecia, el 18 de
marzo de 1964.
3.3.2. Alan Turing (1912-1954)
Alan Mathison Turing nació en Paddington, cerca
de Londres, el día 23 de junio de 1912, segundo hijo
del matrimonio Julio y Ethel, perteneciente a la clase
media-alta. En su juventud, conoció a Christopher
Morcom en Sherborne School, que murió 1930, lo que
sumió al joven Alan en una crisis en la que una de sus
mayores preocupaciones era la relación mente-materia y
si todo acaba con la muerte.
En 1935 se licencia con brillantez y obtiene varios
premios por sus trabajos en teoría de la probabilidad.
Fue al King's College de Cambridge en 1931, donde
lee libros de Von Neumann, Russell y Whitehead,
Godel y otros. Un amigo suyo homosexual lo enroló
en movimientos pacifistas. Se graduó en 1934 y
permaneció en esta universidad un año más como
becario.
La conocida como «máquina universal» de Turing,
es una máquina capaz de realizar cualquier tarea que
pudiera escribirse de una manera algorítmica. Esta idea
establece las bases para lo que hubiese podido ser la
construcción de un ordenador de propósito múltiple.
Su trabajo On Computable Numbers with an
Application to the Entscheidungsproblem, donde
establecía estos conceptos, influyó en las ideas del
matemático John von Neumann, que construiría el
primer ordenador. Uno de los conceptos más relevantes
de su teoría es la conocida como «prueba de Turing».
La prueba involucra dos humanos y un ordenador. Uno
de los humanos debe descubrir cuál de los otros dos
participantes es el humano. Se considera superada la
prueba de Turing cuando es imposible distinguir las
respuestas del humano de las del ordenador. Tras la
confección de este trabajo, demostró que su método era
equivalente al método del cálculo Lambda de Church,
y una extensión de sus ideas constituyó su tesis
doctoral.
Durante la Segunda Guerra Mundial trabajó para
el departamento de criptografía británico, su trabajo
consistía en descifrar los mensajes alemanes que se
basaban en una máquina criptográfica llamada Enigma.
Turing generalizó el sistema consiguiendo descifrar
cualquier mensaje con tan sólo un pequeño texto
codificado, aunque los más sofisticados mecanismos
utilizados por la marina alemana seguían siendo
indescifrables. En mayo de 1948 aceptó el trabajo de
director delegado del laboratorio de computación de la
Universidad de Manchester. En marzo de 1952 fue
arrestado y conducido a prisión acusado de mantener
relaciones sexuales con un joven de Manchester, pero
logró evitar la cárcel al someterse durante un año a
inyecciones de estrógenos con el propósito de
adormecer su libido. El día 7 de junio de 1954 murió
debido a la ingestión de cianuro.
3.3.3. Ludwig von Bertalanffy (1901-1972)
Ludwig nació en Viena el 19 de septiembre de
1901. Asistió a la Universidad de Innsbruck y más
tarde a la de Viena, donde estudió historia del arte,
filosofía y biología. Se doctoró en 1926 con una
disertación sobre el psicofísico Gustav Fechner.
En 1928 publicó Modern Theories of
Development, donde introduce la pregunta sobre si
podemos explicar la biología en términos puramente
físicos. Su respuesta es que sí, con tal de considerar
los seres vivos dotados de una autoorganización
dinámica.
En 1937 fue a la Universidad de Chicago, donde
explicó por primera vez su teoría general de sistemas,
que consideraba como una metodología para todas
las ciencias. En 1939 es profesor en la Universidad de
Viena donde continúa sus investigaciones sobre la
fisiología del crecimiento. Su obra Problems of Life,
publicada en 1940, resume su pensamiento sobre el
tema. En 1949 emigró a Canadá, donde comenzó a
investigar sobre el cáncer, aunque pronto se interesó
por la psicología cognitiva, donde introdujo una
epistemología totalizadora en oposición al
conductismo. En 1960 es profesor de biología teórica
en la Universidad de Alberta. En 1967 publicó
Robots, Men, and Minds, y en 1968 escribió General
Systems Theory.
Los fines principales de la teoría general de sistemas
según Bertalanffy son:
— Hay una tendencia general hacia una integración
en las diferentes ciencias, naturales y sociales
— Tal integración parece centrarse en una teoría
general de sistemas.
— Tal teoría puede ser un medio importante para
apuntar hacia la teoría exacta en los campos no
físicos de la ciencia.
— Desarrollando principios unificadores que
vayan «verticalmente» por el universo de las
ciencias individuales, esta teoría nos acerca
más a la meta de la unidad de la ciencia.
— Esto puede conducir a una necesaria
integración en la educación científica.
Bertalanffy afirma: «La física convencional trata
únicamente con los sistemas cerrados. Sin embargo,
encontraremos sistemas que por su propia naturaleza y
definición no son sistemas cerrados. Todo organismo
viviente es, en esencia, un sistema abierto.
Evidentemente, las formulaciones convencionales de la
física son, en principio, inaplicables al organismo vivo
como tal sistema abierto y estado de homeostasis y
podemos muy bien sospechar que muchas de las
características de los sistemas vivos, que parecen
paradójicos según las leyes de la física, son una
consecuencia de ese hecho».
Ludwig von Bertalanffy murió de un ataque al corazón el
12 de junio de 1972.
3.4 INSTITUCIONALIZACIÓN DE LA
PSICOLOGÍA COGNITIVA
La psicología cognitiva nació con la vocación de dar
respuestas a una serie de problemas que se plantearon
dentro de las ciencias biológicas y sociales, tales como
la relación mente-cuerpo, materia-vida, los mecanismos
cerebrales o la conducta. A estas preguntas no se
podía responder desde un solo campo de la ciencia,
por eso se celebraron congresos y conferencias en los
que expertos de diferentes campos intentaron arrojar
luz sobre algunas cuestiones fundamentales que
afectaban directamente a la comprensión de las
mismas ciencias y al hombre.
3.4.1. Conferencias para el desarrollo
de las ciencias cognitivas
En septiembre de 1948, un grupo de eminentes
científicos, representantes de diversas disciplinas, se
reunieron en el Instituto de Tecnología de California
para celebrar un simposio sobre «Los mecanismos
cerebrales en la conducta» auspiciado por la
Fundación Hixson (Jeffress, 1951). John Von
Neumann trazó una analogía entre la computadora
electrónica y el cerebro. Warren McCulloch, en su
trabajo «¿Por qué está la mente en la cabeza?»,
explicó la forma en que el cerebro procesa la información.
McCulloch quería explorar ciertos
paralelismos entre el sistema nervioso y los
«procedimientos lógicos» a fin de discernir por qué
percibimos el mundo como lo hacemos.
Un relieve especial tiene el nombre de la Fundación
Josiah P. Macy. En el invierno de 1944, John Von
Neumann y Wiener convocaron a todos los
interesados en lo que más tarde dio en llamarse
“cibernética” para una reunión en Princeton, en la que
estuvieron presentes gran parte de las figuras que ya
hemos presentado. Más tarde recordaría Wiener: «Al
final de esta reunión, nos resultó claro a todos que
existía un sustancial denominador común en las ideas
de los que trabajábamos en diferentes campos; que los
integrantes de cada uno de estos grupos podían ya
empezar a utilizar nociones mejor desarrolladas en los
otros, y que debía hacerse alguna tentativa por
establecer un vocabulario común» (1961, p. 15).
Basándose en estos contactos iniciales, en la
primavera de 1946 Warren McCulloch organizó,
conjuntamente con la Fundación Macy, una serie de
reuniones sobre los problemas de la retroalimentación.
«La idea era congregar a un pequeño grupo de personas
que estaban trabajando en diversos campos conexos,
cuyo número no excediera de 20, para que
convivieran dos días enteros sucesivos y pudieran
intercambiar artículos informales, realizar debates y
compartir comidas, hasta desgranar sus ideas y
progresar hacia un modo de pensamiento que siguiera
líneas semejantes» (Wiener, W61. p. 18). Llegaron a
realizar diez de estas reuniones, aproximadamente una
por año; al principio él la denominó «Conferencia
sobre los mecanismo circulares causales y de
retroalimentación en los sistemas biológicos y
sociales», pero muy pronto este nombre se redujo, a
instancias de Wiener, al de «Conferencia sobre
cibernética».
En el verano de 1956, un grupo de especialistas en
matemática y lógica se reunieron en el Dartmouth
College, en Hanover, estado de New Hampshire. El
interés fundamental de estos jóvenes investigadores fue
avanzar en el campo de la inteligencia artificial. Se tenía
la convicción de que los datos procesados por un
programa podían pasar a formar parte de ese mismo
programa. De esta manera se abrían en perspectiva
poder utilizar nuevos lenguajes, el procesamiento de
símbolos y la verificación de teorías científicas.
Los primeros desarrollos en inteligencia artificial se
los debemos a John McCarthy quien fundó el primer
laboratorio de inteligencia artificial en el Instituto de
Tecnología de Massachusetts (ITM) y en la Universidad
de Stanford. Marvin Minsky estudió el uso de los
ordenadores para demostrar los teoremas de Euclides.
Herbert Simón y Allan Newell desarrollaron un
programa para resolver teoremas lógicos y comenzaban
a hablar de la posibilidad de crear máquinas que
realmente pudieran pensar.
Alex Bernstein puso los cimientos para realizar un
programa para jugar al ajedrez, Arthur Samuel realizó
un programa para jugar a las damas y Nathan Rochester
expuso la programación de un modelo de redes neurales.
En Boston, en una institución asociada al ITM, en los
Laboratorios Lincoln, se había reunido un grupo de
jóvenes ingenieros y psicólogos para ocuparse de
problemas prácticos, como las señales de advertencia en
caso de bombardeos.
En Inglaterra se fundó el Club Ratio, creado en 1949,
un club interdisciplinar, donde colaboraban psicólogos,
ingenieros, médicos y fisiólogos interesados en la
mente. Turing fue uno de los que asistió de cuando en
cuando a sus encuentros. Una de las fundaciones más
importantes fue la Fundación Alfred P. Sloan. Gracias a
esta fundación se pusieron en marcha numerosos
estudios de psicología cognitiva: se creó la revista
Cognitive Science, cuyo primer número apareció en
enero de 1977, y se creó la Sociedad de la Ciencia
Cognitiva dos años después; esta sociedad realizó su
primera reunión anual en agosto de 1979 en La Jolla
(California).
Un grupo de estudiosos de la disciplina,
subvencionados por la fundación, elaboró un «Informe
sobre la situación de la disciplina». Según estos autores,
«lo que ha originado el nacimiento de esta disciplina ha
sido un común objetivo de investigación: descubrir las
capacidades de la mente para la representación y la
computación, y su representación estructural y funcional
del cerebro».
Según Howard Gardner, el año 1956 es el año clave
cuando la psicología cognitiva despega con identidad
propia.
3.5. PIONEROS EN LA PSICOLOGÍA
COGNITIVA
La psicología cognitiva tiene una fecha de
nacimiento. Según Miller, la fecha de nacimiento de la
psicología cognitiva es el 11 de septiembre de
1956, con ocasión de celebrarse el segundo simposio
del MIT en el que se discutió sobre la teoría de la
información. A partir de esta fecha comenzaron a
publicarse de forma sistemática trabajos dedicados
expresamente a la ciencia cognitiva, y en particular a
la psicología cognitiva. A continuación presentamos
algunos autores que abrieron camino en el terreno de
la cognición.
3.5.1. George A. Miller
Hasta 1956, Miller venía trabajando de manera
bastante concienzuda en el lenguaje desde una
perspectiva conductista. Pero en ese año dio a conocer
tres trabajos innovadores que llamaron la atención de
la comunidad científica. Estos trabajos llevaban por
título: «El mágico número siete, más o menos dos»,
«Información y memoria» y «Memoria humana y
almacenaje de la información». En el primero de los
trabajos se discuten los límites en la capacidad de
aprehensión y almacenamiento en la memoria a corto
plazo. Se afirma que el límite de la memoria inmediata
se reduce a un número de unidades de información o
«bits» que oscila entre 5 y 9 ítems, ya se trate de
sílabas, palabras, números, oraciones, etc.
Las conclusiones a las que llega en su investigación
del mágico número siete son las siguientes: Primera, la
amplitud de juicio absoluto y la amplitud de la
memoria inmediata impone severas limitaciones sobre
la cantidad de información que somos capaces de
recibir, procesar y recordar. Organizando los estímulos
simultáneamente en varias dimensiones y
consecutivamente en una sucesión o grupos, nos las
arreglamos para romper (o por lo menos alargar) este
embotellamiento informativo.
Segunda, el proceso de recodificación es muy
importante en la psicología humana y merece mucha
más atención explícita de la que ha recibido. En
particular, el tipo de recodificación lingüística que
hace la gente ríe parece a mí que es la misma que la de
los procesos de pensamiento. Recodificar los
procesos es de interés constante para los clínicos,
psicólogos sociales, lingüistas, y antropólogos, y sobre
todo.
Tercera, los conceptos y las medidas aportadas por
la teoría de la información aportan una forma
cuantitativa de responder algunas de estas preguntas.
La teoría nos aporta una medida para calibrar nuestros
materiales de estímulo y para medir el desempeño de
nuestros temas.
Y finalmente, ¿qué hay del número mágico siete?
¿Qué acerca de las siete maravillas del mundo, los siete
mares, los siete pecados capitales, las siete hijas de Atlas
en las Pléyades, las siete edades del hombre, los siete
niveles del infierno, los siete colores primarios, las siete
notas de la escala musical y los siete días de la semana?
¿Qué sobre los siete puntos de la escala de medida, las
siete categorías para el juicio absoluto, los siete objetos
en el rango de la atención y los siete dígitos en el rango
de la memoria inmediata? Por ahora propongo que no se
haga ningún juicio. Quizá hay algo importante y
profundo detrás de todos estos sietes, algo simplemente
que nos invita a descubrirlo. Pero sospecho que es
puramente una perniciosa coincidencia pitagórica.
En colaboración con Eugene Galanter y Karl H.
Pribram publicó Planes y estructura de la conducta. Esta
obra presenta un modelo «abstracto». La unidad
estructural y descriptiva de la conducta es el
«TOTE» (test-operate-test-exit). La unidad «TOTE»
presupone las siguientes variables cognitivas:
1. La «imagen» está constituida por el conocimiento
acumulado y organizado de valores y hechos que
el organismo tiene de sí mismo y de su mundo.
2. El «plan» que guía la conducta es cualquier
proceso jerárquico del organismo que puede
controlar el orden en el que tiene que realizarse
una secuencia de operaciones. Un plan es para
el organismo esencialmente lo mismo que un
programa para el ordenador.
3. La «ejecución» es el conjunto de acciones en
secuencia y operaciones para llevar acabo el
plan. Un plan no necesariamente termina en
una acción manifiesta, como, por ejemplo,
cuando se pretende recoger o transformar
información sin más.
4. La «retroalimentación» es una idea fundamental
de la cibernética. Es un mecanismo que tiene la
propiedad de evaluar los resultados de las
acciones y, como consecuencia, ajustar o corregir
dichas acciones. Puede funcionar como
mecanismo de refuerzo, pero tiene mayor
alcance, ya que indica la dirección del ajuste
conductual.
3.5.2. Allen Newell y Herbert Simón
Los intentos de simulación del pensamiento humano a
través del ordenador trajeron cambios importantes en la
concepción y la metodología de la psicología. Durante la
«revolución cognitiva» acaecida durante los años 1960 y
1970, los psicólogos adoptaron el punto de vista de que el
cerebro humano actuaba como un procesador de
información; en otras palabras, operaba como un
ordenador. La inclusión de este instrumento en la
psicología permitió explorar muchos aspectos que
anteriormente eran imposibles de estudiar (memoria,
solución de problemas, percepción, etc.).
Allen Newell y Herbert Simón, investigadores del
Instituto Carnegie-Mellon, son probablemente los más
conocidos en el área de la inteligencia artificial. H.
Simón también es bien reconocido entre los
investigadores de la economía de empresa, hasta el
punto de que la Academia Sueca le otorgó el premio
Nobel en el año 1978.
Uno de los primeros intentos de simulación por
ordenador lo realizaron Newell y Simón. Estas primeras
ideas fueron desarrolladas en un programa de
ordenador —el Logic Theoríst— que intentaba ejecutar
operaciones similares a las que supuestamente hacen
los humanos cuando piensan. Dos años más tarde se
les unió J. C. Shaw y formularon el ambicioso
programa de simulación —SGP— que abarcaba una
gama amplia de problemas. El programa se organizó
alrededor de la siguiente idea: construir una máquina
capaz de solucionar cualquier problema; para ello,
compara cómo son las cosas al principio del problema,
estado inicial, y cómo serían cuando el problema se
hubiera resuelto, estado final. La diferencia entre
ambos estados se conoce como «espacio del
problema».
Según este modelo, la mejor manera de resolver el
problema es pensar en él en términos de reducción del
espacio del problema. Pero este último podría ser
bastante grande, incluso en los problemas más
sencillos, y explorar todas las posibilidades sería
engorroso. Así pues, Newell y Simón propusieron
que, en vez de usar un algoritmo (método que
considera todos los pasos posibles del problema
completo y calcula cuáles serían las consecuencias de
cada uno), es mejor abordar el problema utilizando el
«análisis medios-fines».
Con el ordenador surge la alternativa de la ciencia
virtual o artificial cuyas diferencias con la ciencia
natural fueron señaladas por el propio Simón. Cuatro
indicios distinguen el concepto «natural» del
«artificial»: a) las cosas artificiales están sintetizadas
por el hombre; b) las cosas artificiales pueden imitar la
apariencia de las naturales, y carecer, a un tiempo, de la
realidad de las últimas, ya sea en un aspecto o en
muchos; c) las cosas artificiales pueden caracterizarse
según sus funciones, objetivos y adaptación, y d) las
cosas artificiales suelen considerarse, especialmente al
ser diseñadas, como imperativas y como descriptivas.
3.5.3. Noam Chomsky
Abraham Noam Chomsky nació el 7 de diciembre
de 1928 en Filadelfia.
En 1955 comenzó a trabajar en su obra
Generative Grammar, que se basaba en la pregunta:
¿Cómo podemos crear una frase nueva si nunca
antes la hemos dicho? ¿Cómo, en otras palabras,
llegamos a ser tan creativos, tan generativos? Al
estudiar estas cuestiones se familiarizó con la lógica
matemática, la psicología del pensamiento y con las
teorías sobre el pensamiento de las máquinas. En
1957 publicó su libro Syntactic Structures. Aparte de
introducir su gramática generativa, introdujo la idea
de una habilidad innata para aprender lenguas.
Tenemos dentro de nosotros una «gramática
universal» lista para absorber los detalles de cualquier
lenguaje que se nos enseñe en una edad temprana.
Este libro afirma que existe una «estructura
superficial», una «estructura profunda» y «reglas de
transformación» que gobiernan las relaciones entre
ellas. La estructura superficial es esencialmente el
lenguaje tal como se presenta, un lenguaje particular
con reglas de fonética y gramática básica. La
estructura profunda es más abstracta y comprende el
significado y la gramática universal, que está en la
base de todos los lenguajes humanos. Por estructura
profunda del lenguaje, Chomsky quiere decir «la
tendencia innata para procesar la información de
manera lingüística».
Chomsky señala que el lenguaje de los niños es
esencialmente creativo a partir de una gramática
finita, de ahí que no exista una relación exacta entre
la «competencia lingüística» (conocimiento que se
tiene acerca de un lenguaje) y la «actuación» (uso
del lenguaje en situaciones concretas). La gramática
como teoría constituye un proceso de
descubrimiento, un procedimiento de decisión y un
procedimiento de evaluación, generando las
oraciones de la misma forma que lo haría una
máquina con un sistema de entrada, que utiliza una
serie de reglas generativas y una salida, las oraciones
producidas.
Los planteamientos de Chomsky son un verdadero
manifiesto en contra del conductismo. En sus escritos
trata de desvelar de una manera dramática los límites
de los supuestos conductistas —empirismo,
psicología animal, fisicalismo, asociacionismo, etc.—
para explicar de forma adecuada las conductas
humanas, ininteligibles sin postular unos genuinos
procesos internos determinantes de su organización.
3.5.4. Donald Broadbent (1926-1996)
Broadbent es un psicólogo inglés que hizo aportaciones
claves a la psicología cognitiva. Su libro Perception and
Communication, de 1958, es considerado por muchos
psicólogos como la contribución más importante al
desarrollo de la psicología cognitiva. Su gran
contribución fue proponer una teoría en la que se pone de
relieve cómo todos los aspectos de la cognición se
relacionan entre sí. Destacó la concepción de la cognición
como un sistema de procesamiento, a través del cual fluye
la información. En dicho sistema participan todos los
procesos de la cognición: percepción, atención,
memoria, decisión, etc. Los procesos deben estudiarse
dentro del funcionamiento integral del sistema;
analizar cada uno por separado no permite obtener una
visión total del sistema, ya que, aunque cada proceso
está separado, sin embargo, la interacción entre los
diversos componentes es fundamental.
Quizá una de las contribuciones más básicas de
Broadbent esté relacionada con la atención y la
memoria a corto plazo. Previamente, existían algunas
teorías de la atención como la propuesta por W.
James, pero la contribución teórica de Broadbent
otorgó un ímpetu tremendo para reavivar nuevamente
las cenizas. Este autor propuso el «modelo de filtro»
para explicar la atención.
Broadbent estudió en el laboratorio problemas del
tipo de control de tráfico aéreo. Quería saber cómo las
personas podían concentrar su atención («atención
selectiva») y, para ello, deliberadamente los
sobrecargó de estímulos. Una de las formas consistió
en enviar simultáneamente un mensaje (tres dígitos)
al oído derecho de una persona y un mensaje diferente
(otros tres dígitos) a su oído izquierdo. Se pidió a los
participantes que oyeran los dos mensajes al mismo
tiempo y repitieran lo que oían. Esto se conoce como
«escucha dicótica». Broadbent estaba interesado en
conocer cómo repetían los mensajes los participantes,
si lo hacían siguiendo el orden de entrada, o si
saltaban de un oído a otro. Broadbent comprobó que se
cometen menos errores cuando se repite oído por
oído y que los participantes tienden a reproducir la
información en este orden.
Según Broadbent y otros psicólogos cognitivos, el
sistema de procesamiento de información (la mente
humana) funciona de manera serial. Sólo es capaz de
procesar un estímulo en cada ocasión; en otras
palabras, sólo se procesa la información a la que se
presta atención. La parte más importante del modelo
es el filtro selectivo atencional. Este mecanismo es
una estructura de capacidad limitada situado a
continuación de la entrada sensorial; es decir, muy al
comienzo del sistema. El filtro puede actuar de dos
maneras: a) dejando pasar la información y los
estímulos atendidos, y b) bloqueando y rechazando
completamente la información no atendida impidiendo
su procesamiento posterior. Se trata, por tanto, de un
mecanismo que funciona de una manera bastante
rígida, para proteger al sistema de una posible
sobrecarga de información. Este modelo de filtro o
«cuello de botella», como se le suele conocer, tuvo
mucha popularidad hace algunos años. Recientemente,
nuevos datos aconsejaron su reformulación, como el
mismo Broadbent reconoció.
Aunque el modelo de filtro rígido ha sido
modificado y ampliado recientemente, su propuesta
fue tan innovadora que dio origen a otros modelos más
flexibles (Treisman, Neisser, etc.). Además, focalizó la
atención de la comunidad psicológica alrededor de una
serie de estudios experimentales sobre la memoria que
estaban realizados desde los supuestos del modelo de
procesamiento de información. Algunos experimentos
fueron realizados por Sperling, Averbach y Coriell sobre
la memoria sensorial y por Brown y Peterson sobre
memoria a corto plazo. Igualmente, tras la formulación de
su modelo de filtro de atención, florecieron otros modelos
de memoria, como los de Atkinson, Bower, Murdock,
Posner, Rumelhart, Norman, Waugh, Paivio y otros. No
hay que olvidar la destacada contribución al estudio
experimental de las relaciones entre el estrés y el
funcionamiento cognitivo. y algunas aportaciones de
carácter instrumental y práctico.
3.5.5. Jerome S. Bruner
Bruner es uno de los psicólogos con más carisma,
abierto y funcionalista, imaginativo experimentador, buen
conocedor de las tradiciones europeas y conductistas. Al
final de la Segunda Guerra Mundial, en la que participó
como especialista en el servicio de inteligencia, se dio a
conocer como el líder del movimiento New look. Este
movimiento, en la década de 1950, centró su interés en
el carácter selectivo y subjetivo de la percepción. Según
esta nueva concepción, el estudio de la percepción no
habría de poner el énfasis en el estímulo y en las vías
sensoriales, sino en el estado motivacional del organismo.
La percepción viene determinada en forma muy
importante, si no decisiva, por procesos centrales como
necesidades, motivos, predisposiciones y experiencia del
perceptor.
Bruner, desde muy temprano, había mostrado interés
por los temas mentales —sin faltar escarceos con la
«mente inconsciente»— y por su tratamiento teórico a
partir del reconocimiento de un sujeto activo. El
pensamiento de Bruner, amplio y abierto, fue a
contracorriente del espíritu norteamericano, sobre todo
en esa marcada tendencia a la simplificación y al
pragmatismo. Su manera de pensar estaba más en
sintonía con los aires europeos. Bruner era un psicólogo
con grandes intuiciones que intentaba demostrar
experimentalmente y para ello contaba con sólidos
conocimientos metodológicos y un buen equipo en las
universidades de Harvard y Oxford.
En 1956, Bruner, conjuntamente con Goodnow y
Austin, escribió un libro que marcó época, Un estudio del
pensamiento. Se trata de la obra estándar sobre
«adquisición de conceptos». La principal idea teórica de
Bruner es que el aprendizaje es un proceso activo en que
las personas construyen nuevas ideas o conceptos
basándose en su conocimiento actual o pasado. El
aprendiz selecciona y transforma información, construye
hipótesis y toma decisiones, confiando en una estructura
cognitiva para hacerlo. La estructura cognitiva (es decir,
un esquema o modelo mental) aporta significado y
organización para las experiencias y permite al
individuo ir más allá de la información recibida.
La teoría constructivista de Bruner es un esquema
general para la enseñanza basado sobre el estudio de la
cognición. Gran parte de su teoría tiene relación con las
investigaciones sobre el desarrollo del niño
(especialmente Piaget). Esta obra en colaboración se
centra en los procesos de razonamiento en el
aprendizaje de la lengua en los niños pequeños.
3.5.6. Ulric Neisser
Ulric Neisser nació en Kiel, Alemania, en 1928, y
se trasladó a Estados Unidos con su familia a la edad
de tres años. Neisser se doctora en Harvard en 1956 e
inmediatamente comienza a trabajar en el MIT en las
investigaciones que dicho centro venía realizando en
el área de la IA. En el año 1967 escribió el libro
Psicología cognitiva, que marca el comienzo oficial del
movimiento cognitivo. Además de destacar los temas
centrales: percepción, atención, lenguaje, memoria y
pensamiento, analiza los procedimientos
experimentales, los instrumentos y las variables objeto
de estudio. Diez años más tarde, publicó Procesos
cognitivos y realidad, con menor tinte experimental,
pero con gran rigor científico, y Principios e
implicaciones de la psicología cognitiva. En estos
libros critica la orientación que adoptan las
investigaciones de la psicología cognitiva por carecer
de «validez ecológica»: la psicología cognitiva «se ha
centrado sobre todo en el análisis de situaciones
experimentales específicas en detrimento del mundo
exterior al laboratorio».
Una de las aportaciones más referenciadas es el «ciclo
perceptual» de Neisser, que explica en el libro Procesos
cognitivos y realidad. Para Neisser prestar atención no
es en absoluto una cuestión de eliminación por filtración
de la información. En vez de ello, buscamos
información de forma activa, basándonos en nuestras
experiencias previas y en lo que hemos llegado a
esperar. El ciclo perceptual muestra que no nos
limitamos a recibir pasivamente información, sino que
desarrollamos «esquemas anticipatorios» que nos
proporcionan una especie de «plan», con probabilidades
de ocurrencia. Esto guía la elección de lo que recibimos
de nuestro entorno. A su vez, la información que
recibimos se ajusta a nuestros esquemas y los modifica,
además de canalizar lo que buscaremos a continuación.
La información que contradice o pone en tela de juicio
un esquema anticipador atrae particularmente nuestro
interés y nos hace redirigir la atención.
3.6. PSICOLOGÍA COGNITIVA Y
PROCESAMIENTO DE INFORMACIÓN
Cuando se intentó explicar el funcionamiento de los
procesos cognitivos los psicólogos encontraron en el
ordenador un modelo que creyeron muy adecuado para
este fin. Existe una cierta analogía entre el computador y
el cerebro, la información entra por los sentidos y,
gracias a operaciones mentales. se modifica dicha
información, nuevos operadores actúan sobre esta
información hasta que, finalmente, así sucesivamente, se
almacena en la memoria o genera una conducta
específica.
Los procesos mentales funcionan como un programa
de ordenador: manipulando los datos en una serie de
fases o niveles, seleccionando la información apropiada
y aplicándole una secuencia de operaciones. La analogía
del ordenador tiene dos versiones:
— FUERTE. Los ordenadores y el cerebro no son
sino dos tipos de instrumentos construidos con
diferentes materiales pero con funciones idénticas.
— DÉBIL. El ordenador y la mente humana tienen
funciones semejantes, no idénticas; el ordenador
nos sirve para comprender mejor la forma de
actuar de la mente.
Tanto el ordenador como la mente utilizan los
siguientes instrumentos:
1. Análisis del procesamiento de la información: se
refiere al análisis de cómo se adquiere la
información, se elabora y se responde.
2. Análisis de procesos cognitivos: interesa la forma
en que cada sujeto procesa la información en un
nivel de la cognición (pensamiento, razonamiento,
memoria, atención, percepción, etc.).
5. Análisis de las estructuras cognitivas: se interesa
por las representaciones del mundo que tiene
cada sujeto.
Para los psicólogos cognitivos, el modelo de
procesamiento de información parte de tres supuestos:
— La mente puede ser concebida como un sistema
donde se representan símbolos, reglas e
imágenes. La finalidad de la psicología
cognitiva es describir las funciones de estos
símbolos, reglas, imágenes, esquemas y
cualquier otra forma de representación mental. Se
acepta como evidente que los procesos mentales
están representados en el sistema nervioso central,
aunque no exista consenso sobre la importancia
que deba dar se a su estudio pormenorizado.
— La mente se concibe como una entidad activa que
no se limita a recibir información que le llega
del medio interno y externo, sino que la
información es elaborada. En el proceso de la
elaboración participan elementos que
originalmente no estaban en la información
recibida. La conducta final es el resultado de la
información de entrada más la información
añadida como consecuencia de la elaboración
interna.
- El sistema de procesamiento humano es un
sistema limitado tanto en su estructura como en
los recursos. Ejemplos de estas limitaciones son
la memoria a corto plazo, la atención / la
capacidad de procesar múltiples estímulos a un
mismo tiempo.
Los neurocientíficos consideran que el estudio del
cerebro suministra las respuestas a los problemas
planteados sin necesidad de recurrir al ordenador.
El modelo de procesamiento de información
presenta algunas. Una de las debilidades es el énfasis
excesivo en el procesamiento ascendente (data
driven), en contra del procesamiento descendente
(conceptually driven). Un procesamiento ascendente es
aquel que viene determinado por la naturaleza de los
datos o estímulos, no se ve influido por la experiencia
o las suposiciones sobre los datos que se van a
procesar.
Otra debilidad es la excesiva importancia del
procesamiento en serie o secuencial. Por ejemplo, los
humanos no pueden oír dos estímulos al mismo
tiempo. La experiencia demuestra que los humanos,
aun aceptando las limitaciones, podemos procesar los
estímulos en paralelo o en cascada.
Finalmente, otra limitación que ha sido notable en la
primera psicología cognitiva es que todo se hacía en los
laboratorios y con un acento muy academicista, en lugar
de atender a problemas aplicados y cercanos a las
inquietudes de los seres humanos.
Este acusado énfasis en lo experimental y artificial
dio pie a Neisser para criticar la escasa o nula validez
ecológica de los experimentos. Científicamente estaban
formulados de manera correcta, pero muchas veces los
experimentos no tenían nada que ver con el
comportamiento de las personas en los ambientes
naturales. La situación ha cambiado de forma radical
en los ochenta. Actualmente se realizan investigaciones
en el área del lenguaje, un tema que se considera central
en la psicología cognitiva. En el área de la memoria
también se están desarrollando investigaciones muy
interesantes en aspectos como la memoria de testigos,
que tienen gran importancia a la hora de emitir juicios.
Quizá uno de los cambios más dramáticos es la enorme
investigación con cerebros lesionados para tratar de
descubrir las anormalidades de su funcionamiento y a
partir de ahí extrapolar a cerebros sanos.
Aunque el modelo del ordenador ha sido muy
fructífero por provocar una gran cantidad de
investigación, sin embargo, este modelo no se adapta
bien al funcionamiento del cerebro. El ordenador
procesa la información en serie, mientras el cerebro
lo hace en paralelo. El modelo de la mente como
procesador serial no puede explicar la conciencia y el
aprendizaje, ni al supuesto de los «símbolos
inconscientes». Por otra parte, el ordenador utiliza
artificialismo, no situaciones reales como hace la
mente, ni explica la habilidad de la mente para captar
significados globales en las situaciones que enfrenta.
Por tanto, cualquier modelo de la mente debe cumplir
ciertas condiciones: flexibilidad y estructuración al
mismo tiempo, afrontar condiciones de degradación del
medio interno y externo, responder a demandas
múltiples, encontrar rápidamente significados sin
necesidad de exhaustivos algoritmos, completar
patrones perceptivos sin agotar toda la información
lógica, acceder al conocimiento por vías alternativas y
tener capacidad de adaptarse en virtud de experiencias
anteriores.
Para responder a estas exigencias se han formulado
teorías neoconexionistas que postulan la interconexión
de los distintos elementos (como neuronas) entre el
input y el output, conectados en serie y en paralelo,
existiendo entre ellos un patrón de conectividad y
transmisión de la información en términos de conexiones
excitatorias o inhibitorias.
3.7. PLURALIDAD DE LA PSICOLOGÍA
COGIMITIVA
Una de las características que ha sido signo de
identidad de la psicología es la diversidad de enfoques,
escuelas y opiniones. Esto, posiblemente, se deba a que
la psicología es una ciencia blanda, poco desarrollada y
fluctuante. Si revisamos con detenimiento los autores
estudiados anteriormente vemos que están interesados en
diferentes aspectos de la cognición: pensamiento,
percepción, memoria, etc.
También son muy diferentes los distintos puntos de
arranque y los modelos epistemológicos que sustentan
las teorías. Existen psicólogos cognitivos que apuestan
por los modelos basados en el ordenador y defienden la
inteligencia artificial dura. Estos autores consideran la
mente como un tipo de programa de ordenador en el que
cualquier información compleja puede descomponerse y
especificarse en un nivel inferior. La versión más fuerte
de funcionalismo, el funcionalismo de la máquina de
Turing admite que un ordenador debidamente
programado que tenga la misma organización funcional
que la mente humana, puede tener realmente los
estados mentales que simula. La inteligencia artificial
débil defiende que la correspondencia entrada-salida es
una función computable. Lo importante es escribir
programas de ordenador que simulen la conducta
humana. Los defensores de esta postura, en contra de los
anteriores, no suponen que la máquina tenga estados
mentales. Un tercer modelo es el conexionismo. En este
modelo las representaciones mentales están
neurológicamente distribuidas en redes neuronales, esto
es, sus estados de actividad se corresponden con
patrones de actividad neuronal. Esta concepción
apuesta por el estudio de la neurociencia. Al revés que
los modelos cognitivos, estos modelos defienden la
necesidad de conocer cómo es la estructura del cerebro
para poder desarrollar modelos computacionales que se
adapten a dicha estructura. Otros planteamientos
teóricos hacen relación a la concepción de la mente. La
mente se puede entender de dos maneras: a) mente
fenoménica, que supone que existe un lugar de la
experiencia consciente del mundo y de uno mismo,
inalcanzable a los demás, y b) la mente como un
sistema de procesamiento de la información que actúa
como el lugar del conocimiento, razonamiento e
inteligencia.
Algunos autores defienden la identidad mente -
cuerpo (Feigl, Place, Amstrong, entre otros). Los
términos mentales y los físicos son dos formas de
referirse a los mismos estados del cerebro. Los
funcionalistas, por el contrario, afirman que los estados
mentales no pueden ser estados del cerebro, ya que los
estados mentales pueden concretarse en
representaciones que pueden funcionar en instrumentos
y máquinas construidos de forma muy diferente al
cerebro. El epifenomenalismo defiende que los
elementos de la experiencia consciente están causados
por factores cerebrales, pero no tienen ningún efecto
causal sobre la conducta. Una postura distinta defiende la
diferencia entre mente y cuerpo (Popper, Eccles, Sperry
y otros). Popper y Eccles además de proponer el
«mundo 1» y el «mundo 2», mundo físico y mental,
respectivamente, proponen el «mundo 3», gobernado
por los principios de la lógica, integrado por teorías
científicas y trabajos literarios.
La psicología cognitiva ha ampliado su campo de
influencia a prácticamente todos los ámbitos de la
psicología teórica y aplicada. Existen psicólogos que
orientan sus intereses por los aspectos sociales, otros
por la evaluación de la personalidad y la clínica, y
otros, en fin, por el desarrollo humano. Uno tiene la
tentación de preguntar ¿qué es lo que les une para que
los clasifiquemos como psicólogos cognitivos? Un
aspecto común es el ataque al unísono del
conductismo, particularmente al condicionamiento
operante. Otro rasgo común es la aceptación del
modelo de procesamiento de la información. Pero
aceptando estos rasgos comunes existen diferencias
importantes entre ellos. Podríamos organizar el campo
en tres grupos:
1. Los psicólogos que mantienen la tradición
experimental cuyo interés es la investigación
y a partir de los datos proponer teorías que
expliquen el comportamiento humano. Una
diferencia de estos psicólogos con respecto a
los conductistas de corte experimental es que
sus investigaciones se realizan con humanos.
2. Los psicólogos interesados en la ciencia
cognitiva cuya tarea básica es construir modelos
computacionales movidos por la creencia de que el
ordenador sirve para estudiar la mente y las
formas de razonar humanas. Los psicólogos
interesados en los desarrollos de la
neuropsicología. Este grupo, como hemos
mencionado, se interesa por estudiar los
patrones de comportamiento de los cerebros
dañados movidos por la creencia de que su
estudio aportará información relevante para
entender el funcionamiento del cerebro en
personas normales. El punto de partida de este
grupo es que la cognición se compone de varios
módulos neurológicos, algunos de los cuales
pueden estar dañados y otros sanos.
Un cuarto grupo integra a los psicólogos cognitivos
aplicados. Estos psicólogos difieren de los otros grupos
en las áreas de interés, los métodos y las investigaciones
que desarrollan. Sin embargo, los psicólogos aplicados
pueden compartir muchas características con otros o
varios grupos, por lo que a veces es difícil separarlos.
3.8. CAMPOS DE INTERÉS DE LA
PSICOLOGÍA COGNITIVA
3.8.1. Representación, clasificación y
categorización
Una de las primeras y principales preocupaciones de
los psicólogos cognitivos ha sido la cuestión de la
representación mental del mundo físico. Nuestro
conocimiento representativo, ya sea sobre objetos
materiales o abstractos, es fundamental tanto para
nuestra supervivencia como para el tipo de vida
típicamente humana. El «objeto en sí», en expresión
kantiana, no sabemos cómo es, lo único que conocemos
del mundo y de nosotros son las representaciones
mentales que tenemos de ellos.
Por otra parte, sin la habilidad para organizar la
información nos veríamos totalmente perdidos en un
mundo caótico donde llegan millones de elementos
informativos cada instante. Está claro que usamos alguna
forma de representación mental que nos ayuda no sólo a
almacenar la información, sino también a dirigir y guiar
nuestras acciones sobre la base de nuestro conocimiento
del mundo y de nuestra experiencia previa.
Son varias las formas de clasificación que se pueden
utilizar. La primera de ellas fue planteada por Collins y
Quillian. En este modelo se señala que los
conocimientos en la memoria están organizados de
forma jerárquica}. Las unidades básicas son conceptos
que mantienen relaciones entre sí. Las relaciones pueden
ser de dos tipos: de inclusión (por ejemplo, «la
golondrina es una clase de pájaro») y de propiedad (por
ejemplo, «la golondrina tiene alas y vuela»). En este
ejemplo vemos cómo los conceptos se organizan por
categorías que incluyen objetos, animales, etc., y cómo
cada concepto tiene un conjunto de propiedades. Los
conceptos se organizan en niveles que van de lo
subordinado (más específico) a lo supraordinado (más
abstracto).
Otra forma de clasificación son los esquemas.
Bartlett introdujo en la psicología la teoría de los
esquemas y su influencia en el recuerdo. Los
esquemas son conocimientos almacenados o
representados en la memoria como consecuencia
de las experiencias pasadas. Según esta teoría, lo
que recordamos está influido por los conocimientos
previos. El conocimiento almacenado en la
memoria está organizado formando una serie de
esquemas (representaciones mentales) que
contienen el conocimiento que poseemos sobre un
objeto o una situación más compleja.
Otra forma de organizar el conocimiento es
mediante los guiones. Éstos nos permiten
identificar lo que esta ocurriendo y saber cómo
actuar ante determinada situación. Cuando oímos
«Billetes, por favor», inmediatamente creamos un
guión que dé sentido a esta sentencia: nos
encontramos en un vagón del tren, vemos en la
puerta del departamento a un señor vestido de azul
oscuro, con una gorra y una señal en su chaqueta
que lo identifica como «interventor».
Inmediatamente nos ponemos a buscar nuestro
billete y se lo mostramos.
Una tercera forma de representación son los
sistemas de producción. El conocimiento se
organiza mediante un sistema de reglas compuesto
de dos elementos «si» y «entonces» (por ejemplo:
«si un animal tiene un cuello muy largo y manchas
marrones, entonces es una jirafa»). La idea
básica del sistema de producción es que la
cognición humana consiste en un conjunto de
condiciones-acciones.
Una cuarta forma de representación del
conocimiento es la imagen) Solemos decir que una
imagen vale más que mil palabras. Todos los seres
humanos representamos el conocimiento
mediante conceptos, que pueden referirse a objetos
concretos o abstractos. El lenguaje juega un papel
importantísimo en la representación mental del
mundo y en su categorización. También se puede
utilizar un formato más concreto: las imágenes
visuales o auditivas. Esta forma de
representación también se denomina “mapas
cognitivos” o representaciones de lugares u
objetos.
3.8.2. Lenguaje
Para la mayoría de los psicólogos cognitivos el
lenguaje es la pieza fundamental de la psicología. Desde
los años sesenta asistimos a un desarrollo de la
psicolingüística más plural y maduro que en todos los
años anteriores. Chomsky y Miller tuvieron un papel
preponderante en el desarrollo de la psicolingüística,
aunque no fueron nada despreciables las aportaciones de
McNeil, Fodor, Osgood y Skinner, algunos fuera de la
órbita cognitiva. En la década de los sesenta hay un
predominio por el estudio de la sintaxis, estimulado
principalmente por Chomsky y sus seguidores. La
gramática chomskiana trata de establecer los compónentes y
reglas necesarios para identificar la estructura profunda
de las relaciones lingüísticas que subyace a todas las
oraciones bien formadas de una lengua y sólo a ella, así
como las reglas de transformación que permiten generar
las estructuras específicas.
En los años setenta, los estudios psicolingüísticos se
orientaban hacia la construcción de un modelo de
actuación que guiara la investigación hacia los
mecanismos y condiciones de la producción, percepción
y comprensión del lenguaje. El énfasis se ponía en el
estudio de los aspectos pragmáticos y la comprensión del
lenguaje en contextos naturales. Algunos científicos se
orientaron hacia la compresion del lenguaje; por; medio de
los ordenadores. Se quería conocer si éstos podrían
comprender el lenguaje y producir ciertas órdenes,
siempre y cuando incluyeran programas donde se
especificara las reglas de sintaxis y de semántica.
La incorporación del concepto de esquemas en el
lenguaje significó un cambio notable, sobre todo en lo
que respecta a la comprensión de textos, ya que cuando
se oye o se lee un relato se espera que haya unos
personajes, una localización temporal de las acciones,
un comienzo, un desenlace, etc., y de esta forma se
iría construyendo la representación del texto de acuerdo
con el esquema correspondiente.
3.8.3. Aprendizaje
Existen dos maneras de investigar el aprendizaje en
ciencia cognitiva: el aprendizaje de las máquinas y el
aprendizaje humano. El aprendizaje de las máquinas se
puede hacer mediante los sistemas experto. Éstos son
sistemas de ordenador diseñados para aumentar el
rendimiento del experto, almacenando el conocimiento
conseguido por muchos expertos. En esencia, los
sistemas experto permiten asistir en el análisis y
solución de problemas complejos, intentando simular la
conducta de un experto humano en un dominio
específico. Un sistema experto debe incluir todo el
contenido que manejaría un experto, y, además, la forma
de razonamiento de éste; es decir, la manera en que el
experto utiliza el conocimiento.
Recientemente un grupo de psicólogos cognitivos
trabaja en el diseño de entornos de aprendizaje basados
en el ordenador. Estos psicólogos plantean que una
buena teoría del aprendizaje con este propósito debe
incluir tres componentes: 1) un componente de
dominio experto en el que se describan las ejecuciones
competentes en un campo específico; 2) un
componente de adquisición en el que se expliciten los
procesos de aprendizaje y desarrollo necesarios para
alcanzar la ejecución experta, y 3) un componente de
intervención que describa los métodos adecuados de
enseñanza y las estrategias instruccionales para
producir esos procesos de aprendizaje.
Desde que los psicólogos empezaron a realizar
simulaciones con el ordenador, el conocimiento
acerca del aprendizaje y la toma de decisiones ha
crecido de una manera impresionante. Ahora se
conocen mejor las fortalezas y debilidades del
pensamiento humano. Uno de los aspectos que ha sido
aclarado son las diferencias entre el comportamiento
experto y el comportamiento de los principiantes en un
dominio específico. Cada campo, desde la
automoción hasta la música, tiene sus expertos,
personas que aprenden rápido y resuelven los
problemas en poco tiempo, en comparación con los
principiantes. Los científicos aseguran que,
independientemente del campo de dominio, llegar a
ser un experto exige un promedio de 10 años de trabajo
aplicado concentrado. Durante ese tiempo el experto
va construyendo gran cantidad de conocimientos
especializados. Este conocimiento es lo que otorga al
experto un gran poder. El conocimiento de los
expertos se diferencia del rendimiento de los
principiantes en varios aspectos: a) fluidez, es la
facilidad aparente con la que rinde un profesional,
pasa de una acción a otra con elegancia y fluidez; b)
automaticidad, el experto realiza las acciones sin ser
consciente exactamente de lo que hace; c) esfuerzo
mental, las tareas las realiza sin fatiga mental, sin
necesidad de guiar cada acción, y d) tensión, las tareas
las realiza relajadamente y sin dedicar muchos
recursos.
Uno de los problemas que suele encontrarse
cuando se intenta desarrollar un sistema experto por
ordenador es la forma que suelen tener los expertos
humanos de conocimiento implícito, que no es fácil de
verbalizar y, por tanto, es difícil incluir en la base de
datos. Además, «los expertos humanos» pueden cubrir
un amplio espectro de preguntas, y pueden generalizar
a partir de los casos previos reconociendo modelos, aun
cuando los elementos particulares del caso no sean los
mismos. Por estas razones, es improbable que los
sistemas de ordenador puedan por sí mismos llegar a
reemplazar nunca a un experto humano; pero pueden
proporcionar ayuda considerable a un profesional y
conocimiento detallado.
El aprendizaje humano se ha centrado
principalmente en la adquisición de procedimientos.
Uno de los modelos ampliamente conocido es el ACT
(Adaptative Control of Thought) de J. Anderson, que
consta de tres memorias: la memoria declarativa
(conocimiento del «qué» son las cosas), que contiene el
conocimiento permanente sobre el mundo; la memoria
de trabajo, que es una memoria de funcionamiento
temporal, y la memoria de reglas de producción, que
almacena las formas de actuación humana (los
procedimientos, «cómo» hacer algo). Las informaciones
de las memorias se representan de maneras diferentes: la
declarativa en forma de redes semánticas y la
procedimental en forma de reglas de producción del tipo
antes descrito («si... entonces»).
Además de incluir tres memorias, el modelo se
desarrolla en tres etapas. La primera etapa tiene que ver
con la comprensión del problema y la activación del
conocimiento declarativo pertinente («ahora que ya se
de qué va el problema y tengo los conocimientos para
abordar el mismo, debería resolverlo utilizando tales
instrumentos y procedimientos»). La segunda etapa
consiste el conocimiento declarativo en un
procedimiento concreto. No se trata de verbalizar la forma
de actuación, sino la ejecución. Durante esta etapa el
aprendiz tiene que poner todas las piezas de la ejecución
juntas para lograr ensamblar la acción coherentemente y
siguiendo las secuencias apropiadas. Es de esperar que
esta etapa sea algo lenta. Cuando estoy aprendiendo a
montar en bicicleta tengo que acoplar muchas acciones
hasta lograr el procedimiento en su conjunto. La tercera
etapa es la de implantación y refinamiento de la etapa
anterior mediante la práctica, lo que va a permitir
automatizar el procedimiento. A medida que más
practico el procedimiento mejor acoplamiento se
obtiene. Esta tercera etapa se logra mediante dos
mecanismos de aprendizaje fundamentales, la
generalización y la discriminación.
A finales de los ochenta Johnson-Laird, Newell y
Rosenbloom propusieron una nueva arquitectura para el
aprendizaje humano mediante un modelo computacional
llamado SOAR. Se trata de un sistema para resolver
problemas construido con reglas de producción. Cuando
el programa se enfrenta con un problema y surge un
atasco, inmediatamente se fija una submeta para
resolver el atolladero. Si se tiene éxito, el procedimiento
se guarda en la memoria para ser usado en el futuro
cuando se vuelva a presentar un atasco parecido. Así se
procede sucesivamente hasta que el problema es
resuelto completamente. Esta clase de estrategia o
procedimiento ha sido observado extensamente en
estudiantes que se enfrentan a problemas de resta.
Cuando los procedimientos que dominan no funcionan
se produce un obstáculo. En este punto los estudiantes
recurren a otros procedimientos que pueden ser
correctos o incorrectos.
La formación de conceptos y categorías y las
estrategias usadas por los aprendices es un campo
fascinante donde se pueden analizar los modos de
aprendizaje que ponen en marcha las personas para
adquirir una serie de conceptos definidos. En el estudio
de las categorías naturales (frutas, coches, utensilios,
etc.) se han encontrado que existen ciertos ejemplares
llamados prototipos que poseen un mayor número de
propiedades o atributos de la categoría. El prototipo
por ser el mejor ejemplar de la categoría funciona
como patrón de referencia para clasificar otros
ejemplares desconocidos.
3.8.4. Pensamiento
El pensamiento ha sido explorado estudiando
principalmente la forma como resuelven los problemas
las personas. Prácticamente, cualquier actividad
cognitiva puede ser interpretada en términos de solución
de problemas. Existe un problema cuando alguien se
encuentra en una situación no satisfactoria y quiere
pasar a otra que considera más satisfactoria que la
anterior. La resolución de un problema es una actividad
cognitiva enfocada hacia un objetivo. Para que se
solucione un problema es necesario que el resolutor
tenga nuevas reglas o planes de acción, o reestructure
las que posee. Si las personas simplemente aplican
reglas que han utilizado antes en situaciones similares,
no tiene lugar una auténtica resolución de problemas. La
verdadera solución de un problema implica la
combinación de reglas o la formulación de nuevas
reglas de orden superior no muy usual; esto conduce a
un cambio permanente en las capacidades de las
personas.
Las teorías más modernas de la IA plantean que
resolver problemas es un proceso cognitivo dirigido a
transformar una situación no deseada en una situación
deseada, cuando no existe un método conocido de
solución. Este planteamiento implica que resolver
problemas conlleva: a) una actividad cognitiva dentro
del sistema mental; b) un proceso de manipulación de
conocimientos almacenados en la memoria; c) una meta
que se quiere alcanzar y hacia la que se orientan los
esfuerzos, y d) una actividad que difiere de persona a
persona.
Uno de los psicólogos de la Gestalt que ha
contribuido de manera fundamental al desarrollo del
pensamiento es Duncker. Para este psicólogo «un
problema emerge cuando un organismo vivo tiene un
objetivo, pero no sabe cómo conseguirlo». Este
planteamiento se puede dividir, siguiendo las teorías
contemporáneas de la cognición en tres etapas: un
estado inicial, un estado final y un conjunto de
procesos intermedios llamados operadores que
acortan las distancias entre el estado inicial y final. Un
ejemplo puede ayudarnos a comprender las ideas
anteriores. En el ajedrez, el estado inicial es la
colocación de las piezas en el tablero al inicio del
juego, y el final (para cada uno de los jugadores) es
cualquier posición en la que las piezas de un
adversario dan jaque mate al oponente, o en la que el
oponente se rinde. Los procesos son posibles acciones
que pueden llevarnos del estado inicial al estado final; en
ajedrez son los movimientos permitidos por las reglas
de juego.
3.8.5. Percepción
Uno de los trabajos pioneros en percepción es el de
David Marr, quien formuló la teoría computacional de la
visión. Esta teoría tiene que ver con el análisis de las
primeras etapas de la percepción y constituye un modelo
computacional de cómo el sistema visual usa la
información retinal. Sin embargo, no parece que esta
teoría sea muy adecuada para explicar cómo ocurren las
etapas últimas a nivel del cerebro.
Según Marr, ver exige una secuencia de
representaciones, cada una derivada de su predecesora
por una serie apropiada de procesos. La tarea del
procesamiento visual consiste en crear una descripción
del objeto visto a partir de la imagen que se presenta.
Cuando vemos una escena empezamos con una imagen
de la que obtenemos una «descripción del nivel de
grises» que nos informa de la intensidad de cada punto
de la imagen. A partir de ésta desarrollamos un «boceto
original» que proporciona importante información
bidimensional sobre la imagen, incluyendo los cambios
de intensidad, su distribución geométrica y su
organización. El siguiente paso en el procesamiento
visual es el «boceto en 2 1/2D dimensiones», que
proporciona información sobre la orientación, la
profundidad aproximada y el movimiento de los objetos
y las superficies. El nivel final es la «descripción
tridimensional del objeto», que detalla las formas y su
organización espacial. En este estadio ocurre el proceso
de reconocimiento.
El modelo conexionista de McClelland y Rumelhart
se centra, sobre todo, en las últimas etapas de la
percepción o reconocimiento, es decir, en el momento en
que los estímulos llegan al sistema y se tiene que
comparar el patrón de entrada con el patrón almacenado
en la memoria, ya se trate de letras, palabras u objetos.
En el modelo conexionista, el emparejamiento se realiza
por medio de redes conectadas donde participan procesos
ascendentes y descendentes para activar e inhibir. Según
este modelo, la identificación de palabras pasa por tres
niveles: nivel de rasgos, nivel de letras y nivel de
palabras; además, hay otros niveles superiores: sintáctico
y semántico. Cuando se presenta una palabra, el sistema lo
primero que hace es identificar los rasgos, luego las letras
y finalmente las palabras. Cada uno de los niveles tiene
unos detectores especializados o «unidades funcionales»
con una misión específica. Los detectores,
independientemente del nivel, operan simultáneamente.
El sistema funciona como un mecanismo jerarquizado, o
mejor, una red con niveles, y dentro de cada nivel y
entre los niveles existen fuerzas activadoras y fuerzas
inhibidoras.
3.8.6. Memoria
Dos hechos marcaron el antes y el después en las
investigaciones de la memoria: la aplicación del
modelo de procesamiento de información propuesto
por Shannon y Weaver y la introducción de nuevas
técnicas experimentales. Al igual que ocurre con la
atención, Broadbent fue un punto de arranque para
investigar la memoria desde el enfoque cognitivo.
Este autor habló de dos tipos de memoria, siguiendo a
James: la memoria S o sensorial, que no analiza la
información y decae muy rápidamente, y la memoria
P, que tiene capacidad limitada y almacena
información categorizada.
A partir de estas ideas se desarrollaron importantes
modelos de memoria. Sperling estudió la estructura y
funcionamiento de la memoria sensorial. Propuso
técnicas de investigación novedosas como el informe
parcial. Con esta técnica descubrió que las personas
disponen de más información en su memoria de la que
pueden dar cuenta directamente. Miller descubrió las
limitaciones de la memoria a corto plazo al igual que
sus características funcionales y las diferencias con
respecto a los otros tipos de memoria. Atkinson y otros
integraron los conocimientos que se tenían de las
diversas memorias en un modelo de memorias
múltiples: sensorial, a corto plazo y a largo plazo. En
este modelo se especifican las relaciones entre la
memoria y los mecanismos de control. Por ejemplo, se
introduce el concepto de automatización de algunas
operaciones.
Algunos investigadores no estaban muy conformes
con la idea de múltiples memorias. Plantean que la
memoria es una y lo que existen son niveles
diferentes de procesar la información: el nivel
superficial (atiende a los rasgos sensoriales), el nivel
fonológico o acústico (atiende a los rasgos
acústicos) y el nivel profundo (atiende al significado).
Cada uno de los niveles de procesamiento deja una
huella en la memoria. El nivel superficial deja una
huella muy endeble que rápidamente desaparece,
mientras que la huella del nivel profundo es duradera
porque se ha procesado con mayor esfuerzo mental.
Una idea que encandiló a los psicólogos de hace
treinta años la ofreció Tulving, un advenedizo a la
psicología de otro campo: la distinción entre memoria
semántica y memoria episódica. La memoria
episódica es una memoria de larga duración
relacionada con algún episodio de la vida del
individuo. La memoria semántica es el componente de
la memoria en la que se almacena el conocimiento
del significado de las palabras, los conceptos y el
conocimiento del mundo. Desde el punto de vista
neurológico y clínico estas memorias ofrecen muchas
posibilidades para explicar las disfunciones de algunos
cerebros.
3.8.7. Atención
En relación con la atención los trabajos de Broadbent
analizados previamente, sirvieron de entrada a otros
modelos, como el de Deutsch-Deutsch y el de
Treisman, Dichos modelos mantienen la idea original
del filtro como mecanismo protector para evitar que el
sistema se sobrecargue de información que no puede
atender adecuadamente. La diferencia entre ellos es que
Broadbent coloca el filtro al comienzo, antes del
análisis perceptual, mientras que Deutsch-Deutsch lo
coloca antes de la selección de la respuesta. Treisman,
en cambio, habla de un filtro atenuado que permite que
otras informaciones no atendidas puedan ser procesadas.
Kahneman va en otra dirección a la marcada por
Broadbent. En lugar de poner el acento en el filtro lo
pone en los recursos que hay que disponer cuando
tenemos que atender varios estímulos a la vez o cuando
tenemos que realizar varias tareas simultáneamente.
Como los recursos son limitados, la demanda de las
tareas puede exceder nuestra capacidad de atención con
la consiguiente disminución en el rendimiento. Un
medio que tiene el propio sistema para economizar
recursos es realizarlos de forma automática, ya que estas
tareas no consumen atención y, por tanto, pueden
realizarse simultáneamente con otras tareas sin que
causen interferencias.
3.8.8. Redes neuronales
Hace unos cuantos años, Lashley tenía la esperanza
de descubrir la localización cerebral de la memoria,
enseñando a los animales tareas específicas y luego
destruyendo zonas cerebrales determinadas. Los
experimentos fueron poco satisfactorios, pues la
localización era elusiva y el olvido de lo aprendido
dependía de la cantidad de corteza lesionada y no de su
localización. Con bastante sentido del humor Lashley
decía que, puesto que la memoria no estaba en ninguna
parte, «el aprendizaje no era posible». El problema es
que la memoria se almacena de manera redundante en
la corteza cerebral y también en diversas estructuras
neuronales.
Más tarde, Hebb discípulo de Lashley propuso un
modelo, que ha tenido una gran influencia, sobre la
manera en que el cerebro almacena los recuerdos. Hebb
supuso que las bases fisiológicas son diferentes en la
memoria a corto plazo y en la memoria a largo plazo.
En la primera un circuito de neuronas, que Hebb llamó
«circuito reverberante», se dispara según una pauta
repetida, produciendo una huella en la memoria. Esta
huella es inestable y no causa un cambio en la estructura
física del cerebro. Para que la información pase de la
memoria a corto plazo a la memoria a largo plazo
se requiere un verdadero cambio físico en el cerebro,
este cambio comprende nuevas conexiones entre las
neuronas. En la memoria a largo plazo, al igual que
en la memoria a corto plazo, la señal circula
también en un circuito reverberante de manera
repetida, causando cambios morfológicos y
metabólicos en los diversos componentes del
circuito.
En una versión más reciente, Feldman, McClelland,
Rumerlhart y otros propusieron una nueva forma de
entender el aprendizaje y la memoria. Esta nueva
perspectiva se conoce como Procesamiento Paralelo
Distribuido (en lo sucesivo, PDP) o conexionismo. La
gran novedad es que la propuesta se aleja de los
modelos fríos de tipo computacional, como el ACT, y
se aproxima a una visión más cálida, más próxima a
la forma de trabajar el cerebro.
El modelo conexionista sostiene que el
procesamiento de información se realiza a través de
un gran número de unidades que, en forma semejante
a como lo hacen las células en el cerebro, interactúan
entre sí simultáneamente, enviando señales de
excitación e inhibición unas a otras. La memoria y el
aprendizaje, como señalaba Hebb, no están localizados
en ninguna unidad en particular, sino que se encuentran
distribuidos a lo largo de la red neuronal. En este
modelo, cuando se produce un deterioro en alguna
parte del sistema, lo mismo que en el cerebro humano
cuando se lesiona una zona del mismo por
traumatismo o por la degeneración que se produce con
la edad, sigue funcionando aunque a un nivel inferior
de eficiencia.
Cuatro son los supuestos principales del modelo:
1. El sistema está organizado en niveles. Cada
nivel cumple una función específica. Por
ejemplo, en una tarea de reconocimiento de
palabras, existen los niveles de rasgos, letras y
palabras. Primero se "identifican los rasgos
(curvos, rectos oblicuos, etc.) del estímulo: esta
información, seguidamente, lleva al
reconocimiento de las letras, y finalmente se
identifican las palabras.
2. La información es procesada de forma
simultánea en todo el sistema. Para que un
nivel opere no es necesario que el predecesor
haya concluido. Mientras los niveles inferiores
están trabajando simultáneamente lo hacen los
niveles superiores. De manera que existen
fuentes informativas desde abajo y desde
arriba. El modelo es muy eficaz en las tareas
de procesamiento.
3. El conocimiento reside en las conexiones,
neuronales. Desde hace algún tiempo se sabe
que la mayoría de las funciones cerebrales
funcionan siguiendo el principio de acción en
masa: las funciones del cerebro no están
localizadas exclusivamente en una estructura,
como puede ser una neurona.
4. Las conexiones entre las neuronas pueden ser
excitatorias o inhibitorias. Cuando un estímulo
llega al sistema se activan ciertos rasgos que, a
su vez. envían la activación a todos los nodos
letra que contienen ese rasgo. Al mismo tiempo
se establecen conexiones inhibitorias con los
nodos letra que no poseen esos rasgos.
Cuando fue planteado el modelo, los psicólogos
cognitivos depositaron grandes esperanzas en él.
Después de quince años de su puesta en circulación los
resultados todavía están por verse. En teoría es un modelo
plausible y altamente probable. Ofrece un nivel de
flexibilidad del que carecen los modelos rígidos
computacionales, pero también es más difícil de manejar
que éstos. Los detractores del PDP aseguran que es un
modelo «de juguete» que no funciona cuando se quiere
utilizar para simular los problemas reales en toda su
complejidad. También los detractores piensan que es un
modelo muy asociacionista y que nos recuerda
demasiado los mecanismos del condicionamiento.
3.8.9. Neuropsicología cognitiva
El impacto de la neuropsicología cognitiva en la
psicología cognitiva se ha observado recientemente. Los
métodos neuropsicológicos se han aplicado a diversas
áreas: percepción, atención, memoria y lenguaje. Sin
embargo, como veremos en los capítulos siguientes,
donde verdaderamente ha hecho contribuciones muy
notables es en la exploración del lenguaje. Mucho más,
con diferencia, que en ninguna otra área. ¿A qué se debe
esta desproporción en favor del lenguaje? Una razón es
que, en general, el lenguaje ha adquirido mucha
importancia en la psicología cognitiva en los últimos
años. Otra razón, más importante y específica, es que el
lenguaje se ajusta mejor que otras áreas a la metodología
y al enfoque neuropsicológico. La comprensión y
producción del lenguaje implica un número diferente
de habilidades (lectura, habla, escritura, escucha, etc.).
En cada una de las habilidades participan módulos o
procesos diferentes que pueden ser analizados siguiendo
los métodos neuropsicológicos.
En la identificación de los módulos involucrados en
las diversas manifestaciones del lenguaje, la
neuropsicología cognitiva ha resultado muy eficaz. Sin
embargo, en otras áreas, como el pensamiento creativo,
las aportaciones han sido muy escasas. La razón estriba
en que hay determinados procesos que son
relativamente resistentes a los análisis modulares. Se ha
argumentado que el pensamiento creativo y las
actividades de planificación son tareas que no pueden
ser fraccionadas en módulos, o por lo menos no de una
manera tan fácil como puede hacerse con el lenguaje.
Por este motivo, el lenguaje se considera «la joya de la
corona» de la neuropsicología cognitiva, como dicen
los ingleses.
Aunque son importantes las aportaciones de los
neuropsicólogos al estudio del lenguaje, existen
algunas limitaciones que vale la pena resaltar. Una
de las limitaciones es que las investigaciones se han
centrado en los procesos periféricos del lenguaje. Por
ejemplo, abundan las investigaciones sobre los
procesos básicos de la lectura y la escritura
(reconocimiento de letras, deletreo, vocalización,
etc.) en pacientes con daño cerebral. Este tipo de
investigaciones ha permitido identificar los módulos
primeros y más externos (módulos de rasgos, letras,
léxicos, fonológicos). En otras palabras, las tareas que
enfrentan los pacientes son muy simples, aunque
importantes en un proceso de lectura o escritura. Sin
embargo, las investigaciones con unidades de
lenguaje más amplias, como la comprensión de textos,
donde intervienen otros factores como es el contexto
o la estructura del tema, son muy escasas.
Desde el punto de vista teórico, los neuropsicólogos
afirman que el habla y la escritura trabajan con
módulos separados e independientes, con excepción
del módulo semántico. Este módulo representa el
significado de las palabras y participa en la
planificación de lo que uno quiere decir o escribir.
Esta actividad de planificación es fundamental, pero los
neuropsicólogos todavía no han sido capaces de dar
una explicación convincente. ¿A qué se debe esta
limitación? Una posible explicación es que los
neuropsicólogos han volcado su atención en la
identificación de los módulos periféricos, pero
todavía no cuentan con la tecnología que permita
descubrir los módulos centrales de la lectura y
escritura. Existen buenas razones para esta dificultad.
Desde que se presenta el estímulo hasta que se produce
la función cognitiva central transcurre un cierto
tiempo, alrededor de 250 ms. La respuesta, por tanto,
hasta cierto punto es un reflejo indirecto de lo que ha
ocurrido en el cerebro.
Una última limitación, no exenta de críticas, es la
utilización del método de casos como la única fuente
para proponer teorías y probar hipótesis. El método
científico trabaja normalmente con grupos
homogéneos. Los neuropsicólogos se enfrentan con
una dificultad, casi insalvable: reunir grupos de
pacientes con daño cerebral que mantengan cierta
uniformidad en el síndrome o en los síntomas. Por
otra parte, generalmente desconocen el estado previo
de los pacientes antes del daño. No se sabe si esta
función era normal o anormal, y en el caso de que
fuera anormal, cuál era el grado de anormalidad en las
áreas de memoria, atención o lenguaje En conclusión,
el aporte de los neuropsicólogos es limitado como un
método para probar teorías, pero para los modelos ya
existentes los datos obtenidos de pacientes con daño
cerebral aportan informaciones valiosas para confirmar
o rechazar los resultados obtenidos por otros métodos
con grupos de personas normales.
3.9. LA PSICOLOGÍA COGNITIVA EN
ESPAÑA
La psicología cognitiva ha tenido un amplio desarrollo
a partir de los años ochenta. En las décadas anteriores se
impuso el paradigma conductista en todas sus
modalidades, epistemológico, metodológico y
pragmático. Hoy día se puede afirmar que la mayoría de
los psicólogos experimentales utilizan alguna de las
orientaciones cognitivas señaladas anteriormente.
La psicología cognitiva en España tiene una historia
corta; no podemos olvidar que las primeras facultades de
psicología comienzan a existir a partir de 1980, pero,
desde entonces, se ha producido un desarrollo
espectacular de la psicología en nuestro país. Durante los
años setenta, y muy especialmente en los años ochenta,
se produce el despliegue de la psicología cognitiva en la
mayor parte de las facultades de psicología de Estados
Unidos. En esas fechas, también, muchos psicólogos,
que han terminado la carrera en España, obtienen becas
de ampliación de estudios y se dirigen a las universidades
más prestigiosas de Estados Unidos. Allí tienen contacto
con influyentes autores que están trabajando en
interesantes teorías cognitivas como Stephen Kosslyn,
Zenon Pylyshyn, George McKonkie, P. C. Wason, Roger
Schank, John D. Bransford, Robert J. Sternberg, y otros
muchos. Con ellos colaboran y, sobre todo, aprenden a
trabajar utilizando aparatos cada vez más sofisticados:
técnicas de neuroimagen, tomografía por emisión de
positrones, resonancia magnetica y nuclear,
magnetoencefalografía, movimientos oculares, etc.
Los rápidos avances de la neurobiología de sistemas
han influido poderosamente en la psicología cognitiva y
han estimulado el interés por la neurología del
comportamiento. La utilización de instrumentos para
medir y fotografiar el cerebro ha posibilitado que la
ciencia cognitiva esté en estos momentos capacitada
para abordar directamente las representaciones internas
sensoriales y motoras en sujetos experimentales, tanto
animales como humanos. La meta a la que intenta llegar
la psicología cognitiva, en colaboración con la
neurobiología de sistemas y la neuroimagen, es realizar
un mapa de los elementos que conforman la función
cognitiva dentro de sistemas neuronales específicos y dar
una explicación científica de los elementos que
conducen a la representación mental del mundo físico.
En la actualidad podemos decir que la psicología
cognitiva en España goza de un merecido prestigio
gracias a la conjunción de cuatro elementos que han
producido un clima propicio para su desarrollo: a)
un aumento considerable en las dotaciones para la
investigación: b) utilización de instrumentos y
aparatos de alta tecnología: c) psicólogos con una
gran preparación, y d) colaboración internacional e
interdisciplinar.
Los temas que han tenido mayor interés dentro
de la psicología cognitiva son los de
psicolingüística. El estudio del lenguaje humano es
un tema que sigue provocando gran número de
investigaciones. Se ha investigado especialmente la
adquisición del lenguaje, la producción, la
ambigüedad, los trastornos, etc. Un segundo ámbito
de interés es la neuropsicología cognitiva. La
posibilidad de utilizar nuevos aparatos en
colaboración con la medicina, la fisiología y la
neurociencia. ha abierto un amplio campo que está
produciendo las investigaciones de mayor impacto
en el mundo científico.
Otra área de estudio está centrada en la
inteligencia y el pensamiento. En este campo son
interesantes los estudios que se llevan a cabo
siguiendo el modelo de las redes neuronales.
Autismo, esquizofrenia y otras anormalidades han
sido un campo abonado para realizar
investigaciones que iluminen la forma en que
influye el cerebro en la mente. El campo del
aprendizaje ha seguido teniendo un amplísimo
número de trabajos. Muchos de los psicólogos,
que comenzaron dentro de la orientación
conductista, han seguido investigando desde
planteamientos más cognitivos y han elaborado
nuevos modelos de aprendizaje o han modificado
algunos que se consideraban clásicos.
Los restantes procesos cognitivos: memoria,
imaginación, atención, etc., han tenido menos
interés y, aunque también se han publicado
importantes trabajos sobre estos temas, sin embargo,
no han tenido un volumen de investigaciones
comparable a los anteriormente señalados
Glosario
Algoritmo. Método que considera todos los pasos
posibles de un problema completo y que calcula cuáles
serían las consecuencias de cada uno, exhaustivamente, y
garantiza el hallazgo de una solución.
Ciclo perceptual. Aportación de Neisser que señala
que el prestar atención no es una cuestión de eliminación
por filtración de la información, sino que buscamos la
información de manera activa, basándonos en
experiencias previas y expectativas.
Circuito reverberante. Teoría de D. Hebb, que
postula que un grupo de neuronas que funcionan como
un conjunto y se disparan según una pauta repetida
producen una huella de memoria.
Constructivismo. Es una posición teórica que se
caracteriza por entender que la percepción como proceso y
la experiencia perceptiva son vistas como un producto
cognitivo dinámico que se desarrolla, según Piaget, a través
de los mecanismos de asimilación o recepción de
experiencias nuevas y acomodación que implica un cambio
de esquemas para dar respuesta a las demandas del
entorno.
Disonancia cognitiva. Según Festinger, ésta resulta de
haber tomado una decisión en la que las cosas no son como
uno pensaba, al tener que escoger entre dos alternativas, o
cuando uno se expone a una nueva información que no
concuerda con la cognición existente.
Esquemas. 1. Son conocimientos almacenados,
representados en la memoria como consecuencia de
experiencias pasadas. 2. Extensa agrupación de conceptos
interrelacionados que integran el conocimiento general
que las personas tienen de sí mismas, de los objetos, de los
eventos y de los procedimientos.
Heurístico. Es un método o técnica basado en una
estrategia probabilística para resolver problemas, que
funciona a través de la reducción de rango de las posibles
soluciones a un problema. Es una forma de resolver
problemas complejos propia de la cognición humana, que
tiene que tomar decisiones en un contexto de incertidumbre.
Cuando se trata de problemas bien definidos, la resolución
se hace por proceso algorítmico.
Logic theorist. Programa de ordenador creado por A.
Newell, H. Simón y J. C. Shaw que intentaba ejecutar
operaciones similares a las que supuestamente hacen los
humanos, verificando teoremas utilizados en la
demostración de teorías científicas.
Neoconductismo. Es un término que enfoca el
conductismo introduciendo conceptos de naturaleza
cognitiva o mediacional, como expectativas, intenciones,
etc., como elementos explicativos de la conducta, y que no
son observables.
New
look. Es una etiqueta unida a un enfoque del
estudio de la percepción, liderado por Bruner a mediados
del siglo xx, que enfatiza la influencia de la emoción y la
motivación en la percepción, sugiriendo que los sujetos
procesan la información de forma activa como
constructores de hipótesis y estrategias en la búsqueda de
sus objetivos.
Paradigma E-R. Es una forma de representar un
estímulo y la respuesta asociada. Se utiliza de forma
abreviada como una aproximación a una particular
aproximación a la psicología, que se rige por los principios
de condicionamiento, desde una posición de
asociacionismo, que es el denominador común del
fenómeno.
Paradigma TOTE. Es un acrónimo de test-operatetest-exit, tomado de conceptos cibernéticos, que
se aplica
como hipótesis a la actividad senso-motora que sigue un
modelo de conducta en que las acciones están basadas
sobre planes modificados por retroalimentación
relativos a acciones previamente ejecutadas. Este modelo
trata de alejar la psicología de la noción conductista lineal
de arco reflejo.
Procesamiento ascendente. Es aquel que viene
determinado por la naturaleza de los datos o estímulos; no
se ve influido por la experiencia o las suposiciones sobre
los datos que se van a procesar.
Procesamiento de la información. Proceso continuo
de datos, internos y externos, sujeto a procesos
intermedios que implican un cambio de nivel :
elaboración en la información desde: entrada de datos,
transducción o codificación, actividad interrecurrente o
ejecución del problema y salida o respuesta.
Psicología cognitiva Se interesa por el análisis
científico de los procesos mentales y estructuras de la
memoria humana, con el fin de comprender su conducta.
Sistema experto. Es un paquete de software
desarrollado para realizar un procedimiento de trabajo de
manera computerizada, de forma que recoja todo el
conocimiento procedimental e implícito que los expertos
utilizan en la realización convencional de ese trabajo. En
esencia, estos sistemas permiten asistir en el análisis y
solución de problemas complejos, intentando simular la
conducta de un experto humano en un dominio
específico. Es importante hacer constar que los sistemas
expertos funcionan con algoritmos.
Teoría de la acción razonada. Enmarcada en la
psicología social, es el modelo de procesamiento de la
información que concibe la actitud personal como
resultado de un proceso cognitivo en el que el individuo
actúa tras una evaluación basada en sus creencias.

S-ar putea să vă placă și