Sunteți pe pagina 1din 10

Arch Neurocien (Mex) INNN, 2010 Modelos neurocomputacionales del lenguaje

Artculo de revisin
Arch Neurocien (Mex)
Vol. 15, No. 4: 242-251; 2010
INNN, 2010

Modelos neurocomputacionales del lenguaje


Francisco Abelardo Robles-Aguirre

RESUMEN

La presente revisin discute la plausibilidad del anlisis computacional de hiptesis sobre la relacin cerebro-lenguaje. Se
diseccionan propuestas provenientes de la lingstica y neurociencias, as como el origen y relevancia de los modelos
neurocomputacionales. Desarrollo: los modelos computacionales inspirados en el funcionamiento cerebral han desatado
un intenso debate al interior de las ciencias cognitivas sobre descripcin y explicacin de determinados procesos psicolgicos,
constituyendo el lenguaje uno de los procesos ms complejos. La evidencia aportada por la lingstica ha sugerido una
visin modular del procesamiento lingstico con dos componentes generativos fundamentales: elementos lxicos
almacenados en memoria y usados como bloques unitarios para la construccin de oraciones; y reglas aplicadas a aquellos
elementos para construir formas morfolgicas o sintcticas, acordes a la gramtica de una lengua almacenados en sitio
distinto. No obstante, los estudios neurocientficos sobre la generacin del lenguaje sugieren que ambos componentes
funcionan en paralelo, proporcionando una visin de modularidad difusa, con procesamientos distribuidos en diversos
circuitos cerebrales utilizando la inhibicin recproca como principal mecanismo de control neuronal, hiptesis conocida
como conexionismo. Se exponen diversos modelos neurocomputacionales del lenguaje para mostrar la pertinencia de
revalorar la teora modular del procesamiento lingstico. Por ltimo, se propone que una teora del lenguaje ya no puede
ignorar las propiedades del sistema en el cual es implementado, puesto que se han descrito un creciente nmero de
caractersticas de los sistemas conexionistas que parecen restringir las operaciones que realizan e inclusive las determinan.

Palabras clave: conexionismo, redes neurales, lenguaje, cerebro.

Neurocomputational models of language

ABSTRACT

This review discusses the plausibility of computational analysis of brain-language relations hypotheses. Proposals from
linguistics and neurosciences are examined, as well as the origin and relevance of the neurocomputational models.
Development: computational models inspired on brain dynamics have triggered an intense debate within cognitive sciences
about various psychological issues. One of the most thoroughly examined issues has been language and the cognitive
processes involved. Linguistic evidence points to serial processing within a modular framework and based on a generative
system which uses two kinds of elements: lexical items stored in long-term memory as unitary blocks retrieved to be used
as building blocks for sentence construction, and rules that are applied to build morphological or syntactic structures in
accordance to the requirements of a particular grammar and stored somewhere else. However, neuroscientific studies on
language generation suggest that both components work in parallel, providing a fuzzy modular view of language with parallel
processing considering overlapped representations and reciprocal inhibitory mechanisms, pointing to a connectionist view.
Several neurocomputational models dealing with the implementation of language processing on brain-like systems are
exposed to demonstrate that certain aspects of modular language processing theory have to be revisited. Finally, it is
proposed that a theory of language processing can no longer continue to ignore the properties of the system on which it is
implemented, as there is a growing number of characteristics of brain-like systems which seem to restrict the operations
they perform and even determine.

242 | Vol. 15 | No. 4 octubre-diciembre 2010 |


Francisco Abelardo Robles-Aguirre Arch Neurocien (Mex) INNN, 2010

Key words: connectionism, neural networks, language, brain.

En sentido estricto el lenguaje puede ser definido adentrarse en la explicacin de la generacin del lenguaje.
como un componente interno del sistema mente/cerebro
(tambin llamado I-lenguaje) que constituye el elemento Orgenes de los modelos conexionistas
fundamental de la facultad lingstica, y posibilita la utiliza-
cin de un sistema comunicativo culturalmente especfico1. Diversas investigaciones en neurociencias de la relacin
As, la cuestin de cmo se organizan en el cerebro las ope- entre distintas conductas y el funcionamiento de estructu-
raciones lingsticas que han sido descritas en las ltimas ras y circuitos cerebrales, han generado la hiptesis de que
dcadas1-5 requiere la postulacin de hiptesis del procesa- los fenmenos a los cuales son subyacentes determinadas
miento del lenguaje, pero no aisladas de las caractersticas formas de funcionamiento cerebral son una propiedad
del sistema sobre el cual se desarrolla ese procesamiento, emergente de las mltiples realizaciones de un sistema
sino reconociendo cules de esas propiedades lo condicio- neural. Dicha hiptesis es denominada conexionismo y ha
nan y de qu modo lo logran. dado lugar a la construccin de modelos matemticos
El acelerado desarrollo de las ciencias computa- conocidos como redes neurales artificiales que intentan
cionales permite hoy en da contar con una herramienta reflejar o capturar datos experimentales duros acerca de
sumamente til para evaluar las hiptesis planteadas y su partes especficas de sistemas nerviosos particulares8 y que
instrumentacin en un sistema con determinadas propieda- hoy forman un nuevo paradigma dentro de las ciencias
des tambin supuestas. Las simulaciones por computadora cognitivas llamado procesamiento distribuido en paralelo,
son ahora un elemento indispensable para la formulacin neurocomputacin o computacin neural 9.
de conjeturas y valoracin de supuestos en prcticamente La concepcin funcional de emergencia sobre la que
todos los campos de la ciencia6 siendo la piedra de toque se sustentan estos modelos matemticos tiene sus antece-
para la fundacin de las ciencias cognitivas7. Es en este dentes en los trabajos de neurofisilogos del siglo XIX como
marco que la implementacin de modelos computacio- JH Jackson o Alexander Bain y en el de neurocientficos del
nales inspirados en la arquitectura y funcionalidad cerebral siglo pasado como AR Luria, Donald Hebb y Karl Lashley9.
han facilitado las discusiones con respecto a las propieda- Alexander R. Luria, trabaj intentando encontrar
des cognoscitivas del lenguaje, instrumentacin de las hallazgos en contra de las posiciones localizacionistas de
operaciones descritas por lingstica y mecanismos y vas principios del siglo XX. Sus estudios sobre el funcionamiento
propuestas por la psicolingstica y la neuropsicologa, de la neocorteza del encfalo proporcionaron evidencia
generando hiptesis alternativas y ayudando a reformular clnica y neurofisiolgica sobre el carcter de distribucin de
las teoras clsicas del procesamiento lingstico. la actividad cerebral 9.
El presente artculo presenta una breve revisin de El fisilogo canadiense Donald Hebb postul en
los orgenes de este tipo de modelos conexionistas, se discu- 1949; su hiptesis sobre las asambleas de clulas, como
ten los principios bsicos y caractersticas que comnmente un conjunto de neuronas cuya conectividad entre ellas se
se toman en consideracin para generar simulaciones ve incrementada mientras mayor sea el nmero de veces
de procesos cognitivos. A continuacin, se exploran algunas que se activen simultneamente, consolidando circuitos
propuestas tericas desde las neurociencias y lingstica reverberantes de diferentes patrones que estaban relacio-
que hacen pertinente la exploracin de hiptesis del proce- nados con diversas experiencias en el sujeto7.
samiento lingstico a travs de este tipo de modelos. Por otra parte, Karl Lashley elucid la idea de equi-
Despus, se exponen algunos modelos conexionistas que po-tencialidad de la neocorteza cerebral que ejemplificaba
se han elaborado para emular la adquisicin de vocabulario el funcionamiento distribuido y cooperativo del cerebro9.
o flexin verbal en nios. Por ltimo, se discute la utilidad Fue en 1943, que Warren McCulloch y Walter Pitts
de estos modelos a la luz de la formulacin de teoras de elaboraron el primer modelo de redes neurales artificiales,
procesamiento lingstico y se enumeran algunas de las di- el MCP, capaz de representar activaciones de respuesta con
ficultades que los conexionistas tienen que superar para base en reglas simples como las funciones lgicas Y u O
enunciadas en las tablas de verdadero-falso. Estos autores
Recibido: 3 junio 2010. Aceptado: 17 junio 2010. construyeron un modelo con base en resistencias y amplifi-
Departamento de Neuropsicologa y Grupos de Apoyo, Instituto
cadores para representar la variabilidad de conexiones
Nacional de Neurologa y Neurociruga. Correspondencia: sinpticas que denominaron pesos sinpticos y de unidades
Francisco Abelardo Robles Aguirre. Departamento de que representaban los somas neurales. Sin embargo, en el
Neuropsicologa y Grupos de Apoyo, Instituto Nacional de modelo MCP, la variacin de conexiones deba de hacerse
Neurologa y Neurociruga. Insurgentes Sur # 3977. Col. La Fama manualmente; es decir, los experimentadores las alteraban
14269 Mxico, D.F. E-mail: franciscoara@live.com para lograr que el modelo cumpliera su funcin10.

Vol. 15 | No. 4 octubre-diciembre 2010 | 243


Arch Neurocien (Mex) INNN, 2010 Modelos neurocomputacionales del lenguaje

Hacia finales de los aos cincuenta se realiz un Caractersticas de los modelos conexionistas
gran esfuerzo para desarrollar estructuras reticulares con
capacidad de auto-organizacin y dispositivos similares al Segn Rumelhart, et al, las redes neurales artificia-
MCP. El modelo mas conocido de todos fue el que, en 1962, les proporcionan una visin radicalmente distinta de los
Frank Rosenblatt construy y que denomin perceptrn. El conceptos bsicos de representacin, conocimiento y apren-
perceptrn tena como unidad de salida un MCP; pero que dizaje que caracteriza al paradigma de procesamiento
secuencial de la informacin en las ciencias cognitivas. La
difera de aqul en la forma de las entradas, la funcin que
representacin en los modelos conexionistas se concibe de
poda cumplir y cambiar por s mismo el valor numrico de
forma activa y consiste en el patrn de activacin existente
algunas de sus conexiones. Las entradas del perceptrn
entre las unidades de la red, en tanto que el procesamiento
tenan relacin con una placa de celdas que podan activar- se refiere a la evolucin en el tiempo de los estados de
se para generar lneas horizontales y verticales con base en activacin de los mltiples nodos o unidades. El conocimiento,
la activacin o inactivacin de la unidad de salida; poda por otra parte, est distribuido entre mltiples conectadas
decirse que el perceptrn las clasificaba debido a que poda entre s y cada una de estas unidades participa en la repre-
percibirlas. Este modelo tena como caracterstica especial sentacin de diferentes conocimientos, siendo la
la capacidad de cambiar el valor de sus conexiones de interpretacin de la realidad fruto del intercambio de sea-
entrada con base en una salida esperada10. les entre estas unidades 9. Por ltimo, el aprendizaje
Sin embargo, en 1967 Marvin Minsky y Seymour consistir en la adquisicin de fuerzas de conexin que pro-
Papert, a travs de un anlisis matemtico realizado sobre duzcan adecuados patrones de activacin en las
la funcionalidad de los perceptrones, demostraron que fa- circunstancias adecuadas9.
llaban en distintas tareas, una de ellas, de carcter La estructura de estos modelos matemticos est
relativamente sencillo: la resolucin de la tabla de verdad determinada por las relaciones establecidas entre sus com-
del O-exclusivo. Ello traera como consecuencia limitantes ponentes fundamentales: unidades o nodos procesadores
serias en lo que un perceptrn podra resolver y en lo que neurales; conexiones entre estos; y su organizacin en
capas de unidades.
podra aprender11, 12. El entusiasmo que estos modelos ha-
Las unidades o nodos neurales: estn inspirados en
ban despertado termin, y ante la ausencia, en ese tiempo,
la evidencia neurocientfica del funcionamiento de las
de tcnicas para entrenar redes con mltiples capas inter-
neuronas biolgicas. As, poseen distintos valores expresa-
medias, los investigadores no continuaron desarrollando dos numricamente tales como la entrada neta, activacin,
modelos conexionistas. salida y umbral de disparo que tratan de imitar las caracte-
El descubrimiento, a partir de 1985, de tcnicas o rsticas de primer orden de las neuronas biolgicas12,14
mtodos de entrenamiento para redes neurales con mlti- como la recepcin de una cantidad de estimulacin prove-
ples capas intermedias, permiti el resurgimiento del inters niente de neuronas aferentes, la posibilidad de activarse si
en estos modelos12. Hacia 1986, Rumelhart, y el grupo de esa estimulacin es suficiente para provocar la despolari-
procesamiento distribuido en paralelo (PDP) presentaron zacin de su membrana y la propagacin de un potencial de
claras descripciones y aplicaciones de modelos de capas accin o disparo neuronal, generando una seal eferente.
mltiples lo que hoy se conoce como retropropagacin9,11-13. La entrada neta en un nodo neural, es el nmero que
La idea de la retropropagacin consiste en que, una vez que representa la sumatoria del producto de todas las activacio-
se ha calculado la discrepancia entre la respuesta desea- nes de unidades que tienen conexiones aferentes con este,
da de una red y la que realmente genera, este valor de por cada una de sus conexiones. La activacin es el nmero
discrepancia se adiciona hacia las capas ocultas (es decir, que nos indica si la unidad est activa o inactiva, por lo
comenzando por las conexiones inmediatamente anterio- general tiene slo dos estados (0, 1)1. El umbral de dispa-
ro es otro valor numrico contra el que se ha de comparar
res a la salida de la red, hasta llegar a las de la entrada)
la entrada neta, si esta ltima es mayor que el umbral, se
incrementado o decrementando la fuerza de las conexiones
decidir si la unidad procesadora dispara; es decir, si se
segn sea necesario10.
manda o no el valor de salida; que es el nmero que el ele-
A finales de los ochenta hasta hoy, las ventajas tec- mento procesador utilizar como fuerza de disparo para
nolgicas y computacionales, as como los mtodos de propagarse a otras unidades con las que tenga co-
entrenamiento conceptualizados han generado un nuevo nexin14,15.
inters en los modelos conexionistas o redes neurales po- Las conexiones representan inervaciones axnicas
sibilitando nuevas arquitecturas y reglas de funcionamiento, entre las neuronas biolgicas. Las conexiones tienen varia-
pasando de los expuestos, cuyo aprendizaje es supervisado, bilidad dependiendo de la estimulacin y simulan el
a modelos no supervisados. resultado de los mecanismos celulares de modificacin

244 | Vol. 15 | No. 4 octubre-diciembre 2010 |


Francisco Abelardo Robles-Aguirre Arch Neurocien (Mex) INNN, 2010

sinptica de los cuales parece depender el aprendizaje16. Funcin de aprendizaje.


Esta variabilidad se lleva a cabo a travs del concepto de La regla de activacin: se refiere a la ecuacin que
peso sinptico o conexin, que es un nmero que se indica el procesamiento llevado a cabo por el elemento
incrementa o decrementa de acuerdo a una regla de apren- procesador neural. Utiliza los valores numricos propios de
dizaje instaurada en el modelo. De esta manera, el peso de la unidad neural y, con base en la comparacin de entrada
la conexin se multiplica por el valor de salida de la unidad neta y el umbral, determina si existir o no disparo y forma en
preconexin (presinptica), este producto proveniente de que este se dar17 (figura 2). Un ejemplo es:
una slo unidad preconexin, se suma al de todas las uni-
dades de preconexin para obtener el valor de entrada n
neta, como ya se mencion con antelacin12,14,15.
Las capas de unidades son agrupaciones de ele- (j) = 1, Si [ e w ] > i ij

mentos procesadores neurales alineados verticalmente i=1


que pueden o no tener conexiones entre ellos, pero que
poseen eferencias hacia unidades de otras capas. Se reco- En donde la funcin de salida de la unidad funcional
nocen al menos dos capas en toda red neural: la capa de j ser igual a 1 si la sumatoria del producto de todas las
entrada, y salida, y entre ellas pueden existir la cantidad de activaciones presinpticas (e) por su correspondiente peso
capas intermedias que se deseen (figura 1). Las capas de ).
de conexin (w), es mayor que el umbral de la unidad j (
entrada con frecuencia; no son contabilizadas como tales
pues sus unidades slo cumplen con la funcin de tener un
valor de salida o de activacin y no llevan a cabo procesa- A.
1 B. 1
C.
1

miento alguno12,15.
Las capas de salida son las que elicitan la respuesta
de la red neural, y es con base a ellas que puede cuantifi-
0 0 0
carse lo adecuado o inadecuado de su funcionamiento. A
la forma esquematizada que adquiere una red neural de -1 -1 -1

acuerdo al nmero de capas, unidades o elementos


Figura 2. Funciones de activacin ms comnmente utilizadas en
procesadores neurales y las conexiones entre estos, se le la instrumentacin de redes neurales artificiales. En A. est la fun-
denomina arquitectura. cin tipo escaln; en B. la funcin de umbral lgico; en C. una
funcin sigmoide.

La regla de aprendizaje es la ecuacin que indica el


procedimiento a seguir en una determinada red para preci-
sar si se han de realizar ajustes en los valores numricos
correspondientes a los pesos de las conexiones y la manera
Capa de Capa Capa de
de cmo se harn.
entrada intermedia salida La importancia de esta ecuacin radica en la posibi-
lidad que abre para que la red pueda ofrecer una solucin
Figura 1. Distintas capas de una red neural. La capa de entrada o
nodos de entrada constituye el lugar donde se recibe informacin. La adecuada o esperada a determinado problema planteado.
capa de salida es el patrn de activacin en respuesta a la entrada Esta regla de aprendizaje comnmente vara con el modelo
introducida. La capa intermedia es tambin denominada oculta y es de que se trate, pero de manera gruesa se habla que exis-
donde recae la mayor carga del procesamiento. ten reglas que implican un aprendizaje supervisado y que
Las capas de salida son las que elicitan la respuesta permiten a la red un aprendizaje no supervisado17.
de la red neural, y con base a ellas se puede cuantificarse El aprendizaje supervisado consiste en el ajuste de
lo adecuado o inadecuado de su funcionamiento. A la forma los pesos sinpticos de acuerdo a una salida deseada. Por
esquematizada que adquiere una red neural de acuerdo al ejemplo, se espera que las unidades de la capa de salida
nmero de capas, unidades o elementos procesadores disparen siempre, que las de la capa de entrada se activen.
neurales y las conexiones entre estos, se le denomina ar- Si las de la capa de salida no se activan, entonces no se pro-
quitectura. duce la salida deseada y deben ajustarse los pesos hasta que
la red lo logre14,17.
La forma en que los componentes de las redes En el aprendizaje no supervisado no se utiliza ningu-
interactan es siguiendo bsicamente dos reglas: na salida deseada y la red debe ser capaz, por ejemplo,
de responder de la misma manera ante distintas formas de
Activacin o funcin de salida. activacin de las unidades de entrada siempre que estas

Vol. 15 | No. 4 octubre-diciembre 2010 | 245


Arch Neurocien (Mex) INNN, 2010 Modelos neurocomputacionales del lenguaje

varen muy poco. As, el ajuste de pesos se obtiene nica- como agrupaciones de distintas subregiones del giro inferior
mente a partir de la activacin de determinadas unidades frontal (GIF) y del giro superior temporal (GST). Estos autores
de la capa de entrada a un cierto nmero de veces12,14,17. consideran que los modelos actuales incorporan a regiones
cerebrales fuera de las reas perisilvianas clsicas como
Aproximaciones cognitivas al lenguaje claves para el lenguaje y no se restringen al hemisferio
izquierdo. Friederici 21, igualmente, resalta las densas
Desde el siglo pasado, el estudio del lenguaje se conexiones entre el GIF y el GST, a travs de la seccin dorsal
ha desarrollado como un tpico fundamental en el surgimiento del fascculo arqueado y va el fascculo superior longi-
de las ciencias cognitivas. La lingstica y la psicolingstica tudinal, especficas para el humano, en el contexto de su
como disciplinas encargadas de la descripcin y explicacin propuesta del procesamiento lingstico. Su hiptesis inten-
del fenmeno lingstico, la primera y de adquisicin y ex- ta relacionar las descripciones lingsticas del alemn y
presin de la lengua, la segunda; dieron origen y se ingls con un mapa distribuido de regiones corticales y los
constituyeron en parte de la teora del procesamiento simb- tractos que las conectan. Para Friederici21,22 el procesamien-
lico de la informacin. De ah que su abordaje y explicacin to semntico y sintctico es llevado a cabo en amplios
del lenguaje se circunscribi, desde la revolucin Choms- circuitos que involucran el GIF y GST, en particular, las reas
kyana hasta la penltima dcada, a la utilizacin de un de Brodmann 45/47 y el giro medial temporal para el pro-
reservorio de tems de lenguaje en memoria y una serie de cesamiento semntico y el rea de Brodmann 44 y GST para
reglas que permitan operar sobre esos tems lingsticos el sintctico.
como smbolos7. Un modelo neurocientfico ms reciente del lenguaje,
Ante el advenimiento de modelos conexionistas y generado a partir de un meta-anlisis realizado por Shalom
estudio de los fenmenos de adquisicin de vocabulario o y Poeppel23, plantea que las regiones frontales tradicional-
de flexin verbal en la lengua inglesa, se desataron objecio- mente consideradas en el lenguaje, crticamente participan
nes desde la perspectiva del procesamiento simblico de en la sntesis propia de la codificacin articulatoria reque-
la informacin. Estas se han centrado en lo inapropiado del rida para la produccin. Proponen, adems, que las
abordaje a nivel conexionista para lenguaje y cognicin regiones temporales que comnmente se asociaban a la
para el entendimiento de la organizacin del procesamiento comprensin, parecen estar jugando un papel importante en
lingstico18. Esto no implica negar que el dispositivo de la memorizacin de tems lxicos y facilitando su recuerdo.
adquisicin de una lengua o la facultad lingstica estn Por ltimo, Shalom y Poeppel3 formulan la idea de que las
implementados en un sistema de neuronas densamente reas parietales, (que en el modelo clsico no tenan una
interconectadas, ni siquiera que algunos aspectos del participacin trascendental), se encargan del anlisis de los
procesamiento del lenguaje tengan lugar de un modo distri- tems memorizados en el temporal, y sugieren un patrn de
buido, sino simplemente, que el procesamiento lingstico procesamiento que va, en cada uno de los lbulos postulados,
puede ser mejor entendido si se aborda desde una perspec- desde las zonas ms dorsales para las representaciones y
tiva de procesamiento de smbolos manipulados por operaciones fonolgicas, mediales para las morfosintcti-
reglas19. La crtica ms frrea ha utilizado un concepto cen- cas y las inferiores para las semnticas.
tral de la lingstica Chomskyana, el empobrecimiento de la En consonancia con la evidencia anterior, la
exposicin al estmulo lingstico, surgido del debate entre neurociencia computacional ha propuesto modelos descrip-
Chomsky y el conductismo Skinneriano1,2. Los cognitivistas tivos del procesamiento lingstico a partir de dos
tradicionales sostienen que los modelos conexionistas no perspectivas dismiles. Una perspectiva localista, en donde
proveen las restricciones necesarias para garantizar que las nodos o unidades individuales procesan el aprendizaje de
redes encuentren la forma apropiada de procesamiento palabras y lo almacenan o, por otra parte, desde una pers-
lingstico con base en una exposicin reducida a los est- pectiva totalmente distribuida, en donde la representacin
mulos y de acuerdo a la enorme variabilidad de estos19. consiste en patrones complejos de activacin. Esta perspec-
Sin embargo, el apoyo ms slido a la perspectiva tiva asume a priori la existencia de nodos distintos para
conexionista proviene de investigaciones en neurociencia cog- tems diferentes (como elementos lxicos, segmentos o
nitiva centradas en el lenguaje. Poeppel y Hickok 20, palabras), y del preestablecimiento de densas conexiones
concluyen, a partir de un cmulo de evidencia de trabajos entre ellos. Esta arquitectura permite mantener activas
de investigacin en el campo de las relaciones cerebro- representaciones de modo paralelo evitando un solapa-
lenguaje, que el circuito Wernicke-Lichteim-Geschwind, est miento de la informacin contenida en estas. La perspectiva
siendo reformulado para dar cuenta del procesamiento de representaciones distribuidas, por otra parte, plantea
lingstico en trminos de un conjunto de circuitos que con- que las representaciones de tems relevantes emergen
sideren a Broca y Wernicke como reas cerebrales como patrones distribuidos con conexiones reforzadas en
heterogneas sin una funcin determinada y especfica sino los nodos de la red, por lo que el mismo conjunto de unidades
246 | Vol. 15 | No. 4 octubre-diciembre 2010 |
Francisco Abelardo Robles-Aguirre Arch Neurocien (Mex) INNN, 2010

o nodos de la capa oculta codifica una variedad de tems enfoque prominente en las ciencias cognitivas de ese tiempo,
lingsticos a travs de distintos patrones de activacin gra- pues asuma que la flexin verbal de los verbos regulares
duados. Esto da como resultado la imposibilidad de separar e irregulares era llevada a cabo por el mismo tipo de pro-
diferentes representaciones de tems lingsticos cuando cesos y que estos procesamientos compartan los mismos
estos se encuentran activos de manera simultnea24. recursos computacionales. Sin embargo, la aproximacin
fue criticada por proponer conclusiones sin tomar en cuenta
Redes neurales artificiales del procesamiento gramatical aspectos metodolgicos de capital importancia. Por ejem-
plo, durante la primera etapa de entrenamiento de
En 1986, Rumelhart y McClelland plantearon un simulacin, utilizaron 10 verbos de alta frecuencia para el
modelo clsico conexionista por retropropagacin para dar ingls, de los cuales 8 eran irregulares, esto es acorde a lo
cuenta del desarrollo de la flexin verbal del pretrito para reportado en el desarrollo normal de la flexin. Para la se-
la lengua inglesa13 (figura 3). A partir de la evidencia cient- gunda etapa, en cambio, utilizaron 410 verbos donde 80 %
fica en el anlisis de corpus de expresin oral en nios, eran regulares. De este modo, el modelo no tomaba en
dedujeron que los errores en la flexin verbal podan ser cuenta la continuidad en la expansin del vocabulario pre-
explicados por la habilidad de los hablantes para utilizar el sente en la adquisicin al incrementar inmediatamente el
sonido de un verbo para predecir la forma de flexin en nmero de verbos utilizados, y ms an, acrecentar de
pasado. Este modelo retaba la visin tradicional del desa- manera desproporcionada el porcentaje de regulares-irregu-
rrollo de la flexin verbal en ingls que haba sido planteada lares presentes en el habla de un menor en la etapa de
desde la perspectiva de la existencia de reglas simblicas sobrerregularizacin, puesto que el nmero de regulares
para la construccin gramatical de la lengua1,2 y que, des- utilizados oscila entre el 45 al 60 % y nunca hasta el 80 %18,19.
de una perspectiva mentalista han sido ubicadas como Un modelo ms reciente, propuesto por MacWhinney
parte del dispositivo cognitivo del lenguaje3-5,8 o de la facul- y Leinbach30, tom en cuenta varias de las crticas realiza-
tad del lenguaje1,25-29. Esto dio inicio al debate por la das al modelo clsico de Rumelhart y McClelland 13 y
explicacin de los errores en la flexin del pretrito para el emple un procedimiento de entrenamiento de la red utili-
habla inglesa. Los datos recabados de la expresin oral des- zando verbos a partir de un corpus de frecuencias de uso
criban que los errores tomaban la morfologa de una U del ingls, representaciones fonolgicas y de nuevo el algo-
durante el desarrollo del habla19. En una primera etapa, los ritmo de repropropagacin. Con un entrenamiento continuo
nios parecan utilizar muy pocas formas verbales en pre- hasta la correcta ejecucin de la flexin verbal, este modelo
trito, slo los verbos ms con frecuencia utilizados y estos, no despleg un perfil de aciertos en U. Aunque s present
coincidentemente para el habla inglesa, son irregulares en sobrerregularizaciones y su posterior resolucin, no existi una
su mayora. De modo que los nios parecen tener un des- fase inicial con escasos errores.
empeo con escasos errores utilizando pocos verbos. En Plunkett y Marchman31, por otra parte, investigaron
una siguiente etapa, el nmero de verbos flexionados en la adquisicin de la flexin verbal en pasado de una red
pretrito se incrementa de manera considerable y apare- neural de tres capas que haba sido entrenada con un con-
cen entonces muchos equvocos en la flexin verbal, en junto creciente de verbos del ingls. La estructura de
particular, la flexin regular de verbos que son irregulares, los verbos era corta e implicaba slo tres fonemas, los verbos
fenmeno conocido como sobrerregularizacin. Por ltimo, eran asignados a uno de cuatro tipos posibles de transfor-
hacia la adolescencia, la sobrerregularizacin es corregida macin para generar la flexin correcta sin cambio (ej.
y la flexin se ajusta a la gramtica de la lengua19. hit-hit), cambio voclico (draw-drew), cambio arbitrario
La visin conexionista de la flexin verbal en pretrito (go-went) y regulares (look-looked). Las simulaciones consi-
planteada a partir del modelo de Rumelhart y McClelland13 deraron un entrenamiento creciente utilizando nuevos
presentaba un punto de partida radicalmente distinto del verbos para emular la expansin del vocabulario. Durante
el proceso de aprendizaje el modelo gener sobrerregula-
Red
codificadora
Red asociadora de patrones con
conexiones modificables
Red decodificadora
rizaciones afectando su actuacin, produciendo una curva
de ejecucin tipo U.
Un enfoque distinto sigui Wester-mann32,33, al adi-
cionar al proceso de adquisicin de vocabulario y flexin
verbal, aspecto de desarrollo neuronal que le acompaa y
Representacin Representacin que, al mismo tiempo, condiciona dicha adquisicin. Utili-
fonolgica de la
raz
Representacin
de la raz
Representacin de la
forma del pretrito
fonolgica del
pretrito
zando el corpus de ingls de MacWhinney y Leinbach30, se
inicio el entrenamiento con una arquitectura de red sin
Figura 3. Estructura bsica del modelo de Rumelhart y McClelland capas intermedias, es decir, utilizando nicamente una
(1986). capa de entrada y otra de salida interconectadas. Una vez
Vol. 15 | No. 4 octubre-diciembre 2010 | 247
Arch Neurocien (Mex) INNN, 2010 Modelos neurocomputacionales del lenguaje

que se alcanz una ejecucin estable, se introdujo una capa cuando se trataba de decidir entre aplicar un mecanismo
intermedia completamente interconectada y se continu el para los verbos regulares o para los irregulares ante la
entrenamiento hasta estabilizar de nuevo su actuacin. llegada de un nuevo verbo. Por ejemplo, cuando el verbo es
Este procedimiento se repiti hasta que todas las formas desconocido ambos mecanismos se encuentran en posibi-
verbales fueron correctamente flexionadas. Estos autores lidad de actuar y es slo la retrotraccin exitosa de una
reportaron adems el fenmeno de errores en ejecucin de entrada a partir del lexicn asociativo, la que bloquea el
la forma U. mecanismo de aplicacin de regla regular. Sin embargo,
Los modelos expuestos han intentado explicar la esta propuesta requera la aceptacin de una entrada lxica
particular morfologa de los errores de sobrerregularizacin de activacin parcial (ej. verbos desconocidos pero pareci-
observada en nios a partir de una postura tpicamente dos fonolgicamente a un verbo irregular) podra bloquear
conexionista, en donde los mismos recursos de procesa- la aplicacin dicha regla regular y ello lleva a preguntarse
miento son utilizados para los verbos regulares y para los por qu no se sobrerregularizan los verbos regulares que
irregulares, en el entendido de que existe una competencia son similares a los irregulares (como blink-blinked con sink-
entre la flexin regular e irregular resultado de que comparten sank, stink-stank o sing-sang). La respuesta de Pinker34,35,
los recursos cognitivos. Esto no implica que los verbos fue incluir en el lexicn algunos verbos regulares, e incluso
regulares e irregulares sean procesados del mismo modo. identificar algunos de los factores por los cuales tales
De hecho, regulares e irregulares son procesados de forma formas regulares han de ser almacenadas: a cuando se
distinta porque desencadenan distintos patrones de activi- trata de formas regulares que tienen una alternativa irregu-
dad de la red dependiendo de la fonologa de la raz verbal. lar (ej. dreamed/dreamt) o de b formas regulares que
De este modo, la habilidad de la red para responder a verbos tienen semejanza con las irregulares (como blink). Esta l-
desconocidos es determinada por la similitud fonolgica de tima adicin al esquema planteado originalmente en Pinker
la nueva raz a la fonologa de las races conocidas, y el y Price 18, se asemeja bastante a las propuestas de
verbo desconocido ser flexionado del mismo modo que Jackendoff36-39, lingista discpulo de Chomsky, con respecto
el verbo conocido19. a flexibilizar los mecanismos basados en reglas hacia la
En esta discusin, resulta importante considerar una utilizacin del lexicn de tipo asociativo como base del pro-
de las alternativas tericas expuestas ante la visin cone- cesamiento lingstico y su operacin fundamental: la
xionista del procesamiento gramatical de la flexin verbal combinacin de elementos lxicos almacenados en memo-
que se ha vertido desde la posicin contempornea de ria, hiptesis que ha recibido evidencia a favor desde
la lingstica cognitivista tradicional. Pinker y Price18, en el estudios con resonancia magntica funcional40,41,42.
marco de su propuesta de mecanismo dual (words and Si se considera que en las ltimas propuestas de la
rules) asumen que las formas regulares de la flexin son aproximacin cognitivista tradicional como en los modelos
producidas por una regla mental (adicionar ed), mientras conexionistas, existe un acuerdo para considerar que existe
que las formas irregulares son aprendidas y almacenadas un componente asociativo implicado en el procesamiento
en la memoria. Sin embargo, este almacenamiento de lingstico, heredado de la base neuronal sobre la que
tems lxicos propios de la irregularidad no contemplaba la se lleva a cabo el procesamiento (es decir, que el lenguaje
existencia de familias de irregularidades que comparten es facilitado por la arquitectura del sistema neuronal), queda
elementos fonolgicos en la raz del verbo y/o en el seg- entonces plantear el debate de la descripcin especfica
mento lxico indicativo del tiempo, tales como ring y sing. de ese componente. Este debate fue esbozado en el apar-
El hallazgo de que tales familias de verbos protegen a sus tado anterior al referirnos a la dicotoma entre una
miembros de la sobrerregularizacin durante la adquisicin perspectiva localista y representaciones distribuidas. A este
indican alguna forma de interaccin entre diferentes formas respecto, cabe destacar el modelo propuesto por
de irregulares. Esta ha sido la razn principal para que Garagnani24, diseado para emular el aprendizaje de cua-
Pinker y Ullman34 consideren que el almacenamiento lxico tro palabras representadas con un patrn de activacin
de los tems irregulares, para formas fonolgicamente simi- diferenciado. Ubicado dentro de la disputa localismo-repre-
lares, genera representaciones en solapamiento y, por lo sentacin distribuida, su inters principal fue mostrar que
mismo, estas formas se refuerzan entre s. El lexicn que- el aprendizaje Hebbiano en una red de cuatro capas ocul-
da entonces definido como un sistema que combina tas (100 nodos por capa) generaba conjuntos de nodos
propiedades asociativas de tipo conexionista con represen- constituidos como huellas mnmicas diferenciadas
taciones estructuradas semntica, morfolgica, fonolgica anatmicamente, pero tambin con patrones de representa-
y sintcticamente. Es decir, se concibe como un sistema con cin distribuida (figura 4).
asociaciones lxicas para la flexin irregular y reglas para la Despus de un intenso entrenamiento a sus redes,
conformacin de la forma correcta del verbo en la flexin a partir de ms de 2,000 presentaciones, los resultados
regular. Esta hiptesis adicion un principio de bloqueo de su trabajo mostraron mecanismos subyacentes a la
248 | Vol. 15 | No. 4 octubre-diciembre 2010 |
Francisco Abelardo Robles-Aguirre Arch Neurocien (Mex) INNN, 2010

procesamiento gramatical implicado en la flexin es, al mis-


M1 PM PF PB AB A1 mo tiempo, un tem lxico, una regla de interfase y para as
combinar un afijo y nombre o verbo. De este modo, debe
admitirse que las piezas de una estructura sintctica se en-
cuentran almacenadas en la memoria de largo plazo, lo que
conlleva un cambio radical con respecto a la visin
cognitivista tradicional; palabras, afijos regulares, construc-
ciones y frases ordinarias pueden ser expresadas en un
formalismo comn, como piezas de una estructura almace-
Figura 4. Representacin esquemtica del modelo de Garagnani, nada en memoria. De este modo, el lexicn no sera un
Wennekers y Pulvermller (2009). Pueden observarse las seis regio- componente separado de las reglas que se utilizan para
nes simuladas como capas con conexiones azarosas activadas a
partir de un patrn de entrada y uno de salida. M1: corteza motora
ensamblar las oraciones. La distincin tradicional entre
primaria; PM: corteza promotora; PF: corteza prefrontal inferior; PB: palabras o lexicn y reglas se viene abajo al reconocer que
regin auditiva terciaria; AB: regin auditoria secundaria; A1: rea se trata slo diferentes tipos de elementos en memoria. De
auditiva primaria. este modo, mientras que los elementos lxicos pueden ser
emergencia de esas huellas anmicas. Especficamente, entendidos como reglas de interfase idiosincrticas
encontraron que exista: 1. Reclutamiento de nodos y con- (interfase entre la estructura fonolgica y sintctica o se-
solidacin de sus conexiones creciente durante las mntica, por ejemplo), las denominadas reglas (como
primeras etapas definiendo el conjunto de nodos pertene- adiciona ed) parecen ser reglas de interfase ms gene-
cientes a la huella mnmica de manera simultnea a 2. ral (que permiten la formacin de la estructura sintctica a
Inactivacin de los nodos con menor actividad situados a la partir de la fonolgica, o la semntica a partir de la
periferia de los conjuntos nodales de las huellas anmicas sintctica), o estipulaciones sobre las posibles formas de
en la ltimas etapas del entrenamiento. La conjuncin de estructuracin de un componente u otro37-39.
estos fenmenos llev a la separacin gradual de las asam- Para el mismo Jackendoff36,37, el acceso lxico en la
bleas de nodos (huellas), su decremento de tamao y percepcin lingstica no es serial ni sigue un procesamiento
reduccin del solapamiento. tpicamente simblico; una cadena de fonemas activa
Los hallazgos de ese estudio, aunque no conclu- todas las estructuras semnticas asociadas con ella; sea
yentes, implican que la emergencia espontnea de cual fuere su relevancia con el contexto semntico concreto,
representaciones lxicas distribuidas en la corteza cerebral, y permanecen activas durante un breve perodo de tiempo
pero diferenciadas anatmicamente, posee tanto compo- en memoria de trabajo. Del mismo modo, en lo que respec-
nentes de representacin distribuida como especializacin ta a las estructuras sintcticas que permitan fuentes de
de conjuntos de neuronas formando circuitos (localismo), generacin de oraciones en paralelo ligadas por distintas
situacin anloga a la codificacin cerebral que ocurre en interfases, con inhibicin recproca entre estas interfases,
otros procesos cognitivos. Jackendoff 37 supone mayores ventajas para modelos
conexionistas a partir de la posibilidad que tienen de reali-
Consideraciones finales zar anlisis sobre la base de la competencia entre
opciones.
En el marco de la bsqueda de una explicacin p- Sin embargo, tres problemas elementales parecen
tima del fenmeno lingstico, la disputa entre alternativas interponerse en el camino de los modelos conexionistas y
de procesamiento simblico y conexionismo desarrollada su explicacin del lenguaje al pasar a operaciones lings-
durante las ltimas tres dcadas ha propiciado que ambas ticas que van ms all de la flexin o identificacin de
perspectivas se aproximen en sus posicionamientos. Parece tems, an a pesar de la inclusin de principios de procesa-
cada vez ms claro, por ejemplo, que los modelos conexio- miento simblico de la informacin. El primero de ellos
nistas han de dar cuenta de la eleccin entre opciones de tiene que ver con la dificultad para separar la memoria de
aplicacin de un determinado procesamiento, al mismo trabajo de la memoria a largo plazo. Esta separacin parece
tiempo que las hiptesis simblicas tienen que ser ms sen- indispensable para dar cuenta de la linealidad requerida
sibles a los detalles de procesamiento lxico admitiendo durante la construccin de una frase, una vez que los ml-
una buena dosis de paralelismo. En este sentido, la tiples tems lxicos han sido activados. Es decir, para poder
propuesta de arquitectura paralela propuesta por Jackendoff37, construir una oracin especfica como: 1. El perro persigue
aunque no pretende otorgar una respuesta determinante a al gato y una que utilice los mismos elementos pero se iden-
dicha discusin, propone un acercamiento desde una teora tifique como distinta 2. El gato persigue al perro, es
lingstica que permite adems adentrarse en el procesa- necesario que la activacin ocurra en dos momentos distin-
miento cognitivo del lenguaje28,29,37-39. As, por ejemplo, el tos, quiz inclusive en dos arquitecturas diferentes: la
Vol. 15 | No. 4 octubre-diciembre 2010 | 249
Arch Neurocien (Mex) INNN, 2010 Modelos neurocomputacionales del lenguaje

activacin de los patrones de acceso lxico de la memoria actividad cerebral puede tener sobre la rehabilitacin del
de largo plazo y la activacin en el orden necesario o de la lenguaje en las diversas patologas es enorme y permitira
manera necesaria que codifique un patrn de linealidad que la intervencin incidiera de manera directa en el fun-
determinando que para 1. Perro es un elemento que va cionamiento cerebral alterado propio de la patologa de
antes de persigue, mientras que para 2. Es a la inversa. Un lenguaje.
ejemplo ms de la necesidad de separar ambos tipo de Quiz sea debido a las dificultades antes descritas,
memoria puede ser sugerido por la aparicin de un mismo que los dominios del lenguaje en los que los modelos cone-
elemento lxico en dos momentos distintos de la oracin. xionistas han incursionado con cierto xito son aquellos
La inexistencia de un modulo aparte de memoria de trabajo que hacen un uso mnimo de la estructura morfosintctica,
impedira identificar correctamente la aparicin doble del como el acceso lxico, codificacin fonolgica o morfologa
tem. simple. Todas las variantes tericas de la lingstica, inspi-
El segundo problema fundamental es la probable radas en la revolucin chomskyana y enmarcadas en el
imposibilidad de los modelos conexionistas para dar cuen- cognitivismo tradicional o procesamiento simblico han
ta del aprendizaje en un slo ensayo a partir de una serie posibilitado las descripciones lingsticas y las explicacio-
combinatoria de elementos ya aprendidos, pero nunca pre- nes estructurales de oraciones como las que componen
sentados del mismo modo. Por ejemplo, el que un oyente este texto, pero en ms de veinte aos de modelado
escuche: nos vemos a las ocho en el caf Pierrot una sola conexionista, ninguno de estos ha sido capaz de dar expli-
vez, an cuando no lo haya escuchado antes, es suficiente caciones que comprendan una mnima parte de las ope-
para que pueda presentarse al caf mencionado a la hora raciones referidas por la lingstica.
acordada, y no equivocarse presentndose en otro caf en Empero, quiz la simulacin conexionista del lenguaje
donde siempre se ha reunido con esa persona. El problema se pueda considerar como un camino largamente bloquea-
bsico es que los modelos conexionistas tienden a clasifi- do que apenas se ha empezado a recorrer en las ltimas
car el nuevo patrn de entrada (ej. la frase) de acuerdo a dos dcadas y media. En el contexto de la historia de la
un patrn parecido ante el cual han sido entrenados, gene- ciencia, tal vez veinte aos no son una cantidad tan enor-
ralizando una respuesta anterior en lugar de generar una me como se puede pensar en un primer momento.
nueva respuesta37,38. Despus de todo, desde la publicacin de los textos de
El tercer y ltimo problema es el codificar variables Saussure a principios de siglo hasta el nacimiento de la lin-
que permitan relaciones generales. Por ejemplo, la dificul- gstica contempornea con la aparicin de Estructuras
tad para codificar de manera pertinente, adems de los sintcticas de Chomsky transcurrieron mucho ms de dos
fonemas de una palabra o a la palabra como tal, o inclusive dcadas.
una asociacin semntica, el que esta palabra pertenezca
a una categora gramatical determinada, por ejemplo, un Agradecimientos
sustantivo o verbo. Este es un fenmeno descrito como b-
sico para la construccin de oraciones37,38. La identificacin A la doctora Yaneth Rodrguez Agudelo por su invaluable
de un elemento lxico como categora determinada permi- apoyo durante la escritura del presente artculo y sus continuas
observaciones del mismo, as como a la doctora Mara Lucinda
te su utilizacin diferenciada pero adems implica la
Aguirre Cruz por las sugerencias vertidas luego de la revisin del
variabilidad en la morfologa de ese tem y no de su
manuscrito final.
funcionalidad sintctica. Esta ltima cuestin convierte al
fenmeno ms difcil de ser simulado. REFERENCIAS
La superacin de estas dificultades puede abrir el
camino para construccin de teoras de la dinmica cerebral 1. Hauser M, Chomsky N, Fitch WT. The faculty of language: What is
durante el procesamiento lingstico. Esto, como se puede it, who has it and how did it evolve?. Science 2002; 298 (22):
1569-79.
intuir, no es una empresa sencilla. Parece claro, adems, 2. Chomsky N. Estructuras sintcticas. Mxico: Siglo XXI Editores,
que tal teorizacin no responder per se las cuestiones 1984/1994.
ms intrigantes relacionadas con la produccin del lenguaje 3. Chomsky N. Aspectos de teora de la sintaxis. Barcelona: Gedisa,
y que, seguramente, las incipientes propuestas sern fal- 1995/1999.
4. Chomsky N. El programa minimalista. Madrid: Alianza Editorial,
seadas por la investigacin neurocientfica en slo algunos 1999.
aos 39-43 . Sin embargo, la formulacin de modelos 5. Chomsky N. Linguistics and brain science. En Miyashita Y, Marantz
neurocomputacionales resulta meritoria debido a que hace A, ONeil W, editores. Image, language, brain. Cambridge: MIT
posible reconstruir modelos cerebrales de procesos Press, 2000: 13-28.
6. Casti J. Would be worlds. Nueva York: John Wiley and Sons, 1997.
cognitivos implicados en el lenguaje y postular cuestiona- 7. Gardner H. La nueva ciencia de la mente. Barcelona: Ediciones
mientos especficos sobre la produccin lingstica. Paids, 1996.
Adems, la relevancia que la formulacin de modelos de la 8. Burgos J. Una reconstruccin neuro-computacional del problema

250 | Vol. 15 | No. 4 octubre-diciembre 2010 |


Francisco Abelardo Robles-Aguirre Arch Neurocien (Mex) INNN, 2010

de los dos tipos de condicionamiento. En Rangel-Ligia A, Carlos- 26. Fitch WT, Hauser M y Chomsky N. The evolution of the language
Lozada Silva M, editores. Contribuciones a la Psicologa en faculty: Clarifications and implications. Cognition 2005; 97:
Venezuela, Tomo III. Caracas: Fondo Editorial de Humanidades, 179-210.
Universidad Central de Venezuela, 1999: 215-49. 27. Chomsky N, Hauser M, Fitch WT. Appendix. The minimalist program.
9. Rumelhart D, McClelland J, Hinton GE, Sejnowski TJ, Smolensky En http://www.wjn.harvard.edu/~mnkylab.
R, Williams R, Norman D. Introduccin al Procesamiento 28. Pinker S, Jackendoff R. The faculty of language: whats special
Distribuido en Paralelo. Madrid: Alianza Editorial, 1992. about it?. Cognition 2005; 95: 201-36.
10. Anderson J, Rosenfeld E. Neurocompuntig. Foundations of 29. Jackendoff R, Pinker S. The nature of the language faculty and its
Research. Cambridge: MIT Press, 1988. implications for evolution of language. Cognition 2005; 97:211-25.
11. Aleksander I, Morton H. Introduction to Neural Computing. 30. MacWhinney B, Leinbach J. Implementations are not
Londres: Chapman and Hall, 1990. conceptualizations: Revising the verb learning model. Cognition
12. Wasserman P. Neural Computing. Nueva York: Van Nostrand 1991; 40: 121-57.
Reinhold, 1989. 31. Plunkett K, Marchman V. U-shaped learning and frequency-effects
13. Rumelhart D, McClelland J. On learning the past tenses of english in a multilayered perceptron - Implications for child language-
verbs. En McClelland J, Rumelhart D & PDP Research Group. acquisition. Cognition 1991;38:43-102.
Parallel distributed processing: Explorations in the Microstructure 32. Westermann G. A constructivist neural network learns the past
of Cognition: Vol. 2. Psychological and Biological Models. tense of english verbs. En: Proceedings of the GALA 97 Conference
Cambridge: Bradford Books/MIT press, 1986. on Language Acquisition; Edinburgo: HCRC. 1997; 393-8.
14. Haykin S. Neural networks: A comprehensive foundation. Nueva 33. Westermann G. Emergent modularity and U-shaped learning in a
York: Prentice Hall, 1999. constructivist neural network learning the english past tense. En:
15. Enquist M, Ghiralanda S. Animal learning & Neural networks. Gernsbacher, M. y Derry, J, editors. Proceedings of the Twentieth
Princeton: Princeton University Press, 2005. Annual Conference of the Cognitive Science Society;1998;1130-5.
16. Kandel ER. Mecanismos celulares del aprendizaje y sustrato 34. Pinker S, Ullman MT. The past and future of the past tense.
biolgico de la individualidad. En Kandel E, Scwartz J, Jessell T, Trends in Cog Sci 2002; 6: 456-63.
editores. Principios de Neurociencia. Madrid: McGraw-Hill 35. Pinker S. Words and rules: the ingredients of language. Nueva
Interamericana, 2000: 1247-78. York: Basic Books, 1999.
17. Ponce A. Extraccin de reglas en redes neuronales difusas. 36. Jackendoff R. Foundations of language. Oxford: Oxford University
Guadalajara. Universidad de Guadalajara, 2005. Press, 2002.
18. Pinker S, Price A. On language and connectionism - analysis of a 37. Jackendoff R. A parallel architecture perspective on language
parallel distributed processing model of language acquisition. processing. Brain Res 2007; 1146: 2-22.
Cognition 1988; 28: 73-93. 38. Culicover P, Jackendoff R. The simpler syntax hypothesis. Trends
19. Westermann G, Plunkett K. Connectionist models of inflection in Cog Sci 2006; 10 (9): 413-8.
processing. Lingue e Linguaggio 2007; VI.2: 291-311. 39. Culicover P., Jackendof f R. Simpler syntax. Oxford: Oxford
20. Poeppel D, Hickok G. Towards a new functional anatomy of University Press, 2005.
lanaguage. Cognition 2004; 92: 1-12. 40. Balaguer RD, Rodrguez-Fornells A, Rotte M, Bahlmann J, Heinze
21. Friederici A. Pathways to language: Fibertracts in the human H, Mnte T. Neural circuits subserving the retrieval of stems and
brain. Trends in Cog Sci 2009; 13(4): 175-81. grammatical features in regular and irregular verbs. Hum Brain
22. Friederici A. Brocas area and the ventral premotor cortex in Mapp 2006; 27: 874-88.
language: Functional differentiation and specificity. Cortex 2006; 41. Sahin N. Seeking the neural basis of grammar: English noun and
42: 472-5. verb morphological processing investigated with rapid event-
23. Shalom D, Poeppel D. Functional anatomic models of language: related fMRI and intracortical electrophysiology (tesis). Cambrdige:
assembling the pieces. The Neuroscientist 2008; 14(1): 119-27. Massachussets Institute of Technology, 2003.
24. Garagnani M, Wennekers T, Pulvermller F. Recruitment and 42. Sahin N, Pinker S, Halgren E. Abstract grammatical processing of
consolidation of cell assemblies for words by way of Hebbian nouns and verbs in Brocas area: Evidence from fMRI. Cortex
learning and competition in a multi-layer neural network. Cogn 2006; 42: 540-62.
Comp 2009; 1: 160-76. 43. Pulvermller F. The neuroscience of language. On brain circuits
25. Chomsky N. Three factors in language design. Ling Inq, 2005; 36 of words and serial order. Cambridge: Cambridge University Press,
(1): 1-22. 2002.

Vol. 15 | No. 4 octubre-diciembre 2010 | 251

S-ar putea să vă placă și