Sunteți pe pagina 1din 109

Í NDICE

La leyendade John von N eumann, por P. R. Halmos ....... ........ 7


Prefacio, por K.lara von Neumann...... .. ............ ........... .. ... ... ....... . 33
Introducción ............... .. ........ .. .......... ............ ............. ............... ..... 41
Primera parte. El ordenador .. .... ....... ............. ........ ........... ......... ... 43
El procedimiento analógico............. ............. .................... .... 43
El procedimiento digital ............................................ :....... ... 46
Control lógico ...... ........ ..... .. .... ...... ....... .... ... ..... ... .................. 50
La consiguiente necesidad de un ó~gano especi,al de me-
moria ............................................................................. :........• ' 52
Procedimientos numéricos mixtos ......... .. ......... ......... ......... 60
Precisión ........... ..... ..... ,. ,.... .. ,........................................... .. ..... 62
Características de las máquinas analógicas modernas ....... . 66
Características de las máquinas digitales modernas ........... 66
Segunda parte. El cerebro .... ............. ............................................ 75
Descripción simplificada del funcionamiento de la neu-
rona.......... ............... .................. ..... ........... ............................ .. 76
La naturaleza del impulso nervioso..................... ................ 76
Criterios de estimulación... ....... ...... .... .,............. ... ................ 87
El problema de la memoria en el sistema nervioso ... .... ..... 95
Partes analógicas y digitales en el sistema nervioso .. ......... 102
Los códigos y su papel en el control del funcionamiento
de una máquina............................ .......................................... 103
La estructura lógica del sistema nervioso ........... ............ ..... 107
Naturaleza no di gital sino estadística, del sistema de
notaciones empleado......................... ......... ....... .. .... ........ ...... 109
El lenguaje del cerebro, no el lenguaje de las matemáticas 113
LA LEYENDA DE JOHN VON NEUMANN

por P. R. HALMOS':'

J ohn von N eumann fue un matemático brillante que hizo


importantes contribuciones a la física cuántica, a la lógica, a
la meteorología, a la guerra, a la teoría y aplicaciones de los
ordenadores rápidos y, a través de la teoría matemática de
los juegos estratégicos, a la economía.

Juventud

Nació el 28 de diciembre de 1903 en Budapest, Hungría.


Era el mayor de tres hermanos de una familia judía acomo-
dada. Su padre era un banquero que recibió un pequeño
título de nobleza del Emperador Francisco José; el título
era hereditario, por lo que el nombre completo de von
Neumann en húngaro es Margittai Neumann János. (Los
húngaros colocan el apellido en primer lugar. Invirtiendo el
orden, este nombre significa literalmente Juan Neumann de
Margitta. El «de», indicado por la «i» final, es lo que hizo

" N. del E.: P. R. Halmos es profesor en la Indiana University, fue


ayudante de Van Neumann y ha trabajado principalmente en teoría de
la medida, probabilidades, teoría ergódica, grupos topológicos, álgebra
de Boole, álgebra lógica, y teoría de operadores en un espacio de
HilbeÍÍ,EI artículo que traducimos a modo de prólogo fue publicado
en Ameritan Mathematical Monthly, 80 (1973), 382-394.
8 / EL ORDENADOR Y EL CEREBRO

surgir el «von»; en la traducción alemana se omitió el nom-


bre de lugar. Estos títulos no se utilizaban nunca en la vida
social normal y, hacia el final de la Primera Guerra Mun-
dial, habían caído totalmente en desuso. En Hungría, Von
Neumann siempre ha sido conocido como Neumann János
y sus obras están clasificadas por la letra N. Da la casuali-
dad que sus dos hermano~, al instalarse en Estados Unidos,
resolvieron el problema del nombre de distinto modo. Uno
de ellos reserva el título de nobleza únicamente para las
grandes ocasiones yen la vida diaria se hace llamar Neu-
mann; el otro le quita brillo a la partícula y, uniéndola al
apellido, firma Vonneumann.)
Incluso en la ciudad y época que produjeron a Szilard
(1898), Wigner (1902) y Teller (1908), destacó el genio de
Von Neumann y desde su infancia empezaron a circular
leyendas acerca de él. Muchas de ellas aluden a su memoria.
Su pasión por la historia nació pronto, y como memorizaba
todo lo que estudiaba, acabó convirtiéndose en un experto
en historia bizantina, en los detalles del proceso de Juana de
Arco, así como en las anécdotas de las batallas de la Guerra
Civil Americana.
Según dicen, podía memorizar los nombres, direcciones
y números de teléfono de una columna del listín con sólo
leerla. Las historias más recientes insisten en su sentido del
humor y su afición por los chistes, juegos de palabras y ri-
mas picantes. Hablando del listín de teléfonos de Manhattan,
dijo una vez que conocía todos los números que contenía
-lo único que le faltaba para poder prescindir del libro era
saber los nombres a quienes pertenecían los números-o
La mayor parte de su leyenda se centra sobre su extra-
ordinaria rapidez para asimilar ideas y resolver problemas.
A los seis años sabía dividir mentalmente dos números de
ocho decimales; a los ocho dominaba el cálculo diferencial;
La leyenda de Jahn van Neumann / 9

a los doce, había leído y entendido la «Théorie des Fonc-


tions» de Borel.
Estas son algunas de las anécdotas que circulan acerca
de Von Neumann. Contaré algunas más, pero estoy seguro
de no haberlas oído todas. Muchas no están escritas en nin-
guna parte y no son verificables, así que el lector queda
advertido. Pero incluso las que son puramente ficticias nos
enseñan algo de él, pues las historias que la gente teje alre-
dedor de un personaje popular son siempre algo significati-
vas de su forma de ser.
Durante sus años escolares fue discípulo de un maestro
inteligente y de gran conciencia profesional, L. Rátz, y algo
más tarde, tuvo como profesores el joven M. Fekete y al
ilustre L. Féjér, «el padre espiritual de muchos matemáticos
húngaros». (<<Fekete» significa «Negro» y «Féjér» es una
ortografía arcaica de «Blanco».)
Von Kármán cuenta que el padre de Von Neumann le
pidió, cuando J ohn tenía 17 años, que disuadiera al chico de
ser un matemático, por razones de dinero. Buscando un
compromiso aceptable para ambos, Von Kármán les propu-
so que John hiciera la carrera de Químicas. Así se decidió, y
Von Neumann estudió Químicas en Berlín (1921-1923) y
en Zürich (1923-1925). En 1926, obtuvo a la vez el diploma
de ingeniero químico en Zürich y el Doctorado en Mate-
máticas en Budapest.

Primeras obras

Su definición de los números ordinales (publicada cuando


tenía 20 años), es la que hoy se utiliza universalmente. Su
tesis doctoral trataba también de la teoría de conjuntos; los
axiomas que formuló dejaron una huella permanente en la
materia. Durante la mayor parte de su vida, conservó este
lO/EL ORDENADOR Y EL CEREBRO

interés por la teoría de conjuntos y la lógica, aunque se


impresionó vivamente por la demostración que hizo K.
G'ódel sobre la imposibilidad de demostrar que la matemá-
tica era lógicamente consistente.
Admiraba a Güdel, elogiándolo en estos términos: «Las
aportaciones de Kurt Gadel en el ámbito de la lógica mo-
derna son algo singular y monumental, de hecho son algo
más que un monumento, son más bien un hito que perma-
necerá visible a través del tiempo y del espacio ... En las
aportaciones de Gb'della lÓgica ha cambiado totalmente de
naturaleza y posibilidades". En una charla titulada «El
Matemático», hablando, entre otras cosas, del trabajo de
GO'del, dijo: «Esto ocurrió mientras yo vivía, y sé por expe-
riencia con qué' humillante facilidad cambiaron mis propios
valores acerca de la verdad matemática absoluta en este
momento, y cómo volvieron a cambiar después por tres
veces consecutivas!».
Fue profesor (Privatdozent) en Berlín (1926-1929) y en
Hamburgo (1929-1930). Durante este periodo, trabajó prin-
cipalmente sobre dos temas alejados de la teoría de conjun-
tos pero cercanos entre sí; la física cuántica y la teoría de
operadores. Ni siquiera es justo presentarlos como dos
temas: realmente, gracias en parte a la obra de Von Neu-
mann, pueden considerarse como dos aspectos diferentes
de un mismo tema. Inició el proceso de construcción de
una matemática precisa a partir de la teoría cuántica, y
(realmente viene a ser lo mismo) se inspiró de los nuevos
conceptos de la física para profundizar y ampliar el estudio
puramente matemático de los espacios de dimensiones infi-
nitas y sus operadores. Su intuición básica fue que la geo-
metría de los vectores en un espacio de Hilbert tiene las
mismas propiedades formales que la estructura de los esta-
dos de un sistema mecánico cuántico. Aceptado esto, la di-
ferencia entre un físico cuántico y un matemático de la teo-
La leyenda de John van N eumann / 11

ría de operadores se reduce a una cuestión de lenguaje y de


enfoque. El libro de Von Neumann sobre mecánica cuánti-
ca fue editado (en Alemania) en 1923. Fue traducido al
francés (1947), al español (1949) y al inglés (1955), y sigue
siendo uno de los más básicos e interesantes tratamientos
del tema. Hablando de las contribuciones de \/on Neumann
a la mecánica cuántica, el premio Nobel E.\Nigner dijo que
«sólo eso le hubiera ya valido una posición destacada en el
marco de la física teórica contemporánea».

Princeton

En 1930, Von N eumann fue invitado a dar unas conferen-


cias en la Universidad de Princeton, durante un trimestre y
al año siguiente fue contratado como profesor. En 1933,
cuando se creó el Instituto de Estudios Avanzados, fue uno
de los seis profesores fundadores de la Escuela de Mate-
máticas, puesto que ocupó durante el resto de su vida.
(Aunque no haya ninguna relación directa entre el Instituto
y la Universidad de Princeton, la confusión es bastante
corriente. Son dos instituciones totalmente distintas. El
Instituto se creó únicamente como centro de investigación,
no como centro docente. Los seis primeros profesores de la
Escuela de Matemáticas fueron J. W. Alexander, A. Eins-
tein, M. Morse, O. Veblen, J. von Neumann y H. Weyl.
Cuando el Instituto entró en funcionamiento no tenía loca-
les y aceptó la hospitalidad de la Universidad de Princeton.
A lo largo de los años, sus miembros y visitantes han man-
tenido estrechas relaciones profesionales y personales con
sus colegas de la Universidad. Esto contribuyó a la aludida
confusión que se clarificó en parte cuando en 1940 el
Instituto adquirió unos locales propios, a menos de dos
kilómetros del campus de Princeton.)
12/ EL ORDENADOR Y EL CEREBRO

En 1930, Von Neumann se casó con Marietta Kovesi; en


1935 nacía su hija Marina. (En 1956 Marina von Neumann
obtuvo su diploma de Radcliffe con la mención «summa
cum laude», poseyendo la mejor puntuación de su clase. En
1972, Marina von N eumann fue nombrada miembro del
Consejo de Asesores Económicos por el Presidente Nixon.)
En los años 1930.elprestigio de von Neumann, el matemá-
tico, creció al ritmo que habían prometido sus meteóricos
comienzos, y simultáneamente se propagaban las leyendas
sobre J ohnny, el hombre. Le gustaba el estilo de vida ameri-
cano y se abstenía de formalismos, dando una imagen muy
distinta de la del profesor alemán tradicional. N o era un
exiliado y no se consideraba como tal. Se sentía cosmopoli-
ta y era ciudadano americano por decisión propia.
Las fiestas en casa de los Von Neumann eran frecuentes,
conocidas y se prolongaban hasta muy tarde. J ohnny no era
un gran bebedor, pero estaba lejos de ser un abstemio. En un
restaurante de carretera, pidió una vez un vaso de coñac
con una hamburguesa. La excursión era para celebrar su
cumpleaños, y se sentía muy alegre aquella noche.
Uno de sus regalos fue un juguete, una pequeña caja de
cartón que servía de caja de resonancia, y de la cual colgaba
una cinta; cuando se tiraba bruscamente de la cinta uno o
dos centímetros se oían las palabras: «¡Feliz Cumpleaños»!
Johnnyhizo sonar la caja muchas veces aquella noche.
Otro día, en una fiesta en su casa, había uno de esos pájaros
termodinámicos que hunde el pico en un vaso de agua, se
levanta, se balancea de un lado a otro durante un rato y
luego repite el ciclo. Pronto se estableció en la casa una
norma temporal pero estricta: todo el mundo debía beber
cada vez que lo hacía el pájaro.
Le gustaba conducir, pero no lo hacía bien. En Prin-
cetan, había la «esquina de Van Neumann» donde, según
cuentan, sus coches siempre tenían problemas. En el caso
La leyenda de Jahn van Neumann / 13

concreto de un accidente, dio la explicación siguiente, que


luego se recordaría a menudo: «Seguía la carretera cuesta
abajo. Los árboles a la derecha desfilaban en orden a unas
60 millas por hora. Cuando de repente uno de ellos se atra-
vesó en el camino. ¡Buum!».
En una época, tuvo un perro que llamó «Inverso».
Jugaba al póker, pero sólo de vez en cuando y solía perder.
En 1937, los Von Neumann se divorciaron; en 1938, se
volvía a casar con Klára Dán. Le enseñó matemáticas y se
convirtió en una experta programadora. Años más tarde,
ella comentó en una entrevista acerca de su marido: «Tiene
una idea muy vaga de la geografía de la casa ... Una vez> en
Princeton, le mandé que me trajera un vaso de agua; volvió
un poco más tarde preguntando donde se guardaban los
vasos ... Hacía sólo 17 años que vivíamos en la casa ... No
coge jamás un martillo o un tornillo; no hace nada en la
casa. Lo único que sabe es arreglar cremalleras. Puede repa-
rar una cremallera rota en un momento».
Von Neumann no correspondía en absoluto a la imagen
caricaturesca del profesor universitario. Era un hombre
pequeño y grueso> siempre muy limpio y bien vestido. Hay,
no obstante> una o dos anécdotas sobre su distracción.
Klára contaba que una mañana en Princeton, su marido
salió de casa para ir en coche hasta Nueva York donde tenía
que ver a alguien y al llegar a New Brunswick, la llamó por
teléfono para preguntarle: «¿Para qué voy a Nueva York?»
Puede que no venga estrictamente a cuento, pero me acuer-
do de una vez en que le llevé por la tarde hasta su casa.
Como iba a haber una reunión allí por la noche y no estaba
seguro de acordarme exactamente de cómo llegar, le pre-
gunté cómo podría reconocer su casa a la vuelta. «Es fácil,
-me contestó-, es la que tiene esta paloma posada cerca de
la entrada».
14 / EL ORDENADOR Y EL CEREBRO

Habitualmente, era de carácter vivo y de rápida respues-


ta. Podría ser demasiado abrupto tal vez, pero jamás era
frío o pretencioso. Una vez el teléfono nos interrumpió
mientras estábamos trabajando en su despacho. La conver-
sación fue muy breve: entre «Hol~» y «Adiós», no dijo
nada más que «Fekete pestis», que significa «¡Peste negra!».
Al acordarse, después de haber colgado, de que yo entendía
el húngaro, se volvió hacia mí y me explicó, en un tono
entre exasperado y contrito, que no estaba hablando de uno
de los jinetes del Apocalipsis, sino únicamente de unos
invitados inesperados e indeseados de los que su mujer le
acababa de hablar.
En una ocasión viajando en un tren, estaba hambriento
y le pidió al revisor que enviara al chico de los bocadillos a
su compartimento. El revisor, ocupado e impaciente, le
contestó que se lo diría si le veía. J ohny le replicó: «Este
tren es lineal, ¿no?».

Rapidez

La rapidez con la que Van Neumann podía pensar era algo


asombroso. G. Pólya reconoció que: «Johnny era el único
estudiante que jamás había temido. Si a lo largo de una lec-
ción, yo planteaba un problema sin resolver, había muchas
probabilidades de que viniera a verme al final de la clase
con la solución completa garabateada en un trozo de pa-
pel». Ya fuesen demostraciones abstractas o cálculos numé-
ricos, todo lo hacía rápidamente, pero estaba particular-
mente orgulloso de su facilidad para manejar números.
Cuando su ordenador estuvo listo para hacer una prueba
preliminar, alguien propuso darle un problema relativamen-
te fácil relacionado con potencias de 2. (Era algo así: ¿ cuál
es la más pequeña potencia de 2 tal que su cuarto dígito
La leyenda de John van Neumann / 15

decimal a partir de la derecha sea 7?) Esto es absolutamente


trivial para uno de los ordenadores actuales; sólo requiere
una fracción de segundo en un moderno ordenador. Johnny
empezó al mismo tiempo que la máquina y acabó primero.
Hay una famosa anécdota relacionada con una expre-
sión complicada que un joven científico del Campo de
Pruebas de Aberdeen necesitaba calcular. Resolvió el pri-
mer caso especial en diez minutos; el segundo cálculo le
llevó una hora de trabajo lápiz en mano y para el tercero
tuvo que recurrir a una calculadora de mesa, y aun así le
ocupó toda una mañana. Cuando Johnny llegó a la ciudad,
el joven le enseñó la fórmula y le preguntó cÓmo calcularla.
Johnny aceptó con agrado enfrentarse con el problema.
«Vamos a ver qué pasa en algunos de los primeros casos. Si
ponemos n = 1, obtenemos ... » y miró al cielo mascullando
durante un minuto. Conocida la respuesta, el otro avanzó
«¿2,31?», Johnny le miró algo sorprendido y dijo: «Ahora
si n = 2 ... » parafraseando de nuevo algunos de sus pensa-
mientos a medida que iba trabajando. El otro, que ya lo
había resuelto, seguía muy bien los cálculos de J ohnny y,
unos segundos antes de que acabara, le interrumpió y en un
tono vacilante dijo «¿7,49?». Esta vez Johnny frunció el
ceño y siguió cada vez más rápido: «si n = 3, entonces ... »
ocurrió lo mismo que antes: Johnny masculló durante
varios minutos, el otro escuchó discretamente y justo antes
de acabar Johnny, exclamó: «¡11,06!». Esto era demasiado
para Johnny. «Era imposible», ¡Ningún principiante desco-
nocido podía vencerle! Estaba enfadado y se enfurruñó
hasta que el joven hubo confesado la broma que le había
gastado.
También vale la pena contar el famoso problema de la
mosca. Dos ciclistas situados a 20 millas de distancia,
empiezan a pedalear dirigiéndose el uno hacia el otro a una
velocidad constante de 10 millas por hora. En el mismo
momento, una mosca que vuela a una velocidad constante
16/ EL ORDENADOR Y EL CEREBRO

de 15 m por h sale de la rueda delantera de la bicicleta que


se dirige hacia el sur en dirección a la rueda delantera de la
bicideta que va hacia el norte, tras tocarla da la vuelta y se
dirige otra vez hacia la rueda delantera de la bicicleta que va
hacia el sur, y continúa el mismo circuito hasta quedar
aplastada entre las dos ruedas delanteras. La pregunta es:
¿cuál es la distancia total recorrida por la mosca? La manera
lenta de resolverlo es calcular la distancia recorrida por la
mosca en el primer trozo del viaje en dirección al norte,
luego en el segundo, luego en el tercero, etc., y al final, su-
mar la serie infinita así obtenida. Pero hay una manera más
rápida que es observar que las bicicletas se juntan exacta-
mente una hora después de haber salido, de tal forma que la
mosca sólo tiene una hora para hacer sus idas y vueltas, y
la respuesta en consecuencia debe ser 15 millas. Cuando
este problema fue sometido a Von Neumann, lo resolvió
instantáneamente lo que decepcionó a la persona que se lo
planteaba: «¡Oh! ¡Seguro que conocía el truco!» «¿Qué
truco?», preguntó Von Neumann, <<lo único que he hecho
ha sido sumar la serie infinita».
Recuerdo una clase en la que Von Neumann estaba
hablando de anillos de operadores. En un momento deter-
minado señaló que se podían clasificar de dos modos: fini-
tos frente a infinitos y/o discretos frente a continuos.
Siguió diciendo: «Esto nos conduce a un total de 4 posibili-
dades y, de hecho, las cuatro pueden presentarse. Pero·
vamos a ver, ¿son realmente posibles las cuatro?». Muchos
de nosotros en la clase veníamos estudiando este tema con
él desde hacía tiempo, y no era ningún problema pararse un
momento y ensayar mentalmente las cuatro posibilidades.
No era problema, bastaba con dos segundos para cada una
y, dejando un margen de tiempo para alguna duda o algún
cambio de dirección, nos hubiera requerido algo así como
10 segundos en total. Pero a los dos segundos, Von
Neumann decía: «Sí, son posibles», y ya iba dos frases por
La leyenda de John von Neumann ! 17

delante, antes de que nosotros, atontados, pudiéramos re-


cuperar la marcha.

Lengua

Como el húngaro no es exactamente lo que se llama una


«lingua franca», todos los húngaros educados deben apren-
der uno o más idiomas con una mayor capacidad de comu-
nicación que la de su lengua materna. En su casa, los Von
Neumann hablaban húngaro, pero él se expresaba perfecta-
mente en alemán, en francés, y naturalmente en inglés. Su
inglés era rápido y gramaticalmente correcto, pero tanto en
la pronunciación como en la construcción tenía reminiscen-
cias del alemán. Su «Sprachgefüh1»'é no era perfecto> y sus
frases solían ser complicadas. La elección de sus palabras
era generalmente correcta; los neologismos eventuales
(como un teorema «auto-obvio») desaparecieron con los
años. Su ortografía era a veces más lógica que la usual (al
igual que se escribe «commit», escribía también «ommit»,
en vez de «omit»). S. Ulam cuenta que cuando fue de viaje a
México, intentaba hacerse entender utilizando un «neo-cas-
tellano» que era una creación propia: palabras inglesas con
el artículo «el» y terminaciones españolas.
Preparaba sus conferencias, pero no solía utilizar notas.
Una vez, cinco minutos antes de una conferencia dada a un
público no especializado sobre un tema no matemático, le
vi mientras la preparaba. Estaba sentado en el salón del
Instituto y garabateaba en una pequeña ficha algunas frases
como éstas: «Motivación, 5 mns.; contexto histórico, 15
mns.; relación con la economía, 10 mns».

':- N. del T. «Sentido lingüístico».


18/ EL ORDENADOR Y EL CEREBRO

Como profesor de matemáticas era muy brillante.


Hablaba rápido pero de manera clara; hablaba con preci-
sión y solía agotar el tema. Por ejemplo, si una cuestión
tiene cuatro tratamientos axiomáticos posibles, la mayoría
de los profesores se conforman con desarrollar uno, o
e

como mucho dos y mencionan de paso los otros dos. A


Von Neumann le gustaba presentar un «grafo completo» de
la situación.
Solía describir el camino más corto para pasar del pri-
mer enfoque al segundo, del primero al tercero, desarro-
llando las doce posibilidades. .
Su única manía desagradable ~ra la manera que tenía de
utilizar el borrador. Solía escribir en la pizarra la fórmula
que estaba explicando. Cuando había demostrado que uno
de los símbolos podía ser reemplazado por otro, en vez de
escribir de nuevo la fórmula entera adecuadamente modifi-
cada, borraba el símbolo a reemplazar y lo sustituía por su
nueva expresión. Esto provocaba entre los estudiantes que
tomaban notas reacciones de profundo desánimo, sobre
todo porque, para no perder el hilo de la argumentación,
seguía hablando al mismo tiempo que corregía el símbolo.
Su estilo era tan convincente que no hacía falta ser un
experto para disfrutar de sus clases; todo parecía fácíl y
natural. Aunque después pudiese pasar como con las comi-
das chinas. Unas horas más tarde, una memoria media no
podía mantener el frágil equilibrio entre implicaciones
mutuamente relacionadas y se encontraba, perpleja, ham-
brienta de explicaciones.

Estilo

Como escritor matemático, Von Neumann era claro pero


no limpio; su estilo era potente pero no elegante. Al parecer
La leyenda de Jahn van Neumann / 19

le gustaban los detalles insignificantes, las repeticiones


innecesarias y las notaciones tan explícitas que podían lle-
gar a ser confusas. En un trabajo, para mantener una distin-
ción lógicamente válida pero absolutamente transparente y
de poca importancia, introdujo una extensión de la nota-
ción normal de una función: alIado del símbolo <p (x), utili-
zó también la notación <p «x». El rizo que se había rizado
para llegar hasta ahí tuvo que rizarse de nuevo un poco más
tarde, llegando a <p «(x»), y, por último a <p ««x»». Ecua-
ciones del tipo (<!J«(a»»2 = <p «(a»» precisaban ser peladas
antes de poder ser digeridas; unos estudiantes irreverentes
hablaron de este trabajo corno de la cebolla de Von Neu-
mann.
Una de las posibles razones de la obsesión de Von Neu-
mann por el detalle era que encontraba más rápido el atajar
por sí mismo a través de la maleza que dar referencias y ver
lo que otros habían hecho. El resultado era que a veces
parecía ignorar la literatura básica sobre un terna. Si necesi-
taba hechos, hechos muy conocidos, de la teoría de la inte-
gración de Lebesque, entraba de lleno en ello, definía las
nociones básicas y desarrollaba la teoría hasta el punto en
que podía serle útil. Si, en un trabajo posterior, necesitaba
de nuevo la teoría de la integración, solía volver al principio
y rehacerlo todo de nuevo.
No le preocupaban las largas cadenas de sufijos, ni los
subíndices de subíndices; sus trabajos están llenos de cálcu-
los algebraicos superfluos. La razón, probablemente, es que
él tenía una visión de conjunto: los árboles no le ocultaban
el bosque. Disfrutaba viendo todas las partes relacionadas
con el problema que estaba examinando. Nunca descendía
al nivel de su audiencia; lo contaba corno lo veía. Esta cos-
tumbre no causó excesivos perjuicios; su consecuencia
principal fue que, en cierto número de ocasiones, dio a
20 / EL ORDENADOR Y EL CEREBRO

menos hombres la oportunidad de publicar «mejoras» de su


trabajo.
Como no tuvo relaclOnes formales con instituciones
docentes después de haber cumplido los treinta años, Von
Neumann no tenía. una larga lista de estudiantes; dirigió
solamente una tesis doctoral. Sin embargo, a través de sus
conferencias y de conversaciones informales, adquirió algu-
nos discípulos que continuaron su obra en una u otra direc-
ción. Entre ellos se encuentran J. W. Calkin, J. Charney, H.
H. Goldstine, P. R. Halmos, 1. Halperin, O. Morgenstern,
F. J. Murray, R. Schatten, L E. Segal, A. H. Taub y S. Ulam.

Hábitos de trabajo

Von Neumann no se conformaba con ver las cosas rápida y


claramente; trabajaba también muy duro. Su mujer decía
que «siempre ha escrito sus trabajos en casa por la noche o
al amanecer. Su capacidad de trabajo era prácticamente ili-
mitada». Además del trabajo que hacía en casa, trabajaba
mucho en su despacho. Llegaba pronto, se quedaba hasta
tarde y nunca malgastaba el tiempo. Era sistemático en las
cosas grandes como en las pequeñas; por ejemplo, era un
meticuloso corrector de pruebas. Cuando corregía un
manuscrito, solía anotar en la primera página los números
de las páginas donde había encontrado errores, y con unos
signos apropiados, apuntaba cuantos errores había anotado
en cada página. Otro ejemplo: cuando se le pedía que hicie-
ra un resumen de no más de 200 palabras, no se conforma-
ba con un cálculo aproximado, del tipo: hay unas 20 líneas
de 10 palabras cada una, sino que contaba cada palabra.
Cuando yo era su ayudante, hicimos un trabajo conjun-
tamente. Después de haber hecho la parte de reflexión y
La leyenda de Jahn van Neumann /21

discusión, me tocó escribirlo. Lo hice y le entregué unas 12


páginas mecanografiadas. Tras leerlo 10 criticó sin piedad,
tachó la mitad y lo reescribió; el resultado dio 18 páginas.
Entonces quité algunos germanismos, corregí algunos erro-
res ortográficos y lo reduje a unas 16 páginas. Lejos de estar
satisfecho, introdujo cambios fundamentales de nuevo: el
resultado fueron 20 páginas. El proceso divergente prosi-
guió (cuatro veces por cada lado, si recuerdo bien); el tama-
ño final fue de 30 páginas mecanografiadas (que se queda-
ron en 19 una vez impresas).
Otro rasgo notable y digno de envidiar de Von Neu-
mann era su valor matemático. Si, en medio de la búsqueda
de un contraejemplo, aparece una serie infinita con muchos
exponenciales con exponentes cuadráticos, la mayoría de
los matemáticos suelen coger una nueva hoja y buscar otro
contraejemplo. ¡Pero no Johnny! Cuando esto le ocurría,
decía muy contento: ,,¡Ah! una función theta ... » y se sumía
en unos cálculos impresionantes. No le asustaba nada.
Sabía muchas matemáticas, pero también tenía lagunas
en sus conocimientos, sobre todo en la teoría de números y
en topología algebraica. Una vez que vio a algunos de noso-
tros delante de la pizarra mirando un rectángulo que tenía
unas flechas marcadas en cada lado, quiso saber lo que era.
"Oh, si eso es el torus, sabes, el símbolo de identificación
normal». Pues no, no lo sabía. Es algo elemental, pero nun-
ca lo había encontrado, y aunque muchos estudiantes lo
conocían, él no.
Cerebro, rapidez y trabajo duro daban resultados. En
las Obras Completas de Von Neumann, hay una lista de
más de 150 trabajos. Unos 60 son de matemática pura (teo-
ría de conjuntos, lógica, grupos topológicos, teoría de la
medida, teoría ergódica, teoría de los operadores y geome-
tría continua), unos 20 de física, unos 60 de matemática
aplicada (incluyendo estadística, teoría de juegos y teoría de
22 / EL ORDENADOR Y EL CEREBRO

los y un grupo tratan de temas


matemáticos especiales o temas generales no-matemáti-
cos. Un número especial del Bulletin of the American Ma-
thematical Society estuvo dedicado a la relación de su vida y
obras (en mayo de 1958).

Matemáticas puras

La reputación de Von Neumann como matemático estaba


sólidamente establecida en los años 1930, debido a sus tra-
bajos sobre teoría de conjuntos, teoría de los cuanta y teo-
ría de los operadores, pero todavía le faltaba producir lo
que hubiera bastado para llenar tres carreras ordinarias en
el campo de las matemáticas puras. El primero de estos tra-
bajos fue la demostración del teorema ergódico. Varias for-
mulaciones más o menos precisas habían sido avanzadas
anteriormente en mecánica estadística, que se conocían
como la hipótesis ergódica. En 1931, B. O. Koopman pu-
blicó una nota interesante que decía en substancia que uno
de los marcos en el cual se podía hacer una formulación
concreta de la hipótesis ergódica era la teoría de los opera-
dores en un espacio de Hilbert. Precisamente la misma
rama que Von Neumann había utilizado antes para dar una
formulación precisa a la mecánica cuántica y sobre la cual
había escrito varios trabajos que hicieron época. Podemos
especular sobre la reacción de Von Neumann al leer el tra-
bajo de Koopman. Debe haber sido algo así: «Según Koop-
man, la hipótesis ergódica se convierte en un teorema sobre
espacios de Hilbert y si es así, debo ser capaz de demostrar-
lo. Vamos a ver ahora ... ". Poco tiempo después de la apari-
ción del trabajo de Koopman, Von Neumann formulaba y
demostraba lo que actualmente se conoce como el teorema
La leyenda de Jahn van Neumann! 23

de la media ergódica para operadores unitarios. Hubo una


confusión momentánea, a causa de la fecha de publicación,
acerca de quién hizo qué antes de quién, pero ahora se ha
reconocido universalmente que el teorema de Von Neu-
mann precedió e inspiró el teorema del punto ergódico de
G. D. Birkhoff. A lo largo de los años siguientes Von Neu-
mann publicó varios trabajos más de primer orden sobre
teoría ergódica y utilizó las técnicas y los resultados de
esta teoría más tarde, al estudiar los anillos de operadores.
En 1900, Hilbert presentó una famosa lista de 23 pro-
blemas que constituían un compendio del estado de la ma-
temática del momento y señalaban por dónde debía seguir-
se trabajando. En 1933, A. Haar demostró la existencia de
una medida conveniente (que se ha dado en llamar medida
de Haar) en grupos topológicos; su demostración viene en
los Annals of Mathematics. Von Neumann tuvo acceso al
trabajo de Haar antes de que fuera publicado y vio rápida-
mente que esto era exactamente lo que necesitaba para re-
solver un caso especial importante (los grupos compactos)
de uno de los problemas de Hilbert (el 5.°). Su solución
aparece en el mismo número de la misma revista, justo des-
pués del artículo de Haar.
En la segunda mitad de los años 1930, lo más importan-
te de las publicaciones de Van Neumann fue una serie de
trabajos en parte en colaboración con F. J. Murray, sobre lo
que él llamó los anillos de operadores. (Hoy son conocidos
como las álgebras de Van Neumann.) Es posible que ésta
sea la contribución que más fama haya dado a Von Neu-
mann. Es un desarrollo técnicamente brillante de la teoría
de los operadores que conecta con el trabajo anterior de
Van Neumann, generaliza muchos hechos familiares acerca
de álgebras de dimensión finita, y es actualmente uno de los
más potentes instrumentos para el estudio de la física cuán-
tica.
24/ EL ORDENADOR Y EL CEREBRO

Un fruto inesperado de la teoría de los anillos de opera-


dores es lo que Von Neumann llamó la geometría continua.
La geometría ordinaria maneja espaci0s de dimensión 1, 2,
3, etc. En sus trabajos sobre anillos de operadores Von
Neumann vio que lo que realment~ determinaba la estruc-
tura dimensional de un espacio es el grupo de rotaciones
que éste admite. El grupo de rotaciones asociado con el ani-
llo de todos los operadores da como resultado las dimen-
siones familiares. Otros grupos, asociados con diferentes
anillos asignan a los espacios unas dimensiones cuyos valo-
res pueden variar de modo continuo; en este contexto es lí-
cito hablar de un espacio de dimensión 3/4, por ejemplo.
A partir del caso «concreto» de los anillos de operado-
res y pasando a un nivel más abstracto, Von Neumann for-
muló los axiomas que hacen posibles estos espacios de
dimensión continua. Durante varios años, reflexionó, escri-
bió y dio conferencias sobre geometrías continuas. En 1937
actuó como conferenciante en el Coloquio de la Sociedad
Americana de Matemáticas y eligió este tema como objeto
de su exposición.

Matemáticas aplicadas

El año 1940 se sitúa justo a mitad de camino de la carrera


científica de Von Neumann, y sus publicaciones muestran a
partir de entonces un cambio de orientación. Hasta enton-
ces era un matemático puro de altos vuelos que sabía física;
después de 1940, se dedicó a las matemáticas aplicadas aún
sin olvidar sus trabajos teóricos. Se interesó por las ecuacio-
nes diferenciales en derivadas parciales, el instrumento clá-
sico fundamental de la aplicación de las matemáticas al
mundo de la física. Ya sea la guerra lo que hizo de él un
matemático aplicado o bien que su interés por las matemá-
ticas aplicadas haya sido especialmente valioso para fines
La leyenda de John von Neumann /25

bélicos, el hecho es que se convirtió en un consejero muy


solicitado por las fuerzas armadas y por las instituciones
civiles relacionadas con los problemas de la guerra. Sus tra-
bajos a partir de este momento tratan principalmente de
estadísticas, de ondas de choque, de problemas de flujos,
de hidrodinámica, de aerodinámica, de balística, de proble-
mas de detonación, de meteorología y, aunque en último
lugar no de menor importancia, de dos nuevos aspectos no
clásicos de la aplicación de la matemática al mundo real: los
juegos y los ordenadores.
Las contribuciones de Von Neumann a la guerra fueron
múltiples. La más conocida de ellas es su propuesta de utili-
zar el método de implosión para hacer explotar un combus-
tible nuclear (durante la II Guerra Mundial), y su postura a
favor del desarrollo de la bomba de hidrógeno (después de
la guerra). La nota que acompañó su diploma de Doctor
«honoris causa» en Ciencias de Princeton en 1947 le define
en una palabra como un matemático, pero le elogia por ser
también un físico, un ingeniero, un artificiero y un patriota.

Política

Rara vez sus decisiones administrativas y políticas se ajusta-


ron a lo que hoy día se consideraría propio de «un liberal».
En ciertos momentos, pareció apoyar la idea de una guerra
preventiva contra Rusia. Cuando ya en el año 1946 los
ensayos de la bomba atómica recibían severas críticas, Von
Neumann mantenía la idea de que eran necesarios y los
defendía con convicción (por ejemplo, en una carta al New
York Times). No estaba de acuerdo con R. Oppenheimer
sobre el programa de desarrollo intensivo de la bomba H e
instó a Estados U nidos a proseguir las investigaciones antes
de que Rusia pudiera hacerlo. Sin embargo, fue testigo de la
defensa en el proceso de Oppenheimer. Dijo que Oppen-
26 / EL ORDENADOR Y EL CEREBRO

heimer se oponía «con buena fe» y que había colaborado de


manera positiva una vez que se adoptó la decisión de seguir
con la superbomba. Insistió sobr.e el hecho de que
Oppenheimer era un hombre leal y no constituía peligro
alguno para el Estado.
Como miembro de la Comisión sobre la Energía Ató-
mica (fue nombrado por el presidente Eisenhower y juró el
cargo el 15 de marzo de 1955), con la misión de «pensar
sobre lo impensable», pidió a las Naciones Unidas que se
hiciera un estudio sobre los efectos de las radiaciones a ni-
vel internacional. Decía: «Pagamos conscientemente con 30
a 40.000 muertes al año (el 2 % de la tasa de mortalidad
total) las ventajas del transporte individual por automóvi-
les». En un discurso mencionó un accidente ocurrido
durante uno de los primeros ensayos en el Pacífico y que
puso en peligro a 200 personas y lo comparó con un acci-
dente ferroviario japonés que «había matado a unas 1.000
personas, 20 de ellas americanas. Sin embargo, fue el inci-
dente nuclear el que despertó una preocupación de alcance
casi internacional». Preguntó entonces: «¿ Vale la pena pagar
el precio que esto supone en cuanto a popularidad interna-
cional?». Y contestó: "Sí. Debemos aceptarlo como contra-
partida a nuestro más avanzado desarrollo industrial».

Teoría de los juegos

Prácticamente en la misma época en que empezó a poner


sus dotes analíticas al servicio de los problemas de la guerra,
Von Neumann encontró tiempo y energía para aplicar su
intuición combinatoria a lo que llamó la teoría de los jue-
gos, cuyo campo de aplicación era fundamentalmente la
economía. La piedra angular de la teoría es un teorema lla-
mado teorema del minimax que Von Neumann demostró
La leyenda de Jahn van Neumann / 27

en el año 1928 en un pequeño artículo (25 páginas); la ela-


boración del teorema y sus aplicaciones se encuentran en el
libro que escribió en colaboración con O. Morgenstern en
1944. El teorema del minimax establece que no existe inte-
rés alguno en jugar una amplia clase de juegos entre dos
personas. Si cada jugador considera, para cada estrategia
posible, la pérdida máxima que le puede reportar dicha
estrategia y en consecuencia elige la estrategia «óptima» que
minimiza la pérdida máxima, entonces puede estar estadís-
ticamente seguro de no tener más pérdidas que este valor
minimax. Como (y éste es el punto clave del teorema) este
valor es el negativo del que su oponente establece para sí,
definiéndolo de la misma manera, el resultado a largo plazo
está completamente determinado por las reglas del juego.
Antes de Von Neumann, la economía matemática pre-
tendía avanzar imitando la física matemática clásica. Los
instrumentos matemáticos utilizados eran los del análisis
(particularmente el cálculo de variaciones), y el proceso
descansaba en una analogía no absolutamente válida entre
la economía y la mecánica. El éxito del enfoque de Von
Neumann se debe al abandono de esta analogía mecánica y
su sustitución por un enfoque moderno (los juegos de
estrategia) y unos nuevos instrumentos (las ideas de combi-
natoria y de convexidad).
El papel que la teoría de juegos puede desempeñar en el
futuro de la matemática y de la economía es difícilmente
previsible. En lo que a las matemáticas se refiere, es posible
argumentar que lo único que justifica que el libro de Mor-
genstern-Von Neumann tenga 600 páginas más que el tra-
bajo original, son los desarrollos necesarios para aplicar las
deducciones complejas de una materia a los detalles concre-
tos de la otra. Por otra parte, no faltan partidarios entusias-
tas de la teoría de juegos que llegan a decir que puede ser
28 / EL ORDENADOR Y EL CEREBRO

«una de las mayores contribuciones científicas de la prime-


ra mitad del siglo xx».

Ordenadores

Lo que contribuyó finalmente a la fama de Von Neu-


mann fue la teoría de los ordenadores electrónicos y de los
autómatas. El tema le interesaba bajo todos sus aspectos:
quería comprenderlos, concebirlos, construirlos y utilizar-
los. ¿ Cuáles son las componentes lógicas de los procesos
que una computadora deberá realizar? ¿Cuál es la mejor
manera de obtener respuestas prácticas fiables de una má-
quina cuyos componentes no lo son? ¿Qué es lo que una
máquina necesita «recordar»? ¿Es posible construir una má-
quina que nos ahorre no solamente el trabajo de hacer
cálculos, sino también la preocupación de construir otra
nueva máquina? en otras palabras, ¿es posible producir un
autómata que se reproduzca a sí mismo? La respuesta es en
principio, sí. Una máquina lo bastante complicada, situada
en medio de una espesa maraña de sus componentes aleato-
riamente repartidos, que representan su «alimento», iría
cogiendo uno de estos componentes después del otro hasta
encontrar uno que le sirviera, entonces lo colocaría en su
lugar y seguiría buscando y construyendo hasta que su obra
fuese completa y operativa. ¿Puede una máquina imitar el
«azar», de tal forma que cuando no existen fórmulas utili-
zables para solucionar un problema físico concreto (como
puede ser encontrar un plan de bombardeo óptimo), la
máquina pueda realizar un gran número de experimentos
probabilísticos y dar una respuesta estadísticamente segura?
(La última cuestión pertenece al concepto descrito a voces
como el método de Monte Carla.) Esos son algunos de los
La leyenda de Jahiz van Neumann /29

problemas sobre los que Von Neumann reflexionó y a los


que aportó contribuciones básicas.
Conocía de cerca varios ordenadores, entre ellos el
MANIAC (Analizador Matemático, Integrador Numérico,
Calculadora Automática) y el que llamaban con cariño
}ONIAC. Recomendaba su utilización para todo, desde la
acumulación de datos heurísticos para clarificar intuiciones
sobre ecuaciones diferenciales en derivadas parciales hasta
la predicción a largo plazo y, finalmente, el control del
tiempo atmosférico. Una de las ideas más sorprendentes,
cuyo estudio preconizaba, era teñir los casquetes polares
para hacer decrecer la cantidad de energía que reflejan.
Como resultado, la tierra se calentaría lo suficiente para que
el clima de Islandia fuese parecido al de Hawai.
El último compromiso académico que Von Neumann
aceptó fue encargarse de dar y de escribir para su publica-
ción un ciclo de las famosas Conferencias Silliman de la
Universidad de Yale. Trabajó en ello en el hospital en que
murió, pero no pudo acabarlo. Las notas que preparó fue-
ron publicadas, ~- e incluso en su estado incompleto su lec-
tura es ciertamente esclarecedora. Contienen afirmaciones
alentadoras que encierran intuiciones científicas, y a lo
largo de ellas brilla una actitud de fe y de entrega a la
Ciencia. Mientras los físicos, los ingenieros, los meteorólo-
gos, los estadísticos y los técnicos de ordenadores lo consi-
deran orgullosamente como uno de los suyos, las Con-
ferencias Silliman demuestran, indirectamente por su enfo-
que y directamente en las mismas palabras del autor, que
Von Neumann fue primero, ante todo y siempre, un mate-
mático.

,,- N_ del E. Se refiere al presente libro.


30 / EL ORDENADOR Y EL CEREBRO

Muerte

Von Neumann fue una persona fuera de lo común, compe-


netrado con su época, y no es de extrañar que haya recibido
muchos premios y honores. No tiene mucho interés men-
cionarlos todos aquí, pero podemos citar algunos. Fue
varias veces doctor «honoris causa», particularmente por la
Universidad de Princeton (1947), de Harvard (1950) y de
Estambul (1952). Fue presidente de la American Mathe-
matical Society durante un tiempo (1951-53) Y fue miembro
de varias academias científicas nacionales (incluida por
supuesto la de Estados Unidos). Un poco en contra de su
voluntad, fue elegido para la Academia de Ciencias de
Alemania del Este, pero esta elección no parece haber sido
mantenida -posteriormente no se la menciona en las bio-
grafías básicas de referencia-o Recibió el premio Enrico
Fermi en 1956, cuando ya sabía que estaba incurablemente
enfermo.
Von Neumann se puso enfermo en 1955. Fue interveni-
do y tras la operación el diagnóstico fue de cáncer. Siguió
trabajando, incluso viajando, mientras su enfermedad pro-
gresaba. Luego, tuvo que estar confinado en una silla de
ruedas, pero todavía pensaba, escribía y asistía a reuniones.
En abril de 1956, ingresó en el hospital Walter Reed del
cual no saldría ya. De sus últimos días, su buen amigo E.
Wigner escribió: «Cuando Von Neumann se dio cuenta de
su incurable enfermedad, su mente lógica le hizo ver que
iba a dejar de existir y por lo tanto iba a dejar de pensar...
Fue desgarrador ver la frustración de aquel espíritu que,
cuando toda esperanza se había desvanecido, seguía luchan-
do contra un destino que le parecía tan inevitable como ina-
ceptable». .
Von Neumann era por bautizo (en Estados Unidos)
católico pero, después de su divorcio, dejó de ser practican-
La leyenda de Jahn van Neumann /31

te. En el pidió ver a un sacerdote, «lino que fuese


intelectualmente compatible», Se hicieron las diligen-
cias necesarias, recibió una preparación especial y, en su
momento, recibió los últimos sacramentos. Murió el día 8
de febrero de 1957.
Los héroes de la humanidad sonde dos clases: los que
se parecen a nosotros, pero en más perfeccionado y los
genios que parecen tener algo sobrehumano. Todos pode-
mos correr, y algunos de nosotros pueden éorrer una milla
en menos de 4 minutos, pero no hay nada, entre lo que ha-
cemos la gran mayoría, que se pueda comparar con la crea-
ción de la Gran Fuga en sol menor. El genio de Von Neu-
mann era del tipo humano. Todos podemos pensar con más
o menos claridad, durante cierto tiempo, pero la claridad de
espíritu de Von Neumann era siempre de un orden de mag-
nitud superior al nuestro. Wiener y J. von N eumann fueron
dos grandes hombres, y su recuerdo subsistirá después de
ellos, pero por razones distintas. Wiener veía las cosas pro-
funda pero intuitivamente mientras, que Von Neumann las
veía clara y lógicamente.
¿Qué es lo que hizo la fama de Von Neumann? ¿Acaso
fue la extraordinaria rapidez con la que comprendía y pen-
saba o su memoria fuera de lo normal que almacenaba todo
lo que había visto alguna vez? No. Estas cualidades, por
asombrosas que hayan sido, son efímeras; no tendrían más
efecto sobre las matemáticas y los matemáticos que la proe-
za de un atleta de hace cien años sobre el deporte de hoy en
día. El «método axiomático» se menciona a veces como el
secreto del éxito de Von Neumann. En sus manos, no era
pedantería, sino una manera de percibir; llegaba a las raíces
de las cuestiones concentrándose en sus propiedades básicas
(axiomas) a partir de las cuales todo se deduce.
El método, al mismo tiempo, le enseñó los pasos a
seguir para pasar de los principios a las aplicaciones. Von
32 / EL ORDENADOR Y EL CEREBRO

Neumann sabía cuál era su fuerza y admiraba, quizá envi-


diaba, a la gente que tenía cualidades complementarias, el
chispazo de intuición irracional que a veces cambia la direc-
ción del progreso científico. En cuanto a él, ser .confuso en
le
el pensamiento o enla expresión era imposible. Sus intui-
ciones eran esclarecedoras y sus frases precisas.
PREFACIO

Dictar las Conferencias Silliman, unas de las más antiguas y


prestigiosas de los Estados Unidos, es considerado un pri-
vilegio y un honor entre los universitarios de todo el
mundo. Tradicionalmente, se pide a quien las dicta que dé
una serie de lecciones a lo largo de un periodo de unas dos
semanas, y que prepare el manuscrito de las mismas para
ser publicado bajo los auspicios de la Universidad de Yale,
la cuna y hogar de las Conferencias Silliman.
A principios de 1955, mi marido John von Neumann,
fue invitado por la Universidad de Yale a dictar las Con-
ferencias Silliman durante la primavera de 1956 (en una
fecha a precisar entre finales de marzo y principios de
abril). Johnny se sintió profundamente honrado y satisfe-
cho por esta invitación, a pesar de que tuvo que condicio-
nar su aceptación a que la duración de las Conferencias se
limitara a una sola semana. Sin embargo, convino en que el
manuscrito cubriría más extensamente el tema elegido «El
Ordenador y el Cerebro» un tema en el cual había estado
interesado desde hacía tiempo. La petición de abreviar la
duración de las conferencias estaba motivada por haber
sido recientemente nombrado, por el presidente Eisenho-
wer, miembro de la Comisión de Energía Atómica, un tra-
bajo de plena jornada que no permite, ni siquiera a un cien-
tífico, estar mucho tiempo alejado de su despacho en Was-
hington. Mi marido sabía, sin embargo, que podría encon-
trar el tiempo necesario para escribir las conferencias, pues-
to que siempre había escrito sus trabajos en casa durante la
34 / EL ORDENADOR Y EL CEREBRO

noche o el alba. Su capacidad de trabajo era prácticamente


ilimitada, particularmente si estaba interesado en lo que
hacía, y las muchas posibilidades inexploradas de los autó-
matas le interesaban mucho; así, se sentía bastante seguro
de poder preparar. un manuscri'to completo aunque el
periodo de conferencia tuviera que ser recortado. La Uni-
versidad de Yale~ tan comprensiva y colaboradora tanto en
este primer momento como más tarde, cuando solamente
teníamos tristeza, pena y necesidad, aceptó esta solución y
Johnny empezó su nuevo trabajo en la Comisión con el
incentivo suplementario de poder continuar sus trabajos
sobre la teoría de los autómatas aunque estos fuesen hechos
un poco a escondidas.
En la primavera de 1955, nos mudamos de Princeton a
Washington, y Johnny obtuvo una excedencia del Institute
¡or Advanced Study, donde había sido profesor de matemá-
ticas desde 1933.
Johnny nació en Budapest, Hungría, en 1903. Incluso
en sus primeros años había mostrado una notable habilidad
e interés en las materias científicas, y, siendo niño, su casi
fotográfica memoria se manifestó de muchas extraordina-
rias maneras. Cuando alcanzó la edad universitaria, estudió
primero química y matemáticas, después, en la Universidad
de Berlín, el Technische Hochschule de Zurich y la Uni-
versidad de Budapest. En 1927 fue nombrado Privatdozent
en la Universidad de Berlín, siendo probablemente uno de
los más jóvenes profesores que haya alcanzado tal posición
en cualquiera de las Universidades alemanas en las últimas
décadas. Posteriormente, Johnny enseñó en la Universidad
de Hamburgo y, en 1930, habiendo aceptado la invitación
de la Universidad de Princeton como profesor invitado por
un año, cruzó el Atlántico por vez primera. En 1931 pasó a
ser miembro del cuerpo de profesores de la Universidad de
Princeton, instalándose permanentemente en los Estados
Prefacio / 35

Unidos y convirtiéndose en un ciudadano del Nuevo Mun-


do.
Durante las décadas de 1920 y 1930, los intereses cientÍ-
ficos de Johnny se fueron ampliando, principalmente en los
aspectos teóricos. Sus publicaciones incluyeron trabajos
sobre la teoría de los cuanta, lógica matemática, teoría ergó-
die a, geometría continua, problemas relacionados con ani-
llos de operadores y otras muchas áreas de las matemáticas
puras. Después, durante los últimos años de la década de
los treinta, se interesó en cuestiones de hidrodinámica teó-
rica, particularmente en las grandes dificultades encontra-
das en la obtención de soluciones a ecuaciones en derivadas
parciales mediante los métodos analíticos conocidos. Su
trabajo en este campo, iniciado 'cuando los nubarrones de la
guerra oscurecían ya los horizontes de todo el mundo, le
condujo a trabajos científicos relacionados con la defensa
nacional, que le hicieron interesarse más y más por la física
y las matemáticas aplicadas. La interacción de ondas de
choque, un complejo problema de hidrodinámica, se con-
virtió en uno de los objetivos de la investigación militar, y
el enorme volumen de cálculos necesarios para obtener
algunos de los resultados impulsaron a J ohnny a emplear
un ordenador de alta velocidad para alcanzar tal objetivo.
El ENIAC, construido en Filadelfia para el Laboratorio de
Investigación Balística del Ejército, hizo posible que <

Johnny se introdujera en este complejo sistema que permi-


tía resolver muchos problemas, todavía sin solución, con la
ayuda del cálculo automático. Contribuyó a modificar
algunos de los diseños lógico-matemáticos del ENIAC, y
desde entonces hasta su últimas horas de lucidez, se intere-
só permanentemente por los aspectos todavía inexplorados
y las posibilidades del uso, rápidamente creciente, de los
autómatas.
36 ! EL ORDENADOR Y EL CEREBRO

En 1943, poco después de iniciarse el proyecto Man-


hattan, Johnny fue uno de los científicos que «desaparecie-
ron en el Oeste», desplazándose en uno y otro sentido
entre Washington, Los Álamos y muchos otros sitios. Éste
fue el periodo durante el cual se convenció completamente,
y trató de convencer a otros científicos de muchos y varia-
dos campos, de que lo~ cálculos numéricos, realizados me-
diante rápidos instrumentos electrónicos, facilitarían subs-
tancialmente la solución de muchos irresuelto s y difíciles
problemas científicos.
Después de la guerra, Johnny, junto con un pequeño y
selecto grupo de ingenieros y matemáticos, construyó, en el
Institute far Advanced Study, un calculador electrónico
experimental, popularmente conocido como el JONIAC,
que se convirtió en el modelo piloto para máquinas simila-
res en todo el país. Algunos de los principios básicos desa-
rrollados en el JONIAC son utilizados todavía hoy en los
más rápidos y modernos ordenadores. Para diseñar la má-
quina, Johnny y sus colaboradores trataron de imitar algu-
nas de las operaciones conocidas del cerebro humano. Esto
le condujo a estudiar neurología, a buscar la ayuda de espe-
cialistas en neurología y psiquiatría, a asistir a muchas con-
ferencias sobre estos temas, y, eventualmente, a dar confe-
rencias a tales grupos acerca de las posibilidades de copiar
un modelo extremadamente simplificado del cerebro
viviente para máquinas hechas por el hombre. Tales ideas
debían haber sido desarrolladas y extendidas más profunda-
mente en las Conferencias Silliman.
Durante los años de la posguerra, Johnny dividió su tra-
bajo entre problemas científicos de varios campos. Se inte-
resó particularmente por la metereología, donde los cálcu-
los numéricos parecían ser de extrema utilidad para abrir
perspectivas completamente nuevas; empleó parte de su
tiempo ayudando a efectuar cálculos en los problemas
Prefacio! 37

siempre en expansión de la física nuclear. Continuó traba-


jando en estrecho contacto con los laboratorios de la Co-
misión de Energía Atómica y, en 1952, pasó a ser miembro
del Comité General de Expertos de dicha Comisión.
E115 de marzo de 1955, Johnny prestó juramento como
miembro de la Comisión de Energía Atómica, y en los pri-
meros días de mayo nos instalamos en Washington. Tres
meses más tarde, en agosto, nuestra activa e interesante vi-
da, centrada alrededor de la extraordinaria e infatigable
mente de mi marido, experimentó una brusca interrupción;
Johnny se quejaba de grandes dolores en su hombro iz-
quierdo y, después de una intervención quirúrgica, le fue
diagnosticado un cáncer.
Los meses siguientes fueron de esperanza y desesperan-
za alternadas; algunas veces confiábamos en que la lesión en
el hombro fuera la única manifestación de la temida enfer-
medad, pero los dolores indefinibles que padecía intermi-
tentemente oscurecían nuestras esperanzas. Durante este
periodo Johnny trabajó febrilmente durante el día en su
oficina o en los numerosos viajes que su trabajo le obligaba
a hacer; durante la noche en trabajos científicos, investiga-
ciones que había pospuesto hasta que hubiese acabado con
sus obligaciones en la Comisión. Empezó a trabajar siste-
máticamente en el manuscrito para las Conferencias Silli-
man; una gran parte de lo que está escrito en las siguientes
páginas fue desarrollado en esos días de incertidumbre y
espera. A finales de noviembre llegó el siguiente golpe: se le
localizaron varias ramificaciones en la espina dorsal, que al
poco tiempo le hicieron difícil andar. Desde entonces, todo
empezó a ir de mal en peor, aunque quedaba todavía alguna
esperanza de que la fatal enfermedad pudiera ser detenida,
mediante los tratamientos y cuidados aplicados, por lo me-
nos durante un tiempo.
38 / EL ORDENADOR Y EL CEREBRO

En enero de 1956, J ohnny quedó confinado a una silla


de ruedas, pero todavía asistía a reuniones, era conducido a
su oficina y continuaba trabajando en el manuscrito de las
Conferencias. Claramente, su energía se desvanecía día a
día; todos sus viaj es y compromisos para dar conferencias
tuvieron que ser anulados uno a uno, con la única excep-
ción de las Conferencüs Silliman. Había alguna esperanza
de que, mediante un tratamiento con rayos X, la espina
dorsal pudiera ser suficientemente reforzada (al menos tem-
poralmente) para finales de marzo, de forma tal que pudiese
viajar a New Haven y cumplir esta obligación que tanto
significaba para él. Incluso así, tuvimos que pedir al Comité
de las Conferencias Silliman que redujese las conferencias a
una o dos como mucho, puesto que el esfuerzo y la fatiga
de toda una semana de conferencias hubiesen sido peligro-
sos en su debilitada condición. En marzo, sin embargo, to- .
das las falsas esperanzas se habían desvanecido, y ya no ha-
bía posibilidad de que Johnny fuese capaz de viajar a nin-
guna parte. La Universidad de Yale, tan comprensiva y
colaboradora como siempre, no suprimió las conferencias,
sino que sugirió que si se podía entregar el manuscrito,
alguien podría leerlo en su lugar. A pesar de sus muchos
esfuerzos, Johnny no pudo acabar de escribir a tiempo sus
conferencias; como si fuese obra de un destino trágico, no
pudo acabar de escribirlas nunca.
A primeros de abril, Johnny ingresó en el Hospital
Walter Reed; nunca salió de él hasta su muerte el 8 de febre-
ro de 1957. El manuscrito inacabado de las Conferencias
Silliman fue con él al hospital, donde todavía hizo algunos
intentos más por trabajar en él; pero por aquel entonces la
enfermedad había ganado definitivamente la partida y ni
siquiera la mente excepcional de Johnny pudo superar la
debilidad de su cuerpo.
Prefacio / 39

Me gustaría poder expresar desde aquí mi profunda gra-


titud al Comité de las Conferencias Silliman, a la Univer-
sidad de Yale y a la Yale University Press, todos los cuales
han sido de tanta ayuda y amabilidad durante los últimos y
tristes años de la vida de Johnny y que ahora honran su
memoria al admitir su inacabado y fragmentario manuscri-
to en la colección de las Publicaciones de las Conferencias
Silliman.
KLARA VON NEUMANN

Washington D. c., septiembre 1957


INTRODUCCIÓN

Puesto que no soy ni neurólogo ni psiquiatra sino matemá-


tico, el siguiente trabajo requiere ser explicado y justifica-
do. Es una aproximación al entendimiento del sistema ner-
vioso desde el punto de vista del matemático. Sin em-
bargo, esta frase, apenas enunciada, debe ser matizada en
dos puntos esenciales.
En primer lugar, describir lo que voy a intentar hacer
aquí coma una «aproximación al entendimiento» es sobre-
valorar mi trabajo; lo único que hago es recoger un conjun-
to algo sistemático de especulaciones sobre cómo debería
hacerse tal aproximación. Es decir, mi idea es intuir, entre
las líneas de acción a las que guía la matemática, cuáles
parecen a priori prometedoras, desde la distancia confusa en
que las vemos casi todas, y cuáles no. Ofreceré también jus-
tificaciones de estas hipótesis.
En segundo lugar, la expresión «el punto de vista del
matemático», tal como quisiera que se entendiese en este
contexto, enfatiza aspectos poco habituales: en vez de insis-
tir sobre las técnicas matemáticas más generales, se quieren
resaltar los aspectos lógicos y estadísticos de la matemática.
Además, la lógica y la estadística deben ser consideradas
principal, aunque no exclusivamente, como los instrumen-
tos básicos de la «teoría de la información». Asimismo, el
cuerpo de conocimientos experimentales que se ha desarro-
llado alrededor de la planificación, evaluación y codifica-
ción de complicados autómatas lógicos y matemáticos, será
el foco de gran parte de esta teoría de la información. Los
42/ EL ORDENADOR Y EL CEREBRO

más típicos de esos autómatas, pero no los únicos, siguen


siendo sin duda los grandes calculadores electrónicos.
Permítaseme señalar de paso que sería muy satisfactorio
poder hablar de una «teoría» de tales autómatas. Lamen-
tablemente, lo que existe hasta aho~a «y a lo que debo recu-
rrir», sólo puede ser descrito como un «cuerpo de conoci-
mientos experimentale~» imperfectamente articulado y es-
casamente formalizado.
En realidad, mi principal objetivo es destacar un aspecto
algo diferente de la cuestión. Mi opinión es que un estudio
matemático más profundo del sistema nervioso (<<matemá-
tico» en el sentido anteriormente señalado) influirá sobre
nuestro entendimiento de aquellos ~spectos implicados de
la propia matemática. De hecho, creo que puede alterar
nuestra manera de ver la esencia de la matemática y la lógi-
ca. Intentaré explicar luego las razones que tengo para
creerlo.
ORDENADOR

Empezaré analizando algunos de los principios subyacentes


en la sistemática y la práctica de los ordenadores.
Los ordenadores existentes de dividen en dos grandes
clases: los «analógicos» y los «digitales». Esta subdivisión
refleja la manera en la cual están representados en la máqui-
na los números con los que ésta trabaja.

El procedimiento analógico

En una máquina analógica, cada número está representado


por una magnitud física adecuada, cuyo valor, medido en
una unidad predeterminada, es igual al número en cuestión.
Esta magnitud puede ser el ángulo que ha girado un cierto
disco, o la intensidad de una corriente o el valor de cierto
voltaje relativo. Para que la máquina pueda calcular, es
decir, pueda operar con estos números de, acuerdo con un
plan predeterminado, es necesario dotarla de órganos (o
componentes) que puedan realizar con estas magnitudes
representativas las operaciones básicas de las matemáticas.
44 / EL ORDENADOR Y EL CEREBRO

Las operaciones convencionales básicas

N ormalmente se entiende por tales operaciones básicas las


cuatro operaciones aritméticas: adición (la operación x+y),
sustracción (x-y), multiplicación (xy) y división (x/y).
Evidentemente, no es difícil sumar o restar dos corrien-
tes (juntándolas en direcciones paralelas o antiparalelas).
Multiplicar dos corrientes es más difícil, pero existen distin-
tos tipos de componentes eléctricos que realizan esta opera-
ción. Lo mismo ocurre para la división de una corriente por
otra. (Por supuesto, tanto para la multiplicación como para
la división, pero no para la suma o la resta, es relevante la
unidad en la cual la corriente se mide.)

Operaciones básicas poco frecuentes

Otra característica significativa de algunas máquinas analó-


gicas, que más tarde comentaré en detalle, es la si-
guiente. Ocasionalmente, la máquina está construida sobre
operaciones «básicas» distintas de las cuatro operaciones
aritméticas arriba mencionadas. Así, el clásico «analizador
diferencial» que expresa números mediante los ángulos que
han girado determinados discos, opera de la siguiente for-
ma. En vez de adicionar x+y, y sustraer x-y, puede realizar
operaciones del tipo (x±y)12 que las calcula un componen-
te, simple y fácilmente disponible, el «eje diferencial» (el
mismo que se usa en el eje trasero de un automóvil). En vez
de la multiplicación xy> se utiliza un procedimiento com-
pletamente diferente: en el analizador diferencial, todas las
cantidades aparecen como funciones del tiempo, y éste uti-
liza un órgano llamado «integrador», que calcula, para las
dos magnitudes x(t), y(t), la integral de Stieltjes z(t) = JI x(t)
dy(t).
Este esquema es importante desde tres puntos de vista:
El ordenador / 45

Primero: las tres operaciones arriba mencionadas, ade-


cuadamente combinadas, permiten realizar tres de las cua-
tro operaciones usuales básicas; la adición, la sustracción y
la multiplicación.
Segundo: en combinación con determinados procedi-
mientos «feed-back», permiten también realizar la cuarta
operación, la división. No voy a analizar aquí el principio
de «feed-back», limitándome a decir que, teniendo la apa-
riencia de un instrumento para resolver relaciones implíci-
tas, constituye, en realidad, un esquema abreviado de itera-
ción y aproximación sucesivas especialmente elegante.
En tercer lugar viene la verdadera justificación del anali-
zador diferencial: sus operaciones básicas (x+y)12 e integra-
ción son, para muchas clases de problemas, más económicas
que las aritméticas (x+y, x-y, xy, x/y). Más concretamente
cualquier máquina de calcular empleada para resolver un
problema matemático complejo debe ser «programada»
para ello. Esto significa que la operación compleja de reso-
lución de este problema debe ser reemplazada por una
combinación de las operaciones básicas de la máquina.
Frecuentemente, esto significa algo aún más sutil: aproxi-
mación de esa operación -hasta el grado deseado (prescri-
to)- mediante tales combinaciones. Ahora bien, para una
clase dada de problemas, un conjunto de operaciones bási-
cas puede ser más eficiente, es decir, permitir el uso de com-
binaciones más simples y menos extensas que las de otro
conjunto de tales operaciones. Así, en particular, para siste-
mas de ecuaciones diferenciales ordinarias -para las que en
un principio se diseñó el analizador diferencial-, las opera-
ciones básicas arriba mencionadas de esa máquina son más
eficientes que las operaciones aritméticas básicas previa-
mente mencionadas (x+y x-y, xy, x/y). .
A continuación, paso a considerar las máquinas de tipo
digital.
46 / EL ORDENADOR Y EL CEREBRO

El proceOlmll~ll

En una máquina digital decimal, cada número está repre-


sentado de la misma manera que en la escritura o impresión
convencional, es decir, como una secuencia de dígitos deci-
males. Cada dígito decimal, a su vez, está representado por
un sistema de «marcadures».

Marcadores, sus combinaciones y agrupaciones

Un marcador que puede aparecer en diez formas diferentes


es suficiente para representar por sí mismo un dígito deci-
mal. Un marcador que puede aparecer únicamente en dos
formas diferentes tendrá que ser utilizado para representar
dígitos decimales mediante la formación de grupos de mar-
cadores. Un grupo de tres marcadores, en el que cada uno
de ellos pueda tomar dos valores, permite 8 combinaciones,
lo cual es insuficiente. Un grupo de cuatro marcadores de
este tipo permite 16 combinaciones, lo cual es más que sufi-
ciente. Por esta razón, deben utilizarse para cada dígito
decimal grupos de al menos cuatro marcadores. (Puede
haber razones para utilizar grupos más numerosos, como se
verá posteriormente.) Un ejemplo de marcador con diez
valores distintos es un impulso eléctrico que aparezca en
una de diez líneas preasignadas. Un marcador binario es un
impulso eléctrico en una línea preasignada, de manera que
la información (el «valor» del marcador) esté definida en
base a su presencia o ausencia.
Haré una nueva observación acerca de los marcadores;
el marcador con diez valores distintos arriba mencionado
constituye claramente un grupo de diez marcadores bina-
rios, es decir, es altamente redundante en el sentido arriba
indicado. El grupo mínimo, compuesto por cuatro marca-
dores binarios puede también ser encuadrado en el mismo
El ordenador / 47

marco. Considérese un sistema de cuatro líneas predetermi-


nadas tales que impulsos eléctricos simultáneos puedan
aparecer en cualquier combinación de las mismas. Esto per-
mite formar 16 combinaciones, 10 cualesquiera de las cuales
pueden hacerse corresponder con los dígitos decimales.
N ótese que estos marcadores, que son generalmente
impulsos eléctricos (o también voltajes o corrientes eléctri-
cas, que duran tanto como su indicación tenga que ser váli-
da), deben ser controlados por instrumentos eléctricos.

Tipos de máquinas digitales y sus componentes básicos

A lo largo del desarrollo realizado hasta el momento se han


utilizado sucesivamente relés electromecánicos, tubos de
vacío, diodos, núcleos ferromagnéticos y transistores, algu-
nos de ellos en combinación con otros, algunos de ellos
preferentemente en la memoria de la máquina, y otros pre-
ferentemente fuera de la memoria (en los órganos «acti-
vos»), dando lugar a muchos tipos diferentes de máquinas
digitales.

Esquemas en serie y en paralelo

Un número se representa en la máquina mediante una


secuencia de marcadores, cada uno de los cuales puede
tomar 10 valores distintos, o por grupos de marcadores,
que deben estar dispuestos de forma que aparezcan simul-
táneamente, en diferentes órganos de la máquina -en para-
lelo- o en sucesión temporal, en un único órgano de la
máquina -en serie-o Si la máquina está construida para pro-
cesar, por ejemplo, números con doce cifras decimales, por
ejemplo con seis cifras «a la izquierda» del punto decimal y
seis «a la derecha», habrá de disponer de doce marcadores
(o grupos de marcadores) en cada canal de información de
la máquina que deba procesar tales números. (Este esquema
48 I EL ORDENADOR Y EL CEREBRO

puede -y así ocurre en varias máquinas- flexibilizarse en


varias formas y grados. Así, en casi todas las máquinas, la
posición del punto decimal es ajustable. Sin embargo, no
vaya profundizar más aquí en estos temas.)

Las operaciones convencionales básicas

Las operaciones de una máquina digital han estado siempre


basadas hasta ahora en las cuatro operaciones aritméticas.
Con respecto a los procedimientos bien conocidos que es-
tán siendo utilizados, hay que decir lo siguiente:
En primer lugar nos referiremos a la adición; en con-
traste con los procedimientos físicos que realizan tal opera-
ción en las máquinas analógicas, esta operación está contro-
lada por reglas de carácter estricto y lógico -cómo formar
sumas digitales, cuándo pasar a una posición de mayor
orden decimal y cuándo repetir y combinar estas operacio-
nes-. La naturaleza lógica de la suma digital se comprende
con mayor claridad cuando se utiliza el sistema binario en
lugar del decimal. Realmente, la tabla de adición binaria
(O + O = 00, 0+1 = 1 + O = 01,1 + 1=10) puede definirse así:
el dígito suma vale 1 si los dos dígitos sumandos son distin-
tos, de lo contrario vale O; el dígito de acumulación vale 1 si
los dos dígitos sumandos valen 1, de lo contrario vale o.
Debido a la posible presencia de un dígito de acumula-
ción, se necesita una tabla de adición binaria para tres tér-
minos (O + O + O = 00, O + O + 1= O + 1 + 0= 1 + O + 0= 01,
0+1 + 1= 1 + O + 1=1 + 1 + 0= 10, 1 + 1 + 1= 11), que se
define así: el dígito suma vale 1, si el número de unos entre
los dígitos sumandos (incluyendo el de acumulación) es
impar (1 o 3), de lo contrario vale O; el dígito de acumula-
ción vale 1 si los unos de los sumandos (incluyendo el de
acumulación) están en mayoría (2 o 3), de lo contrario vale o.
El ordenador / 49

En segundo lugar, con respecto a la resta; su estructura


lógica es muy similar a la de la suma. Puede incluso, como
generalmente ocurre, reducirse a ésta por el simple procedi-
miento de «complementación» del sustraendo.
En tercer lugar, con respecto a la multiplicación; su
carácter fundamentalmente lógico es incluso más obvio y
su estructura más desarrollada que la de la adición. Con
cada dígito del multiplicador se forman los productos (del
multiplica.qdo) -normalmente están precalculados para
todos los posibles dígitos decimales, mediante varios esque-
mas de adición- y a continuación se suman conjuntamente
(con los adecuados desplazamientos). De nuevo, en el siste-
ma binario, el carácter lógico es incluso más transparente y
obvio. Puesto que los únicos posibles dígitos son el O Y ell,
el producto digital es omitido cuando el multiplicador es O
y toma el valor del propio multiplicando cuando es 1.
Todo esto se aplica al producto de factores positivos.
Cuando ambos factores pueden tomar ambos signos, reglas
lógicas adicionales controlan las cuatro situaciones que
pueden producirse.
En cuarto lugar, con respecto a la división: su estructura
lógica es comparable a la de la multiplicación, salvo en que
aquí intervienen varios procedimientos de sustracción itera-
tivos de prueba y error, con reglas lógicas específicas (para
la formación de los dígitos cocientes) en las distintas situa-
ciones alternativas que pueden producirse, y que deben ser
tratadas de acuerdo con un esquema en serie y repetitivo.
Resumiendo: todas estas operaciones difieren radical-
mente de los procesos físicos utilizados en máquinas analó-
gicas. Todas ellas constituyen modelos de acciones alterna-
tivas, organizados por reglas estrictas y lógicas. Especial-
mente en los casos de multiplicación y división, estas reglas
tienen un carácter lógico bastante complejo. (Esto puede
quedar oscurecido por nuestra larga y casi instintiva fami-
SO/EL ORDENADOR Y EL CEREBRO

liaridad con ellas, pero si nos obligamos a desarrollarlas por


completo, se hace patente su grado de complejidad.)

Control lógico

Más allá de la capacidad para ejecutar las operaciones bási-


cas aisladamente, una ináquina de calcular debe ser capaz de
realizarlas de acuerdo con la secuencia -o más bien el orden
lógico- en la que generan la solución del problema matemá-
tico que constituye el objetivo real del cálculo. En las
máquinas analógicas tradicionales -del tipo del «analizador
diferenciah>- esta secuencia de operaciones se realiza de la
siguiente manera. A priori, la máquina debe poseer los sufi-
cientes órganos para realizar tantas operaciones básicas
como requiera el cálculo deseado -esto es, suficientes «ejes
diferenciales» e «integradores» (para las dos operaciones
básicas (x±y)/2 y F x(t) dy(t), respectivamente). Estos -es
decir, sus discos de «input» y «output» (o, más bien, los
ejes de tales discos)- deben estar conectados unos a otros
(mediante conexiones por ruedas dentadas en los primeros
modelos, y mediante dispositivos eléctricos «<selsyns») en
los posteriores- de tal forma que constituyan una réplica
de los cálculos deseados. Hay que notar que este esquema
de conexiones debe poder establecerse a voluntad- desde
luego, este es el procedimiento por el cual el problema a
resolver, es decir la intención del usuario, se imprime en la
máquina. El establecimiento y preparación de tal esquema
se realizaba en las primeras máquinas (con conexiones me-
diante ruedas dentadas, como se ha mencionado arriba)
mediante procedimientos mecánicos, mientras que en las
posteriores (que disponían de conexiones eléctricas), se rea-
lizaba mediante commutadores. No obstante, en todos es-
tos tipos la disposición era siempre fija para toda la dura-
ción del problema.
E1 ordenador / 51

Control conmutado

En algunas de las últimas máquinas analógicas, se introdujo


un procedimiento más elaborado: conexiones eléctricas
conmutadas. Estas conexiones conmutadas estaban contro-
ladas realmente por relés electromecánicos, y por lo tanto
podían cambiarse por estímulos eléctricos de los magnetos
que cerraban o abrían estos relés. Estos estímulos eléctricos
podían ser controlados mediante cintas de papel perforado,
y estas cintas podían ser puestas en movimiento o paradas,
una y otra vez, por señales eléctricas derivadas del cálculo,
en los momentos adecuados.

Cintas lógicas de control

Esto último significa que ciertos órganos numéricos en la


máquina han alcanzado determinadas condiciones predefi-
nidas, por ejemplo que el signo de un determinado número
se ha convertido en negativo, o que cierto número ha sido
superado por otro, etc ... Obsérvese que si los números es-
tán definidos por voltajes o corrientes eléctricas, sus signos
pueden ser registrados mediante rectificadores dispuestos
en la forma conveniente; para un disco giratorio, el signo
indica si éste ha rebasado una posición identificada como la
posición cero, moviéndose hacia la derecha o hacia la iz-
quierda; un número es superado por otro cuando el signo
de su diferencia se vuelve negativo, etc ... Así, una cinta
«lógica» de control-o, mejor todavía, un «estado del cálcu-
lo combinado con una cinta de controI,,- era superpuesto
sobre el control básico por «conexiones fijas».
Las máquinas digitales empezaron sin preparación pre-
via con diferentes sistemas de control. Sin embargo, antes
de analizarlos, haré algunos comentarios generales acerca de
las máquinas digitales y de sus relaciones con las máquinas
analógicas.
52 / EL ORDENADOR Y EL CEREBRO

El principio de un único órgano para cada operación básica

Para empezar, hay que recordar que <;n las máquinas digita-
les hay, uniformemente, un único órgano para cada opera~
ción básica. Esto contrasta con la mayor parte de las máqui-
nas analógicas, en las que debe haber órganos suficientes
para cada operación básica, en función de los requisitos del
problema de qué se trate. Sin embargo, hay que decir que
éste es un hecho histórico más que una exigencia intrínseca:
las máquinas analógicas (del tipo antes mencionado, que
posee conexiones eléctricas) podrían, en principio, estar
construidas con un único órgano para cada operación bási-
ca, y un control lógico de uno de los tipos digitales que se
describirán posteriormente. (El lector puede verificar por sí
mismo, sin mucha dificultad, que los tipos más evoluciona-
dos de control de máquinas analógicas arriba descritos,
representan una transición a este modus operandi.)
Más aún, hay que notar que algunas máquinas digitales
se derivan más o menos del principio de «un único órgano
para cada operación básica», pero estas desviaciones pueden
ser reconvertidas al esquema ortodoxo mediante reinterpre-
taciones bastante sencillas. (En algunos casos consiste sim-
plemente en disponer de una máquina doble [o múltiple],
con los adecuados medios de intercomunicación.) No
entraré aquí en profundidad en estas cuestiones.

La consiguiente necesidad de un órgano especial de


memona

El principio de «un único órgano para cada operación bási-


ca» requiere, sin embargo, disponer de un gran número de
órganos que puedan ser utilizados para almacenar números
pasivamente -los resultados de varios cálculos parciales e
intermedios-o Eso es, cada uno de tales órganos debe ser
El ordenador /53

capaz de «almacenar» un número -eliminando el que pu-


diera estar almacenado previamente- tomándolo de algún
otro órgano al que esté conectado, y repitiéndolo cuando se
le interrogue sobre su contenido, es decir: emitiéndolo para
algún otro órgano al que esté conectado, en ese u otro mo-
mento. Tal órgano es denominado un «registro de memo-
ria», la totalidad de tales órganos se denomina «memoria» y
el número de registros de una memoria constituye la «capa-
cidad» de la misma.
Puedo ahora pasar al análisis de los principales tipos de
control de las máquinas digitales. El mejor modo de hacerlo
es describir los dos tipos básicos, y mencionar después
algunos principios obvios para combinarlos.

Control por puntos de «control de secuencia»

El primer método básico de control, que ha sido amplia-


mente utilizado, puede ser descrito (con algunas simplifica-
ciones e idealizaciones) de la siguiente manera:
La máquina contiene un número de órganos de control
lógico, llamados «puntos de control de secuencia», que tie-
nen la siguiente función. (El número de estos puntos de
control de secuencia puede ser bastante considerable. En
algunas de las máquinas más recientes alcanza varios cente-
nares.)
En el modo más simple de utilización de este sistema,
cada punto de control de secuencia está conectado a uno de
los órganos de operaciones básicas sobre el que actúa, a los
registros de memoria que deben facilitar los inputs numéri-
cos de esta operación, y también al órgano que debe recibir
sus outputs. Después de un lapso definido (que debe ser
suficiente para el desarrollo de la operación), o después de
la recepción de una señal predeterminada (si la duración
de la operación es variable y su máximo indefinido o in a-
54 / EL ORDENADOR Y EL CEREBRO

ceptablemente largo (este procedimiento requiere, desde


luego, una conexión adicional con el órgano de operación
básica en cuestión), e! punto de control de secuencia activa
e! siguiente punto de control de s~cuencia. su sucesor. Este
funciona, a su vez, de una forma similar, de acuerdo con sus
propias conexiones, etc. Si no se hace nada más, esto pro-
porciona un modelo de cálculo incondicionado y no repeti-
tivo.
Pueden obtenerse modelos más complejos si algunos
puntos de control de secuencia, llamados «puntos de bifur-
cación», se conectan con dos «sucesores» que puedan estar
en dos posibles estados, a los que denominamos, por ejem-
plo, A y B, de forma tal que e! estado A hace que e! proceso
continúe a través de! primer «sucesor» y e! estado B lo hace
por e! segundo.
El punto de control de secuencia está normalmente en e!
estado A, pero está conectado con dos registros de memo-
ria, en los cuales pueden producirse acontecimientos que le
hagan cambiar de A a B o de B a A, respectivamente, diga-
mos, por ejemplo, que la aparición de un signo negativo en
e! primero le haga ir de A a B y la aparición de un signo
negativo en e! segundo le haga ir de B a A. (Nota: además
de almacenar los dígitos de un número, un registro de
memoria almacena también normalmente su signo [ + o -],
para lo cual basta un marcador binario.) A partir de aquí se
abren todo tipo de posibilidades: los dos «sucesores» pue-
den representar conjuntamente dos ramas disjuntas del cál-
culo, en función de criterios numéricos adecuadamente
asignados (controlando «A a B», mientras «B a A» es utili-
zado para restaurar la condición original para un nuevo
cálculo). Las dos ramas alternativas pueden reunirse des-
pués, en un sucesor común posterior. Y también cabe la
posibilidad de que una de las dos ramas, por ejemplo la
controlada por A, conduzca hacia atrás, hacia e! antes men-
El ordenador / 55

cionado punto de control de secuencia (el de bifurcación).


En este caso se obtiene un procedimiento repetitivo, el cual
es iterado hasta que se alcanza un cierto criterio numérico
(el que controla «A a B» arriba mencionado). Este es, por
supuesto, el procedimiento iterativo básico. Todas estas
posibilidades pueden ser combinadas y superpuestas. etc.
Obsérvese que en este caso, como en el del control con-
mutado para máquinas analógicas anteriormente citado, la
totalidad de las conexiones (eléctricas) a las que nos hemos
referido, constituyen la configuración del problema, la
expresión del problema a resolver, esto es, las intenciones
del usuario. Por lo tanto se trata, nuevamente, de un con-
trol conmutado. Como en el caso citado, puede cambiarse
la estructura de conmutación de uno a otro problema, pero
-al menos en la disposición más simple- ésta está fijada
para toda la duración del problema.
Este método puede ser refinado de muchas maneras.
Cada punto de control de secuencia puede conectarse a
varios órganos, estimulando más de una operación. La co-
nexión conmutada puede (como en el ejemplo previo acerca
de las máquinas analógicas) controlarse por relés electrome-
cánicos, y éstos pueden estar (como ya se vio) dispuestos y
organizados mediante cintas, las cuales a su vez pueden
moverse bajo el control de señales eléctricas derivadas de
acontecimientos generados en el proceso de cálculo. No
voy a profundizar aquí más en todas las variaciones que
permite este tema.

Control almacenado en la memoria

El segundo método básico de control, que casi ha desplaza-


do al anterior, puede ser descrito (de nuevo con algunas
simplificaciones) como sigue.
56 / EL ORDENADOR Y EL CEREBRO

Este esquema formalmente, algunas similitudes


con el esquema de control conmutado descrito arriba. Sin
embargo, los puntos de control de secuencia son ahora
reemplazados por «órdenes». Ulfa orden es, en muchas
configuraciones de este esquema, físicamente lo mismo que
un número (del tipo de los que la máquina trata). Así, en
una máquina digital, e~ una secuencia de dígitos decimales
(12 dígitos decimales en el ejemplo antes citado, haciendo o
sin hacer uso del signo. Algunas veces, en el espacio que
habitualmente ocupa un número se almacena más de una
orden, pero no es necesario profundizar más en esto aquí).
Una orden debe indicar qué operación básica debe reali-
zarse, de cuáles registros de memoria deben provenir los
inputs de tal operación, y en cuál registro de memoria debe
almacenarse el output de la misma. Obsérvese que esto pre-
supone que todos los registros de memoria están numera-
dos en serie, el número de un registro de memoria se deno-
mina su "dirección». También es conveniente numerar las
operaciones básicas. Entonces, una orden contiene simple-
mente, como una secuencia de dígitos decimales (en un
orden fijado), el número de su operación y las direcciones
de los registros de memoria arriba indicados.
Hay diversas variantes de lo expuesto, las cuales, sin
embargo, no son particularmente importantes en el presen-
te contexto: una orden puede, en la forma arriba descrita,
controlar más de una operación; puede modificar las direc-
ciones que contiene en ciertas maneras específicas, antes de
ser aplicadas en el proceso de ejecución de la orden (el siste-
ma de modificación de direcciones normalmente utilizado
-y prácticamente más importante- consiste en añadir a to-
das las direcciones en cuestión, el contenido de un registro
de memoria especificado). Alternativamente, estas funcio-
nes pueden ser controladas mediante órdenes especiales, o
El ordenador! 57

una orden puede afectar solamente a parte de alguna de las


acciones constituyentes arriba descritas.
Esta es una de las más importantes fases de cada orden.
Como un punto de secuencia de control en el ejemplo pre-
vio, cada orden debe determinar su sucesor, con o sin bifur-
cación (compárese con lo arriba explicado). Como indiqué
anteriormente, una orden es «físicamente» equivalente a un
número. Por lo tanto, la forma natural de almacenarla -en
el curso del problema en cuyo control participa- es en un
registro de memoria. En otras palabras, cada orden se alma-
cena en la memoria, en un registro de memoria definido, es
decir, en una dirección definida. Esto hace posible disponer
de diversas maneras los sucesores de una orden. Así puede
determinarse que el sucesor de una orden en la dirección X
es -a no ser que se especifique lo contrario- la orden en la
dirección X+ 1. «Lo opuesto» equivale a una «transferen-
cia», una orden especial que especifica que el sucesor está
contenido en una dirección determinada Y. Alternativa-
mente, cada orden puede tener la cláusula de transferencia
en ella misma, esto es, especificar claramente la dirección de
su sucesor. El «proceso de bifurcación» se realiza por lo
general mediante una orden de «transferencia condicional»,
es decir una orden que especifica que la dirección del suce-
sor es X o Y, en función de si se da o no una cierta condi-
ción numérica -Por ejemplo, si un número en una dirección
determinada Z es negativo o no. Tal orden debe entonces
contener un número que caracteriza este tipo particular de
orden (desempeñando así un papel similar, y ocupando la
misma posición, que el número de operación básica al que
nos hemos referido más extensamente arriba), y las direc-
ciones X, Y, Z, como una secuencia de dígitos decimales.
Obsérvese la importante diferencia entre este modo de
control y el control conmutado,. descrito anteriormente:
allí, los puntos de control de secuencia eran reales, objetos
58 / EL ORDENADOR Y EL CEREBRO

físicos, y sus conexiones constituían la expresión del pro-


blema. Sin embargo, aquí las órdenes son entidades ideales
almacenadas en la memoria y, de esta forma, es el contenido
de este particular segmento de mt;moria lo que expresa el
problema. De acuerdo con ello, este modo de control se
denomina «control almacenado en la memoria».

Modus operandi del control almacenado en la memoria

En este caso, dado que las órdenes que ejercen todo el con-
trol están en la memoria, se consigue un grado de flexibili-
dad más alto que en los otros tipos de control previamente
expuestos. Por supuesto, la máquina, bajo el control de sus
órdenes, puede extraer números (u órdenes) de la memoria,
procesarlas (¡como números!) y devolverlas a la memoria (a
la misma o a otra localización); esto es, puede cambiar el
contenido de la memoria, este es su modus operandi nor-'
mal. Por esta razón puede, además, cambiar las órdenes
(¡puesto que éstas están en la memoria!) -Las mismas órde-
nes que controlan su acción-o Así se hace posible todo tipo
de complejos sistemas de órdenes, que van modificándose
sucesivamente a sí mismos y por lo tanto modifican tam-
bién los procesos de cálculo que están bajo su control en
una forma similar. De esta manera son posibles procesos
más complejos que las meras iteraciones. Aunque todo esto
pueda parecer artificioso y complicado, tales métodos son
ampliamente utilizados y muy importantes en el uso de las
recientes máquinas de calcular, o más bien, de la organiza-
ción del cálculo.
Por supuesto, el sistema de órdenes -es decir, el proble-
ma a resolver, la intención del usuario- se comunica a la
máquina «cargándolo» en la memoria. Esto se realiza por lo
general o bien mediante una cinta preparada previamente o
mediante algún otro medio similar.
El ordenador /59

Formas mixtas de control

Los dos modos de control descritos -el conmutado y el al-


macenado en la memoria- permiten varias combinaciones,
acerca de las cuales pueden hacerse algunas consideracio-
nes.
Considérese una máquina de control conmutado. Su-
póngase que posee una memoria del tipo analizado en
conexión con las máquinas de control almacenado en la
memoria. Es posible describir el estado completo de sus
conexiones mediante una sucesión de dígitos (de longitud
adecuada). Esta sucesión puede ser almacenada en la memo-
ria; probablemente ocupará el espacio de varios números, es
decir, varios registros de memoria por ejemplo consecuti-
vos; en otras palabras, se encontrará en un cierto número de
direcciones consecutivas, de las cuales, para abreviar, la pri-
mera puede denominarse su dirección. La memoria puede
cargarse con varias de tales sucesiones, representando va-
rios esquemas distintos de conexiones.
La máquina puede tener también un control completo
almacenado en la memoria. Además de las órdenes que
componen naturalmente ese sistema, debe haber también
órdenes de los siguientes tipos. En primer lugar: una orden
que hace que el sistema conmutado se disponga de nuevo
según la secuencia digital almacenada en una dirección
específica de la memoria. Segundo: un sistema de órdenes
que cambia elementos específicos de la conmutación.
(Nótese que en ambos casos es necesario que la conmuta-
ción se efectúe mediante instrumentos eléctricamente con-
trolables, esto es, mediante relés electromecánicos [compá-
rese con los análisis previos] o mediante tubos de vacío o
núcleos electromagnéticos, o elementos similares.) En ter-
cer lugar: una orden que convierte el control de la máquina
del tipo almacenado en memoria al régimen conmutado.
60 ! EL ORDENADOR Y EL CEREBRO

También es necesario, desde luego, que el espuema de


conmutación sea capaz de designar el control almacenado
en la memoria (presumiblemente en una dirección especifi-
cada), como el sucesor (o, en el caso de bifurcación, como
un sucesor) de un punto de control de secuencia

Procedimientos numédcos mixtos

Estas observaciones deben bastar para dar una visión de la


flexibilidad que es inherente a estos modos de control y sus
combinaciones.
Una nueva clase de tipos «mixtos» de máquinas que
merece atención es aquella en la que los principios analógi-
co y digital aparecen juntos. Para ser más exactos: éste es un
esquema donde parte de la máquina es analógica, parte es
digital, y cada una comunica con la otra (para los elementos
numéricos) y están sujetas a un único control. Alterna- ,
tivamente, cada parte puede tener su propio control, en
cuyo caso estos dos controles deben comunicar entre sí
(para la información lógica). Esta disposición requiere,
desde luego, órganos que pueden convertir un número en
forma digital a uno en forma analógica, y viceversa. Lo pri-
mero significa construir una cantidad continua a partir de
su expresión digital; lo último implica la medición de una
magnitud continua y la expresión de su resultado en forma
digital. Se conocen numerosos componentes de varios tipos
que realizan estas dos operaciones, incluyendo los rápidos
de naturaleza eléctrica.

Representación mixta de números. Máquinas construidas


sobre esta base

Otra clase significativa de tipos «mixtos» de máquinas com-


prende aquellos tipos en los que cada paso del proceso de
El ordenador / 61

cálculo (pero, desde luego, no del procedimiento lógico)


combina principios analógicos y digitales.
El más simple de estos casos es aquél en que cada núme-
ro está representado en parte analógicamente y en parte di-
gitalmente. Voy a describir uno de tales esquemas, el cual
ha aparecido ocasionalmente en la construcción y planifica-
ción de máquinas y componentes, y en ciertos tipos de co-
municaciones, aunque todavía ninguna gran máquina se ha
basado en su utilización.
En este sistema, que llamaré el sistema de "densidad de
impulso», cada número se expresa mediante una secuencia
de impulsos eléctricos sucesivos (en una única línea), de
forma tal que la longitud de esta secuencia es indiferente
mientras la densidad media de la secuencia de impulsos (en
el tiempo) es el número a representar. Lógicamente, hay
que especificar dos intervalos de tiempo t1> t 2 (siendo t 2
considerablemente mayor que tI)' de manera que el cálculo
de la media en cuestión debe ser aplicado a duraciones
comprendidas entre tI y t 2 . Debe especificarse también la
unidad del número en cuestión que se iguala a esta densi-
dad. Ocasionalmente, es conveniente dejar que la densidad
en cuestión sea igual no al propio número sino a una fun-
ción monótona adecuada (fija) del mismo, por ejemplo el
logaritmo. (Su finalidad es obtener una mejor resolución de
esta representación cuando esto sea necesario -cuando el
número es pequeño- y una menos buena cuando sea acep-
table -cuando el número es grande- y ello de una forma
continua sobre la variación de las cantidades consideradas.)
Es posible diseñar órganos que aplican las cuatro opera-
ciones aritméticas a estos números. Así, cuando las densida-
des representan los propios números, la adición puede efec-
tuarse por combinación de las dos secuencias. Las otras
operaciones son algo más complicadas, pero también hay
procedimientos adecuados para ellas, más o menos elegan-
62 / EL ORDENADOR Y EL CEREBRO

tes. No voy a analizar cómo se representan los números


negativos, caso de ser necesarios, esto también puede reali-
zarse fácilmente mediante diversos procedimientos.
Para obtener la precisión adecuada, cada secuencia debe
contener muchos impulsos dentro de cada intervalo de
tiempo tI mencionado anteriormente. Si, durante el desa-
rrollo del cálculo, se desea cambiar un número, puede
hacerse que la densidad de su secuencia cambie de forma
adecuada, siempre que este proceso sea lento comparado
con el intervalo de tiempo t 2 mencionado anteriormente.
En este tipo de máquina, la determinación de condicio-
nes numéricas (por ejemplo, para objetivos de controllógi-
co) puede requerir procedimientos bastante complejos. Sin
embargo, hay distintos instrumentos que convierten núme-
ros tales como, por ejemplo, la densidad temporal de
impulsos, en una cantidad analógica. (Por ejemplo, la densi-
dad de impulsos, cada uno de los cuales aporta una carga
fija a un condensador que se descarga lentamente [a través
de una resistencia] lo controlará en un nivel constante de
voltaje y de corriente de descarga, constituyendo ambos
cantidades analógicas utilizables.) Estas cantidades analógi-
cas pueden ser utilizadas entonces para control lógico,
como se discutió anteriormente.
Después de esta descripción de los principios generales
del funcionamiento y control de las máquinas de calcular,
voy a entrar en algunas consideraciones acerca de su uso
real y de los principios que lo gobiernan.

Precisión

Empecemos comparando el uso de las máquinas analógicas


y de las digitales.
El ordenador / 63

Aparte de otras consideraciones, la principal limitación


de las máquinas analógicas está relacionada con la precisión.
Desde luego, la precisión de las máquinas analógicas eléctri-
cas raramente excede 1: 103 , e incluso las mecánicas (como
el analizador diferencial) alcanzan en el mejor de los casos,
de 1:104 a 105 . Por otra parte, las maquinas digitales, pue-
den alcanzar la precisión que se desee; por ejemplo, la má-
quina con doce cifras decimales a la que nos referimos ante-
riormente (por la razón que veremos a continuación, éste
constituye un nivel de precisión bastante típico para una
máquina digital moderna) representa una precisión de
1:1012 . Obsérvese también que los incrementos de precisión
son mucho más fáciles en un sistema digital que en un siste-
ma analógico. Ir desde 1:103 a 1:104 en un analizador dife-
rencial es relativamente sencillo; de 1:10 al: 105 es todo lo
que puede conseguir la mej or tecnología actual; de 1: 105 a
1: 106 es imposible (con los actuales medios). En cambio,
pasar de 1:10 12 a 1:10 13 en una máquina digital significa
simplemente añadir una posición más a las doce; esto re-
quiere normalmente un simple incremento relativo en el
equipo (¡no en todas sus partes!) de 1/12 = 8,3 por ciento, y
una pérdida igual en velocidad (¡sólo en algunas de sus par-
tes! -ninguna de las cuales es importante-). El sistema de
densidad de impulsos es comparable con el sistema analógi-
co; en realidad es peor: su precisión es intrínsecamente baja.
Desde luego, una precisión de 1:102 requiere 102 impulsos
en el intervalo de tiempo tÍ' es decir, la velocidad de la
máquina se reduce, sólo por este hecho, por un factor de
100. Pérdidas en velocidad de este orden son, por regla
general, difíciles de aceptar, y pérdidas significantivamente
mayores se considerarían normalmente prohibitivas.
64 / EL ORDENADOR Y EL CEREBRO

Razones para las grandes precisiones (digitales) requeridas

Sin embargo surge ahora otra pregunta: ¿por qué se necesi-


tan precisiones tan elevadas (como la digital 1: 1 0 12 )? ¿Por
qué no basta la típica precisión analógica (1:10 4 ), o incluso
la del sistema de densidad de impulso (1:10 2 )? En la mayor
parte de los problemas de matemáticas aplicadas y deinge-
ni ería los datos no se conocen con una precisión superior a
1:103 o 1:104, y con frecuencia no alcanzan el nivel de 1:102 ,
y tampoco las soluciones requieren, o son significativas,
con mayores precisiones. En química, biología o economía,
o en otras materias aplicadas, normalmente los niveles de
precisión son aún menores. A pesar de ello, en el uso de los
ordenadores se ha venido constatando que incluso niveles
de precisión del orden de 1: 105 son inadecuados para una
gran parte de importantes problemas, y que las máquinas
digitales con niveles de precisión como 1:10 2 y 1:10 12 están
completamente justificadas en la práctica. Las razones de
este sorprendente fenómeno son interesantes y significati-
vas. Están relacionadas con la estructura inherente a nues-
tros actuales procedimientos matemáticos y numéricos.
La característica fundamental de tales procedimientos es
su larga duración, como se ve claramente cuando se des-
componen en sus elementos constituyentes.
Ocurre así en todos los problemas que justifican el uso
de una máquina de calcular rápida, es decir, en todos aque-
llos que tienen por los menos un grado medio de compleji-
dad. La razón subyacente es que nuestros métodos actuales
de cálculo analizan todas las funciones matemáticas me-
diante combinaciones de operaciones básicas, lo que signifi-
ca normalmente las cuatro operaciones aritméticas, o algo
bastante similar. Realmente, la mayor parte de las funciones
solamente pueden ser aproximadas de esta forma, lo que
significa, en la mayor parte de los casos, el uso de sucesio-
El ordenador /65

nes bastante largas, posiblemente definidas iterativamente,


de operaciones básicas. En otras palabras, la "profundidad
aritmética» de las operaciones necesarias es, normalmente,
bastante grande. Obsérvese que la "profundidad lógica» es
todavía mayor, por una razón de considerable importancia:
si, por ejemplo, se descomponen las cuatro operaciones
aritméticas en sus pasos lógicos subyacentes (como se hizo
anteriormente), cada una de ellas constituye, por sí misma,
una larga cadena lógica. Sin embargo, solamente voy a con-
siderar aquí la profundidad aritmética.
Si se efectúa un gran número de operaciones aritméticas,
los errores en que se incurre en cada operación se superpo-
nen. Puesto que son en lo fundamental (aunque no comple-
tamente) aleatorios, se deduce que, si hay N operaciones, el
error no se incrementará N veces, sino alrededor de Y N
veces. Esto, por sí mismo no basta, por regla general, para
necesitar una precisión de 1:10 12 para un resultado global
de 1:10 3 . Para que así fuera, sería preciso que 1/10 12
y N ~ 1/103, esto es N ~ 10 18 , mientras que incluso en las
máquinas modernas más rápidas N raramente es mayor de
10 10 . (Una máquina que realiza una operación aritmética
cada 20 microsegundos, y trabaja en un mismo problema 48
horas, representa un caso más bien extremo. ¡Aun así N ~
10 10 solamente!) Sin embargo, hay que considerar otra cir-
cunstancia. Las operaciones realizadas en el desarrollo del
cálculo pueden ampliar errores que fueron introducidos
por operaciones anteriores. Esto puede rebasar muy rápida-
mente cualquier margen numérico. La razón utilizada ante-
riormente de 1:103 a 1: 10 12 es 10 9, pero bastarían 425 ope-
raciones sucesivas, aumentando el error en cada una de ellas
solamente en un 5%, para absorber este margen. No voy a
intentar ninguna estimación detallada y realista, especial-
mente porque el arte de calcular consiste en buena parte en
la adopción de las medidas necesarias para limitar este efec-
<6.~J EL ORDENADOR Y EL CEREBRO

too La concluusión resultante de una abundante experiencia


es que, en cualquier caso, los altos niveles de precisión antes
citados, se justifican para resolver problemas razonable-
mente complicados.
Antes de abandonar el tema in~ediato de las máquinas
dé calcular, co~sideraré algunas cuestiones relativas· a sus
velocidades y tamaños .

Características de las m áquinas analógicas modernas

El orden de magnitud del número de órganos de operacio-


nes b~sicas en las mayores máquinas analógicas existentes
es de cien o doscientos. Lógicamente, la naturaleza de estos
órganos depende del proceso analógico utilizado. Hasta
fecha reciente han tendido a ser uniformemente eléctricos
o, al menos electromecánicos (utilizándose los mecánicos
para conseguir mayor precisión). Cuando se dispone de un
elaborado control lógico, éste añade al sistema (como todos
los controles lógicos de este tipo) ciertos órganos digitales
de acción, característicos, como relés electromecánicos o
tubos de vacío (estos últimos no se utilizarían, en este caso,
para velocidades extremas). El número de estos componen-
tes puede llegar a varios miles . La inversión que representa
una tal máquina puede, en casos extremos, alcanzar el
orden de 1.000.000 de dólares .

Características de las máquinas digitales modernas

La organización de las grandes máquinas digitales es más


compleja. Están compuestas de órganos «activos » y de ór-
ganos que ejercen funciones de «memoria». Incluiré entre
estos últimos los órganos de «input» y «output», aunque
ello no es una práctica común.
El ordenador /67

Los órganos activos son los siguientes. En primer lu gar,


los órganos que realizan las acciones lógicas básicas: coinci-
dencia de sentidos, combinación de estímulos, y posible-
mente anticoincidencia de sentidos (no es necesario más
que esto, aunque algunas veces se dispone de órganos para
operaciones lógicas más complejas). En segundo lugar, los
órganos que regeneran impulsos: restauran su energía gra-
dualmente gastada, o simplemente los elevan d esde niveles
de energía predominantes en una parte de la máquina a otro
nivel de energía (más elevado) predominante en otra parte
(estas dos funciones se denominan amplificación), lo que
sirve para restablecer la forma y frecuencia de los impulsos
(dentro de ciertas tolerancias normalizadas). Obsérvese que
las operaciones lógicas antes citadas son los elementos a
partir de los cuales se construyen las operaciones aritméticas.

Componentes activos; cuestiones relativas a la velocidad

Todas estas funciones han sido realizadas, en sucesión his-


tórica, por relés electromecánicos, tubos de vacío, diodos
cristalinos, y núcleos ferromagnéticos y transistores, o por
varios pequeños circuitos dotados de todos estos compo-
nentes . Los relés permitían alcanzar velocidades aproxima-
das a los 10-2 segundos por operación lógica elemental, los
tubos de vacío permitían mejorar hasta los 10-5 o 10-6
segundos (en casos extremos incluso la mitad o la cuarta
parte de esta última cifra). El último grupo, denominado
colectivamente elementos de estado sólido, alcanzaron el
nivel de 10-6 segundos (en algunos casos un pequeño múlti-
plo de éste), y es probable que extiendan la velocidad a 10-7
segundos por acción lógica elemental, o mucho menos .
Otros elementos, que no voy a discutir aquÍ, son suscepti-
bles de llevarnos todavía más lejos. Espero que antes de que
pase otra década habremos alcanzado el nivel de 10-8 a 10-9
segundos.
68 / EL ORDENADOR Y EL CEREBRO

Número de componentes activos necesarios

El número de órganos activos de un\1 gran máquina moder-


na varía, según su tipo, entre 3.000 y 30.000. De entre ellos,
las operaciones aritméticas básicas son normalmente reali-
zadas por un subconjunto (o, más bien, por un grupo de
subconjuntos más o menos conjuntado), denominado el
«órgano aritmético". En una gran máquina moderna, este
órgano se compone, según su tipo, aproximadamente de
300 a 2.000 órganos activos.
Como se verá posteriormente, determinadas agregacio-
nes de órganos activos se utilizan para realizar algunas fun-
ciones de memoria. Estos comprenden, típicamente, de 200
a 2.000 órganos activos.
Finalmente, los agregados de «memoria» propiamente
dichos requieren subconjuntos subordinados de órganos
activos, para servirlos y administrarlos. Para el grupo de
memoria más rápido que no consiste en órganos activos
(compárese con lo expuesto más abajo; en la terminología
allí utilizada, éste es el segundo nivel de la jerarquía de
memoria), esta función puede requerir de 300 a 2.000 órga-
nos activos. En relación con la totalidad de componentes de
la memoria, sus órganos activos subordinados pueden
representar el 50 por ciento del total de la máquina.

Tiempos de acceso a los órganos de la memoria y capacidades


de memoria

Los órganos de la memoria pertenecen a varias clases dife-


rentes. La característica por la que se clasifican es el «tiem-
po de acceso". El tiempo de acceso se define como sigue.
Primero: como el tiempo necesario para almacenar un nú-
mero que ya está presente en alguna otra parte de la máqui-
na (normalmente en un registro de órganos activos; compá-
rese con lo abajo explicado), retirando el número que el
El ordenador I 69

órgano de la memoria pueda haber almacenado anterior-


mente. Segundo: como el tiempo necesario para «repetir» el
número almacenado -en respuesta a una pregunta- en otra
parte de la máquina que pueda aceptarlo (normalmente a
otro registro de órganos activos, como se explica a conti-
nuación). Puede ser conveniente distinguir entre estos dos
tiempos de acceso (<<in» y «out»), o utilizar sólo uno de
ellos, el más grande de los dos o, también, su media. Asi-
mismo, el tiempo de acceso puede ser variable, si no depen-
de de la dirección de la memoria se denomina «acceso alea-
torio». Aun siendo variable, puede utilizarse un valor
único, el máximo, o también el tiempo medio de acceso
(lógicamente, esto depende de las propiedades estadísticas
del problema a resolver). En cualquier caso, utilizaré aquí,
por razones de simplicidad, un único tiempo de acceso.

Registros de memoria construidos mediante órganos activos

Los registros de memoria pueden estar constituidos por


órganos activos. Estos son los que poseen el menor tiempo
de acceso y son los más costosos. Un registro de este tipo
está compuesto, junto con su sistema de acceso, por un cir-
cuito de al menos cuatro tubos de vacío (o, alternativamen-
te, un número no mucho menor de elementos de estado
sólido) por dígito binario (o por signo), es decir, por lo me-
nos cuatro veces este número por dígito decimal. Así, el sis-
tema de números con doce dígitos decimales (y signo) al
que nos referimos anteriormente, requeriría normalmente,
en estos términos, un registro de 196 tubos. Por otra parte,
tales registros tienen tiempos de acceso de una duración
igual a una o dos reacciones elementales, lo cual es muy
rápido comparado con otras posibilidades (como se verá
después). Además, varios registros de este tipo pueden inte-
grarse con determinadas economías en el equipo; son nece-
70 / EL ORDENADOR Y EL CEREBRO

sarios, en cualquier caso, como órganos de acceso «in» y


«out» para otros tipos de memorias; se necesitan uno o dos
de estos órganos (en algunos diseños incluso tres) como
partes del órgano aritmético. Para resumir: en números no
muy grandes son más económicos de lo que se podría espe-
rar en principio, y son también necesarios como partes
subordinadas de otros Órganos de la máquina. Sin embargo,
no parecen ser adecuados para facilitar las memorias de
gran capacidad que se precisan en casi todas las grandes
máquinas de cálculo. (Esta última observación se aplica
solamente a las máquinas modernas, es decir las de la época
de tubos de vacío y posteriores. Anteriormente, en máqui-
nas de relés, estos se utilizaban como órganos activos, em-
pleándose registros de relés como la principal forma de
memoria. Por ello el siguiente análisis debe entenderse,
también, como referido únicamente a las máquinas moder-
nas.)

El principio jerárquico de los órganos de la memoria

Para satisfacer grandes capacidades de memoria, deben uti-


lizarse otros tipos de memoria. Interviene entonces el prin-
cipio «de jerarquía» de la memoria. El significado de este
principio es el siguiente:
Para su correcto funcionamiento -para resolver los pro-
blemas para los cuales se ha diseñado- una máquina puede
necesitar una determinada capacidad, digamos N palabras, a
un cierto tiempo de acceso, al que denominamos t. Ahora
bien, puede ser tecnológicamente difícil, o muy caro -esta
es la forma habitual en la que se manifiestan tales dificulta-
des- disponer de N palabras con tiempo de acceso t. Sin
embargo, puede no ser necesario que todas las N palabras
tengan este tiempo de acceso t. Puede muy bien ocurrir que
en el tiempo de acceso t solamente se necesite un número
El ordenador / 71

considerablemente menor, digamos N'. Más aún, puede ser


que -una vez que se dispone de N' palabras con tiempo de
acceso t- la capacidad total de N palabras se necesite sola-
mente en un tiempo de acceso mayor t". Continuando en
esta dirección, puede ocurrir también que sea más económi-
co facilitar determinadas capacidades intermedias además
de las arriba indicadas, capacidades de menos de N pero de
más de N' palabras, a tiempos de acceso mayores de t pero
menores de t". El esquema más general a este respecto con-
siste en facilitar una sucesión de capacidades Ni' N 2, oo., N k _1
N k Y de tiempos de acceso ti' t 2 ,,·, tk_l' tk' de forma que
estas capacidades sean mayores y los tiempos de acce-
so menores a medida que la sucesión progresa, esto es:
N 1 < N 2 < ... < N k _1 < N k Y ti < t 2 <··· < t k - 1 < tkde forma
que Ni palabras sean precisas en un tiempo de acceso ti para
cada i= 1,2, ... , k-l, k. (Para aplicar tal nomenclatura a lo
previamente explicado, debe suponerse que N1=N', t1=t, Y
Nk=N, tk=t"). En este esquema, cada valor de i representa
un nivel en la jerarquía de memorias, y la jerarquía posee k
niveles.

Componentes de la memoria; cuestiones del acceso

En una máquina de calcular moderna rápida, una contabili-


zación completa de todos los niveles de la jerarquía de la
memoria presentaría por lo menos tres y posiblemente cua-
tro o cinco niveles.
El primer nivel corresponde siempre a los registros
antes mencionados. Su número, Ni' es al menos tres en casi
todos los diseños de las máquinas, y en algunas ocasiones
mayor; en ocasiones se han propuesto incluso números del
orden de veinte. El tiempo de acceso ti' es el tiempo básico
de la máquina (o también el doble de ese tiempo).
72 / E L ORDENADOR Y EL CEREBRO

El siguiente nivel (segundo) en la jerarquía se obtiene


siempre con la ayuda de órganos específicos de memoria.
Estos son d istintos de los órganos utilizados en el resto de
la m áquina (yen el primer nivel d ~ la jerarquía arriba men-
cionado) . Los órganos de la mem oria actualmente utiliza-
dos para este nivel tienen normalmente capacidades de
memoria, N 2, · comp rendidas entre unos pocos miles de
palabras y unas cuantas decenas de miles (tamaños de este
último tipo están actualmente todavía en la fase de diseño).
E l tiempo de acceso, t 2 , es no rmalmente de cinco a diez
veces más largo que el del nivel previo, t j ' N iveles posterio-
res corresponden normalmente a un incremento en la capa-
cidad de memoria, N i' por un factor del orden de 10 en
cada escalón. El tiempo de acceso, ti' aumenta incluso más
rápidamente, p ero aquí intervienen también otras reglas
restrictivas del tiempo de acceso (véase más abajo). Un aná-
lisis detallado de este tema requeriría un grado de detalle en
el que no parece adecuado entrar ahora.
Los componentes más rápidos, que son específicamente
órganos de la memoria (es decir, no órganos activos), son
determinados elementos electrostáticos y conjuntos de
núcleos magnéticos. El uso de estos últimos parece ir en
aumento aunque otras técnicas (electro estáticas, ferro-eléc-
tricas, etc.), pueden también entrar en escena. Para los últi-
mos niveles de la jerarquía de memoria, tambores y cintas
magnéticas son los órganos más utilizados actualmente; se
ha propuesto también el uso de discos magnéticos, actual-
mente en estado de experimentación.

Complejidades del concepto de tiempo de acceso

Los tres elementos últimamente mencio nados están to-


dos sujetos a limitaciones y reglas especiales de acceso: una
memoria de tambor magnético presenta todas sus partes
El ordenador / 73

cíclica y sucesivamente para el acceso; la capacidad de me-


moria de una cinta es prácticamente ilimitada, pero presenta
sus partes en una sucesión lineal fija, que puede pararse e
invertirse a voluntad; todos estos esquemas pueden combi-
narse con varias disposiciones que facilitan sincronismos
especiales entre-el funcionamiento de la máquina y las se-
cuencias de memoria fijadas.
El último estadio de toda jerarquía de memoria es nece-
sariamente el mundo exterior, es decir el mundo exterior
relativo a la máquina, esto es, la parte del mismo con el que
la máquina puede comunicarse directamente, en otras pala-
bras, los órganos de input y output de la máquina. Estos
son normalmente cintas de papel perforado o tarjetas, y en
la parte del output, lógicamente también papel impreso.
Algunas veces una cinta magnética es en último término el
sistema de input-output de la máquina, y su traducción a
un medio que un ser humano puede utilizar directamente
-esto es, papel perforado o impreso- se realiza fuera de la
máquina.
Citemos a continuación algunos tiempos de acceso en
términos absolutos. Para las actuales memorias de núcleo
ferromagnético, de 5 a 15 microsegundos; para memorias
electroestáticas, de 8 a 20 microsegundos; para tambores
magnéticos, de 2.500 a 20.000 r.p .m., esto es, una revolución
entre 24 y 3 milisegundos, en este tiempo pueden alcanzar-
se de 1 a 2.000 palabras; para cintas magnéticas, velocidades
de hasta 70.000 líneas por segundo, esto es, una línea en 14
microsegundos; una palabra puede consistir de 5 a 15 líneas.

El principio de direccionamiento directo

Todas las máquinas y memorias actualmente existentes uti-


lizan el «direccionamiento directo», lo cual quiere decir que
cada palabra de la memoria tiene una dirección numérica
74/ EL ORDENADOR Y EL CEREBRO

propia que caracteriza a ella y a su posición en la memoria


(el agregado total de todos los niveles jerárquicos) de forma
única. Esta dirección numérica se especifica siempre explí-
citamente cuando la palabra de la memoria es leída o escri-
ta. Algunas veces, no todas las partes de la memoria son
accesibles al mismo tiempo (puede haber también memorias
múltiples, a todas las cuales no se puede acceder simultáne-
amente, con CIertas reglas para las prioridades de acceso).
En este caso, el acceso a la memoria depende del estado
general de la máquina en el momento en que es necesario el
acceso. Sin embargo, no hay ninguna ambigüedad acerca de
la dirección ni de la posición que ésta designa.
EL CEREBRO

El análisis desarrollado hasta este momento nos ha facilita-


do las bases para la comparación, que es el objetivo de este
trabajo. He descrito, con algún detalle, la naturaleza de las
modernas calculadoras y los amplios principios alternativos
sobre los cuales puede basarse su organización. Ahora es
posible pasar al otro término de la comparación, el sistema
nervioso humano. Vaya analizar las similitudes y diferen-
cias entre estos dos tipos de «autómatas». Hacer resaltar las
similitudes conduce a temas bien conocidos. Hay también
elementos diferentes, no solamente en aspectos más bien
obvios, como el tamaño y la velocidad, sino también en
ciertas áreas mucho más profundas, que incluyen los princi-
pios de funcionamiento y control, de la organización glo-
bal, etc. Mi primer objetivo es desarrollar alguno de estos
principios. Sin embargo, para estimarlos debidamente, es
necesaria una yuxtaposición y combinación con los puntos
de similitud y con los de mayor diferencia superficial
(tamaño, velocidad, como arriba he indicado). Por ello el
análisis debe incidir también sobre tales aspectos.
76 ! EL ORDENADOR Y EL CEREBRO

SmtlplllW~:Ula del funcionamiento de la neurona

La observación más inmediata con respecto al sistema ner-


vioso es que su funcionamiento es., prima facie, digital. Es
necesario analizar este hecho, y las estructuras y funciones
en las cuales se basa, de una forma más completa.
El componente bás~co de este sistema es la célula ner-
viosa, la neurona, y la función normal de una neurona es
generar y propagar un impulso nervioso. Este impulso es
un proceso más bien complejo, con una variedad de aspec-
tos eléctricos, químicos y mecánicos. Parece, sin embargo,
que constituye un proceso definido, es decir, es casi el
mismo bajo cualesquiera condiciones, y representa una res-
puesta unitaria, esencialmente reproducible, a una variedad
amplia de estímulos.
Permítaseme analizar con algo más de detalle los aspec-
tos del impulso nervioso que parecen ser relevantes en el
presente contexto.

La naturaleza del impulso nervioso

La célula nerviosa consiste en un cuerpo del que se origi-


nan, directa o indirectamente, una o más ramas. Tales ramas
se denominan los axones de la célula. El impulso nervioso
es una carga continua, propagada normalmente a una velo-
cidad fija -que puede, sin embargo, ser función de la célula
nerviosa en cuestión- a lo largo de un axon (o más bien, a
lo largo de cada uno de ellos). Como ha sido mencionado
previamente, este impulso puede ser visto bajo múltiples
aspectos. Una de sus características es ciertamente la de ser
una perturbación eléctrica; de hecho, se le describe la ma-
yoría de las veces como precisamente eso. Esta perturba-
ción es usualmente un potencial eléctrico de unos 50 mili-
El cerebro / 77

voltios y de una duración de alrededor de un milisegundo.


Concurrentemente con esta perturbación eléctrica, se pro-
ducen también cambios de naturaleza química a lo largo del
axon. Así, en la parte del axon sobre la cual pasa el impulso
potencial, la constitución iónica del fluido intracelular cam-
bia, y también lo hacen las propiedades electroquímicas
(conductividad, permeabilidad) de las paredes del axon, o
membrana. En los extremos del axon el carácter químico de
este cambio es incluso más obvio; allí, aparecen substancias
específicas cuando llega el impulso. Finalmente, es probable
que se produzcan también cambios mecánicos. Desde lue-
go, es muy posible que los cambios de las distintas permea-
bilidades iónicas de la membrana de la célula, puedan pro-
ducirse únicamente mediante reorientación de sus molécu-
las, esto es, por cambios mecánicos que afectan las posicio-
nes relativas de estos componentes.
Debe añadirse que todos estos cambios son reversibles.
En otras palabras, cuando el impulso ha pasado, todas las
condiciones a lo largo del axon y todas sus partes constitu-
yentes, recuperan sus estados originales.
Puesto que todos estos efectos ocurren a una escala
molecular -el espesor de la membrana de la célula es del
orden de unas pocas decenas de micras (esto es 10-5 cm), lo
que es una dimensión molecular comparable a las grandes
moléculas orgánicas que están involucradas en el proceso-
las anteriores distinciones entre efectos eléctricos, químicos
y mecánicos no están tan bien definidas como pudiera pare-
cer en un principio. Desde luego, a escala molecular no hay
diferencias muy marcadas entre todos estos tipos de cam-
bios: cada cambio químico es inducido por una modifica-
ción en las fuerzas intramoleculares que producen cambios
en las posiciones relativas de las moléculas, esto es, son
inducidos mecánicamente. Más aún, cada uno de tales cam-
bios mecánicos intramoleculares altera las propiedades eléc-
78 / EL ORDENADOR Y EL CEREBRO

tricas de la molécula implicada, induciendo así modificacio-


nes en las propiedades eléctricas y en los niveles de poten-
ciales eléctricos relativos. Para resumir: en la escala habitual
(macroscópica), los procesos eléctócos, químicos y mecáni-
cos representan alternativas entre las cuales pueden estable-
cerse profundas diferencias . Sin emb argo, al nivel casi
molecular de la membrana nerviosa, todos estos aspectos
tienden a confluir. Por eso no es sorprendente que el impul-
so nervioso aparezca como un fenómeno que puede ser
considerado bajo el punto de vista de cualquiera de ellos.

El proceso de estimulación

Como mencioné previamente, los impulsos nerviosos pues-


tos en marcha son comparables, independientemente de
cómo hayan sido inducidos. Debido a que su carácter no
está definido de un modo preciso (como arriba hemos ex-
puesto, puede ser considerado tanto eléctrica como quími-
camente), su inducción también puede ser atribuida alterna-
tivamente a causas eléctricas o químicas. Sin embargo, en el
interior del sistema nervioso es debido principalmente a
otros impulsos nerviosos (a uno o varios de ellos). Bajo
tales condiciones, el proceso de su inducción -la estimula-
ción de un impulso nervioso- puede tener éxito o no. Si
fracasa, aparece al principio una perturbación transitoria,
pero pocos milisegundos después, ésta se amortigua y desa-
parece. Entonces no se propaga perturbación alguna a lo
largo del axon. Si tiene éxito, la perturbación alcanza muy
pronto una configuración típica y en esta forma se propaga
a lo largo del axon. Es decir, como fue mencionado arriba,
un impulso nervioso típico se desplazará a lo largo del
axon, y su aparición será razonablemente independiente de
los detalles del proceso que lo indujo.
El cereb ro / 79

La estimulación del impulso nervioso se produce nor-


malm ente en el cu erpo de la célula nerviosa o cerca del
mismo. Su propagación, como y a quedó dicho, ocurre a lo
largo del axon.

El m ecanismo de estimulación de impulsos por impulsos; su


carácter digital

Puedo ahora volver al carácter digital de este mecanismo.


Los impulsos nerviosos pueden claramente ser considera-
dos como un marcador binario en el sentido analizado pre-
viamente: la ausencia de un impulso representa entonces un
valor (por ejemplo, el dígito binario O), y su presencia re-
presenta el otro (digamos, por ejemplo, el dígito binario 1).
Desde luego, esto debe ser interpretado como un aconteci-
miento en un axon específico (o más bien, en todos los axo-
nes de una neurona específica), y posiblemente en una rela-
ción temporal específica con otros acontecimientos. Debe
ser, pues, interpretado como un marcador (un dígito bina-
rio O o 1) con un papel lógico específico.
De acuerdo con lo expuesto, los impulsos que aparecen
en los axones de una neurona son normalmente provocados
por otros impulsos que hacen impacto en el cuerpo de la
neurona. Esta estimulación es generalmente condicional,
esto es, sólo ciertas combinaciones y sincronismos de estos
impulsos primarios provocan los impulsos secundarios en
cuestión mientras todos los demás no alcanzarán la catego-
ría de estímulo. Esto es, la neurona es un órgano que acepta
y emite entidades físicas definidas: los impulsos. Bajo la
recepción de impulsos en ciertas combinaciones y sincro-
nismos, la neurona será estimulada para emitir un impulso
propio, de otra forma no lo emitirá. Las reglas que descri-
80 / EL ORDENADOR Y EL CEREBRO

ben a qué grupos de impulsos se responderá así, son las


reglas que la gobiernan como un órgano activo.
Ésta es claramente la descripción del funcionamiento de
un órgano en una máquina digital y de la manera en la cual
el papel y la función de un órgano digital tiene que ser
caracterizado. Esto justifica por tanto la afirmación original
de que el sistema nervioso tiene, prima facie, un carácter
digitaL
PermÍtaseme añadir unas pocas palabras relativas a la
cláusula prima facie. La descripción anterior contiene algu-
nas idealizaciones y simplificaciones que serán analizadas
seguidamente. Una vez que éstas se toman en considera-
ción, el carácter digital ya no aparece tan clara e inequívoca-
mente. A pesar de ello, las características señaladas son las
más evidentes y llamativas. Parece por ello adecuado empe-
zar el análisis como he hecho aquí, acentuando el carácter
digital del sistema nervioso.

Características temporales de la respuesta, fatiga y


recuperación del nervio

Antes de entrar en estas cuestiones, es adecuado exponer


algunas observaciones orientativas acerca del tamaño, re-
querimientos en energía y velocidad de la célula nerviosa.
Estas serán especialmente ilustrativas cuando se enuncien
en términos comparativos con los principales competidores
artificiales: los típicos órganos activos de las modernas
máquinas lógicas y de cálculo. Estos son, desde luego, el
tubo de vacío y (más recientemente), el transistor.
He dicho anteriormente que la estimulación de la célula
nerviosa se produce normalmente en o cerca de su núcleo.
En realidad, una estimulación perfectamente normal es tam-
bién posible a lo largo de un axon. Es decir un potencial
El cerebro / 81

eléctrico adecuado o un estimulante químico en concentra-


ción adecuada, aplicados en un punto del axon, iniciarán allí
una perturbación que pronto se convertirá en un impulso
típico, desplazándose arriba y abajo del axon desde el
punto estimulado. Desde luego, la estimulación «usua!»,
descrita arriba, se produce mayoritariamente en un conjun-
to de ramas que se extienden a corta distancia del cuerpo de
la célula, las cuales, además de sus menores dimensiones,
son esencialmente axones. Dicha estimulación se propaga
desde éstos hacia el cuerpo de la célula nerviosa (y desde
ella hacia los axones regulares). A este propósito, los recep-
tores del estímulo se denominan dendritas. La estimulación
normal, cuando proviene de otro impulso (o impulsos)
emana de una determinación especial del axon (o axones)
que propaga el impulso en cuestión a través de una sinapsis
(el que un impulso pueda estimular únicamente a través de
una sinapsis o si, por el contrario, en el transcurso de su
recorrido a través del axon pueda estimular directamente a
otro axon extremadamente cercano, es un tema que no pre-
cisa ser analizado aquí). La duración de la estimulación
transináptica es del orden de 10- 4 segundos, definiéndose
este tiempo como la duración entre la llegada del impulso
presináptico y la aparición del impulso en el punto más cer-
cano del axon postsináptico. Sin embargo, ésta no es la for-
ma más significativa de definir el tiempo de reacción de una
neurona cuando se la considera como un órgano activo en
una máquina lógica. La razón de ello estriba en que, inme-
diatamente después de que el impulso se ha evidenciado, la
neurona estimulada todavía no ha vuelto a su condición ini-
cial. Dicha neurona está «cansada», es decir no podría acep-
tar inmediatamente una estimulación producida por otro
impulso y responder en la forma habitual. Desde un punto
de vista económico, es mucho más interesante establecer
como medida de velocidad, el tiempo necesario para que
82 / EL ORDENADOR Y EL CEREBRO

una estimulación capaz de inducir una respuesta típica pue-


da ser seguida por otra estimulación que produzca también
una respuesta típica. Esta duración es del orden de 1,5.10-2
segundos. Tales datos muestran claramente que sólo es ne-
cesario un uno o dos por ciento de este tiempo para la esti-
mulación transináptica real, mientras que el resto represen-
ta el tiempo de recuperación, durante el cual la neurona re-
gresa a su condición normal previa al estímulo, a partir del
estado de »cansancio» subsiguiente a la estimulación. Debe
señalarse que esta recuperación a partir del «cansancio» se
produce gradualmente y apenas transcurrido un tiempo
breve (del orden de unos 0,5.10- 2 segundos) la neurona
puede responder a una forma atípica, dando lugar a un
impulso típico siempre que el estímulo sea significativa-
mente más fuerte que el necesario en condiciones típicas.
Este hecho tiene un amplio significado y volveremos a él
posteriormente.
Por tanto, el tiempo de reacción de una neurona está
comprendido, dependiendo de cómo se le defina, entre 10-4
Y 10-2 segundos, pero la definición más significativa lo
aproxima más a la segunda cifra. Comparado con esto, los
modernos tubos de vacío y los transitores pueden ser usa-
dos en grandes máquinas lógicas con tiempos de reacción
comprendidos entre 10- 6 Y 10- 7 segundos (desde luego,
estoy contabilizando aquí el tiempo completo de recupera-
ción; el órgano en cuestión queda, después de este tiempo,
en su condición inicial, previa al estímulo). Ello quiere decir
que nuestros instrumentos artificiales, desde este punto de
vista, están por delante de sus homólogos naturales en pro-
porción de 104 a 10 5 .
Con respecto al tamaño, la cuestión es muy diferente.
Hay varias maneras de evaluar el tamaño y es mejor consi-
derarlas una por una.
El cerebro / 83

El tamaño de la neurona. Comparaciones con los componentes


artificiales

El tamaño lineal de una neurona varía mucho de una célula


nerviosa a otra, puesto que algunas de estas células están
contenidas en grandes conglomerados estrechamente inte-
grados, y tienen por ello axones muy cortos, mientras que
otras conducen impulsos entre partes del cuerpo más bien
alejadas y pueden, por lo tanto, tener extensiones lineales
comparables a las de la totalidad del cuerpo humano. Una
manera de obtener una comparación significativa y despro-
vista de ambigüedades es comparar la parte lógicamente
activa de la célula nerviosa con la de un tubo vacío o de un
transistor. En el caso de la neurona, se trata de la membrana
celular cuyo espesor oscila, como ya mencionamos antes,
en torno a 10- 5 cm. En el caso de un tubo de vacío la distan-
cia entre la rejilla y el cátodo, varía desde 10- 1 a un múltiplo
pequeño de 10-2 cm; en el caso del transistor, la distancia
entre los llamados «electrodos de escobilla» (los electrodos
no óhmicos, el «emisor» y el «electrodo de control»), tripli-
cada aproximadamente para tener en cuenta el entorno acti-
vo inmediato de esos subcomponentes, representa algo
menos de 10-2 cm. Así, con respecto a la dimensión lineal,
los componentes naturales parecen superar a los artificiales
en un factor del orden de 103 .
También es posible establecer una comparación con res-
pecto al volumen. El sistema nervioso central ocupa un es-
pacio aproximado de un litro (en el cerebro), esto es 10 3 cm3 .
El número de neuronas contenido en este sistema es aproxi-
madamente del orden de 10 10 algo mayor. Ello representa
un volumen de 10- 7 cm 3 por neurona.
La densidad con la que pueden empaquetarse los tubos
de vacío o los transistores también puede estimarse, aunque
no con precisión. Parece claro que esta densidad de empa-
84 I EL ORDENADOR Y EL CEREBRO

quetamiento es (en ambas partes de la comparación) una


medida de eficiencia más fiable que la referida al tamaño o
al volumen real de un componente individual. Con las téc-
nicas actuales, grupos de unos pocos miles de tubos de
vacío ocuparían ciertamente varias decenas de pies cúbicos;
para los transistores puede contenerse la misma cantidad en
volúmenes del orden de uno o unos pocos pies cúbicos.
Utilizando estas últimas cifras como una medida actual-
mente mínima, se obtienen cifras en torno a 105 cm 3 para
unos pocos miles de órganos activos, es decir, alrededor de
10 a 102 cm3 por órgano. Así pues, los componentes natura-
les aventajan a los artificiales, con respecto a los requeri-
mientos en volumen, en 10 8 o 10 9 . Comparándolo con las
estimaciones para la dimensión lineal probablemente es
mejor equiparar la dimensión lineal con la raíz cúbica del
factor volumen. La raíz cúbica de 108 o 109 está comprendi-
da entre 103 y 0'5.10 3 , lo cual concuerda con el factor 103 al
que se llegó a través de un método directo.

Disipación de energía. Comparaciones con los componentes


artificiales

Finalmente podemos hacer una comparación con respecto


al consumo de energía. Un órgano activo lógico no realiza,
por su propia naturaleza, ningún trabajo: el impulso que
produce no necesita tener más energía que la fracción de los
impulsos que lo estimularon -yen cualquier caso no hay
ninguna relación intrínseca y necesaria entre estas ener-
gías-. Consecuentemente, la energía implicada se disipa casi
completamente y se convierte en calor sin realizar un traba-
jo mecánico relevante. Así, la energía consumida es real-
mente energía disipada y por tanto podemos hablar de disi-
pación de energía de tales órganos.
El cerebro / 85

La disipación de energía en el sistema nervioso humano


central (en el cerebro) es del orden de 10 watios. Puesto
que, como fue indicado anteriormente, en ello están impli-
cadas unas 10 10 neuronas, esto significa una disipación de
10- 9 watios por neurona. La disipación típica de un tubo
de vacío es del orden de 5 a 10 watios. La disipación típica de
un transistor puede ser tan pequeña como 10- 1 watios.
Así, los componentes naturales aventajan a los artificia-
les, con respecto a la disipación, en factores de 108 a 10 9 , los
mismos factores que aparecieron anteriormente con respec-
to a los requerimientos en volumen.

Resumen de las comparaciones

Resumiendo todo esto, resulta que el factor relevante de


comparación con respecto al tamaño es del orden de 10 8 a
10 9 en favor de los componentes naturales frente a los arti-
ficiales. A este factor se llega elevando al cubo la compara-
ción lineal, comparando volúmenes y comparando la disi-
pación de energía. Frente a esto hay un factor del orden de
104 a 10 5 en velocidad, en favor de los componentes artifi-
ciales en relación con los naturales.
En estas evaluaciones cuantitativas pueden basarse de-
terminadas conclusiones. Desde luego hay que recordar
que el análisis es todavía muy superficial, de forma que las
conclusiones a las que se ha llegado hasta ahora están plena-
mente sujetas a revisión a la luz de futuros avances. Sin
embargo parece interesante formular las siguientes conclu-
SIOnes.
En primer lugar: en términos del número de acciones
que pueden ser realizadas por órganos activos de la misma
dimensión total (definida por volumen o por disipación de
energía), en el mismo intervalo, los componentes naturales
aventajan a los artificiales en un factor de 10 4 . Este es el
86 / EL ORDENADOR Y EL CEREBRO

cociente de los dos factores obtenidos anteriormente, esto


es de 10 8 a 10 9 y 104 a 10 5
0

En segundo lugar: los mismos factores muestran que los


componentes naturales favorecen a autómatas con mayor
número de órganos más lentos, mientras que los artificiales
favorecen la disposición contraria de un número menor de
órganos más rápidoso De aquí puede esperarse que un autó-
mata de grandes dimensiones y eficientemente organizado
(como el sistema nervioso humano) tenderá a integrar
simultáneamente tantos elementos lógicos (o de informa-
ción) como sea posible, y a procesarlos simultáneamente,
mientras que un autómata artificial de grandes dimensiones
y eficientemente organizado (como un gran ordenador
moderno) tenderá a hacer las cosas sucesivamente, cada una
a su tiempo, o en cualquier caso no tantas cosas al mismo
tiempoo Esto es, los grandes y eficientes autómatas natura-
les tenderán a ser altamente paralelos, mientras que los
grandes y eficientes autómatas artificiales tenderán a serlo
menos, y más bien a trabajar en serie (refiérase a algunas
observaciones previas relativas a disposiciones paralelas y
en serie)o
En tercer lugar: debe observarse, no obstante, que ope-
raciones en serie y en paralelo no son sustituibles unas por
otras sin restricción, como se requeriría para hacer comple-
tamente válida la primera observación, en un simple esque-
ma de dividir el factor de ventaja en dimensión por el factor
de desventaja en velocidad para obtener una simple «medi-
da de excelencia» o Más concretamente, no todo lo serial
puede ser inmediatamente paralelizado, ciertas operaciones
pueden solamente ser realizadas después de otras, y no
simultáneamente con ellas (esto es, deben utilizar los resul-
tados de las previas)o En tales casos, la transición desde un
esquema serial a uno en paralelo puede ser imposible, o
puede ser posible pero sólo concurrentemente con un cam-
El cerebro / 87

bio en el enfoque y organización lógica del procedimiento.


Recíprocamente, el convertir a esquemas en serie un proce-
dimiento en paralelo puede imponer nuevos requerimientos
al autómata. Concretamente, aparecerán casi siempre nue-
vas necesidades de memoria, puesto que los resultados de
las operaciones que se efectúan en primer lugar deben alma-
cenarse mientras se realizan las operaciones posteriores.
De aquí que la estructura y el enfoque lógico de los autó-
matas naturales pueda diferir ampliamente de los corres-
pondientes a autómatas artificiales.
Asimismo, es probable que los requerimientos en
memoria de los últimos resulten ser sistemáticamente más
importantes que los de los primeros.
Todos estos puntos de vista reaparecerán en las siguien-
tes discusiones.

Criterios de estimulación

Los órganos lógicos elementales más simples

Puedo ahora volver al análisis de las idealizaciones y simpli-


ficaciones contenidas en la descripción precedente de la
acción del nervio. Como se indicó anteriormente, el output
normal de una neurona es el impulso nervioso típico. Éste
puede ser inducido por distintas formas de estimulación,
incluyendo entre ellas la llegada de uno o más impulsos
desde otras neuronas. Otros posibles estimuladores son los
fenómenos del mundo exterior a los cuales es específica-
mente sensible una neurona determinada (luz, sonido, pre-
sión, temperatura), y cambios físicos y químicos internos
del organismo en el punto donde se sitúa la neurona.
Empezaré por considerar la forma de estimulación mencio-
88 / EL ORDENADOR Y EL CEREBRO

nada en lugar: la VUU\.-.'Ud por otros impulsos ner-


VlOSOS.

He señalado antes que este mecanismo particular -la


estimulación de impulsos nerviosos por combinaciones
adecuadas de otros impulsos nerviosos- hace que la neuro-
na sea comparable a los órganos activos digitales típicos.
Desarrollando más esta cuestión, si una neurona es contac-
tada (a través de sus sinapsis) por los axones de otras dos
neuronas, y si su requerimiento mínimo de estimulación
(para producir un impulso-respuesta) es el de la recepción
de dos impulsos simultáneos, entonces esta neurona apare-
ce de hecho como un órgano «y" en el sentido de que reali-
za la operación lógica de conjunción (verbalizada por «y»)
puesto que responde únicamente cuando ambos estimula-
dores están activos simultáneamente. Si, por otra parte, el
requerimiento mínimo es simplemente la llegada (por lo
menos) de un impulso, la neurona actúa como un órgano
del tipo «o» es decir, realiza la operación lógica de disyun-
ción (verbalizada por «o»), puesto que responde cuando
está activo cualquiera de sus estimuladores. «Y» y «o» son
las operaciones lógicas elementales. Junto con «no» (la ope-
ración lógica de negación) constituyen un conjunto com-
plejo de operaciones lógicas básicas (todas las otras opera-
ciones lógicas, independientemente de cuál sea su com-
plejidad, puede obtenerse mediante combinaciones adecua-
das de éstas). No analizaré aquí cómo las neuronas pueden
también simular la operación «no», o mediante qué trucos
puede evitarse completamente el uso de esta operación. Lo
arriba indicado debería bastar para dejar claro lo que ya he
subrayado anteriormente: que las neuronas aparecen, cuan-
do así se las considera, como los órganos lógicos básicos, y
por lo tanto también como los órganos digitales básicos.
El cerebro / 89

Criterios de estimulación más complejos

Esto, sin embargo, es una simplificación e idealización de la


realidad. Las neuronas reales no están, por regla general,
organizadas de forma tan simple con respecto a su posición
en el sistema.
Algunas neuronas tienen desde luego solamente una o
dos -o en todo caso un número reducido, fácilmente enu-
merable- sinapsis de otras neuronas en su cuerpo. Sin em-
bargo, la situación más frecuente es que el cuerpo de una
neurona tenga sinapsis con axones de otras muchas neuro-
nas. Ocurre incluso que, ocasionalmente, varios axones de
una neurona forman sinapsis en otra. De esta forma, los
posibles estimuladores son muchos y los esquemas de esti-
mulación que pueden ser efectivos tienen definiciones más
complicadas que los sencillos esquemas «y» y «o» que he-
mos descrito anteriormente. Si hay muchas sinapsis en una
célula nerviosa, la regla más simple de comportamiento
para ésta será el responder solamente cuando reciba, como
mínimo, un cierto número de impulsos nerviosos simultá-
neos. Sin embargo, resulta razonable suponer que el fenó-
meno pueda, en realidad, ser incluso más complicado que
esto. Puede ocurrir que ciertas combinaciones de impulsos
nerviosos estimulen una determinada neurona no simple-
mente en virtud de su número sino también en virtud de las
relaciones espaciales de las sinapsis a las que llegan. Esto es,
uno puede tener que hacer frente a situaciones en las cuales
hay, digamos por ejemplo, cientos de sinapsis en una misma
célula nerviosa, y las combinaciones de estimulaciones que
son efectivas (que generan un impulso de respuesta en la
neurona mencionada últimamente) están caracterizadas, no
solamente por su número, sino también por su localización
en ciertas regiones especiales de esta neurona (en su cuerpo
o en su sistema de dendritas), por las relaciones espaciales
90 ! EL ORDENADOR Y EL CEREBRO

de tales regiones entre sí, e incluso por relaciones geométri-


cas y cuantitativas más complicadas.

El umbral

Si el criterio de efectividad de estimulación es el más simple


de los mencionados, es decir, la presencia simultánea de un
número mínimo de impulsos estimulantes, a este nivel
mínimo de estimulación se le denomina «umbral» de la
neurona en cuestión. Es habitual hablar de la estimulación
requerida por una neurona en términos de este criterio, es
decir, de su umbral. Debe recordarse, sin embargo, que no
está en absoluto establecido que la estimulación requerida
tenga este carácter tan simple: puede adoptar la forma de
relaciones mucho más complejas que el mero alcance de un
umbral (es decir, de un número mínimo de estimulaciones
simultáneas), como analizamos anteriormente.

El tiempo de acumulación

Aparte de éstas, las propiedades de una neurona pueden


mostrar otras complejidades que no están descritas por las
simples relaciones estímulo-respuesta en términos de im-
pulsos nerviosos típicos.
Así, cada vez que se ha mencionado la «simultaneidad»,
ello no puede significar, ni significa, una simultaneidad
exacta. En cada caso existe un periodo finito de tolerancia,
un tiempo de acumulación tal que dos impulsos que lleguen
dentro de tal período de tiempo actúan todavía como si
hubieran sido simultáneos. Pero la realidad puede ser inclu-
so más complicada que esto, el tiempo de acumulación pue-
de no ser un concepto bien definido. Incluso después de un
periodo de tiempo ligeramente superior, el impulso previo
puede todavía sumarse al siguiente en una forma parcial y
gradualmente decreciente; secuencias de impulsos más ale-
El cerebro / 91

jados todavía (dentro de ciertos límites) del tiempo de acu-


mulación, pueden, en función de su longitud, tener un efec-
to mayor que el individual; varias superposiciones del fenó-
meno de fatiga y recuperación pueden poner a una neurona
en situaciones anormales, de modo que las características de
su respuesta son diferentes de lo que son en condiciones
típicas. Con respecto a todas estas cuestiones, existen cier-
tos estudios y observaciones empíricas (más o menos
incompletas), y todos indican que la neurona, individual-
mente considerada, puede ser -por lo menos en de-
terminadas y deseables situaciones especiales- un mecanis-
mo mucho más complicado que lo que la descripción dog-
mática en términos de estímulos y respuestas puede expli-
car siguiendo los simples esquemas de las operaciones ló-
gicas elementales.

Criterios de estimulación para receptores

En el presente y particular contexto, es preciso mencionar


un número reducido de conceptos acerca de la estimulación
de las neuronas por factores distintos de los outputs (im-
pulsos nerviosos) de otras neuronas. Como fue analizado
previamente, tales factores son fenómenos del mundo exte-
rior (esto es, sobre la superficie del organismo) a los cuales
la neurona en cuestión es específicamente sensible (luz, so-
nido, presión, temperatura), así como cambios físicos y quí-
micos en el interior del organismo en el punto donde la
neurona está situada. Las neuronas cuya función organiza-
tiva es responder a la primera clase de estímulos se denomi-
nan comúnmente receptores. Sin embargo, puede ser más
apropiado denominar receptores a todas las neuronas que
tienen la función organizativa de responder a los estímulos
que no son impulsos nerviosos, y distinguir entre la prime-
92 / EL ORDENADOR Y EL CEREBRO

ra y la segunda categoría de los mismos, calificándolos res-


pectivamente de receptores externos o internos.
Con respecto a todos éstos, aparece de nuevo la cues-
tión de un criterio de estimulación~ de un criterio que defi-
na bajo qué condiciones se producirá la estimulación de un
impulso nervioso.
El criterio de. estim1!lación más simple es el que puede
enunciarse en términos de umbral, como en el caso previa-
mente considerado de la estimulación de una neurona por
impulsos nerviosos. Esto significa que el criterio de efecti-
vidad de la estimulación puede ser enunciado en términos
de una intensidad mínima de un agente estimulante, es
decir, una intensidad mínima de iluminación, de energía
sónica contenida en un cierto intervalo de frecuencia, de
sobrepresión, de aumento de la temperatura, respectiva-
mente, en el caso de un receptor externo; o un cambio mí-
nimo en la concentración del agente químico crítico, o un
cambio mínimo en el valor del parámetro físico relevante,
en el caso de un receptor interno.
Debe observarse, sin embargo, que el criterio de estimu-
lación del tipo umbral no es el único posible. Así, en el caso
óptico, resulta que muchas de las neuronas involucradas
responden a un cambio de iluminación (en algunos casos al
paso de la luz o la obscuridad, en otros casos al contrario),
más que a niveles determinados de iluminación. Podría
ocurrir que éstas no fuesen las reacciones de una simple
neurona sino de la resultante de un sistema neuronal más
complejo. No entraremos aquí en el análisis de esta cues-
tión. Basta observar que también en el caso de los recepto-
res, la evidencia disponible tiende a indicar que el criterio
de estimulación del tipo umbral no es el único usado en el
sistema nervioso.
Permítaseme, entonces, repetir el ejemplo típico arriba
mencionado. Es bien conocido que, en el nervio óptico,
El cerebro / 93

ciertas fibras no responden a un determinado nivel (míni-


mo) de iluminación sino solamente a cambios en este nivel,
por ejemplo en ciertas fibras es el paso de la obscutirad a la
luz, en otras, es el paso de la luz a la obscuridad lo que cau-
sa la respuesta. En otras palabras, es el aumento o disminu-
ción en el nivel en cuestión, es decir, el valor de su derivada
y no su propio valor, lo que constituye el criterio de esti-
mulación.
Resultaría adecuado exponer ahora algunas ideas acerca
del papel desempeñado por estas «complejidades» del siste-
ma nervioso en su estructura funcional y su funcionamien-
to. Por una parte, es posible concebir que estas complejida-
des no desempeñen en absoluto un papel funcional útil. Es,
sin embargo, más interesante indicar que puede concebirse
que lo hagan y exponer algunos elementos acerca de estas
posibilidades.
Es lícito suponer que en el sistema nervioso, organizado
esencialmente de forma digital, las complejidades a las que
nos hemos referido desempeñen un papel analógico o por
lo menos «mixto». Ha sido sugerido que, mediante tales
mecanismos, efectos eléctricos más recónditos y generales
pueden influenciar el funcionamiento del sistema nervioso.
Puede ser que, de esta forma, ciertos potenciales eléctricos
generales desempeñen un papel importante y que el sistema
responda a soluciones de problemas teóricos de potencial
de manera global, problemas que son menos inmediatos y
elementales que los que se describen normalmente median-
te el criterio digital, el criterio de estimulación, etc. Puesto
que el carácter del sistema nervioso es probablemente y a
pesar de todo, digital, tales efectos, de existir, interacciona-
rían probablemente con los efectos digitales, es decir, dando
lugar a un problema de «sistema mixto» más que genuina-
mente analógico. Especulaciones en estas direcciones han
sido desarrolladas por varios autores; parece bastante ade-
94 / EL ORDENADOR Y EL CEREBRO

cuado referirse a la literatura general en lo que a ellos res-


pecta. No entraré aquí en un análisis más profundo de los
mismos en términos específicos.
Debe decirse, sin embargo, que todas las complicaciones
de este tipo significan, en términos de la relación de los ór-
ganos activos básicos que hemos desarrollado hasta ahora,
que una célula nerviosa es más que un simple órgano activo
básico, y que cualquier esfuerzo significativo para desentra-
ñar sus relaciones tiene que reconocerlo así. Obviamente,
incluso los criterios de estimulación más complicados tie-
nen este efecto. Si la célula nerviosa es activada por la esti-
mulación de ciertas combinaciones de sinapsis en su cuerpo
y no por otras, la relación significativa de órganos activos
básicos debe presumiblemente ser una enumeración de
sinapsis más que de células nerviosas. Si la situación se
complica adicionalmente por la aparición de los fenómenos
«mixtos» a los que nos hemos referido arriba, estas relacio-
nes son más difíciles aún. Simplemente, la necesidad de
reemplazar la relación de células nerviosas por una relación
de sinapsis, puede aumentar el número de órganos activos
básicos en un factor considerable, del orden de 10 o 100.
Ésta y similares circunstancias, deben ser permanentemente
tomadas en consideración en relación con la contabilización
de los órganos activos básicos a la que nos hemos referido
hasta ahora.
Así, todas las complejidades a las que nos hemos referi-
do aquí pueden ser irrelevantes, pero pueden también dar al
sistema un carácter analógico parcial, o un carácter «mix-
to». En cualquier caso, aumenta el número de órganos acti-
vos básicos, si este número debe ser calculado con un crite-
rio significativo. Este incremento puede ser de un orden
comprendido entre 10 y 100.
El cerebro / 95

El "U"'-''''« de la memoria en el sistema nervioso

El análisis hasta este punto no ha tomado en consideración


un componente cuya presencia en el sistema nervioso es
altamente plausible, si no cierta (aunque no fuera por otra
razón que la de haber desempeñado un papel vital en todas
las máquinas artificiales de cálculo construidas hasta la
fecha) y su significación es, por ello, probablemente una
cuestión de principio más que accidental. Me refiero a la
memoria. Por ello, voy a volver ahora al análisis de este
componente, o más bien subconjunto, del sistema nervioso.
Como he indicado arriba, la presencia de una memoria
-o, probablemente, de varias memorias- en el sistema ner-
vioso es una cuestión de hipótesis o postulado, sugerida y
confirmada por toda nuestra experiencia con los instrumen-
tos artificiales de cálculo. Ello equivale a admitir, desde el
principio, que todos los pronunciamientos acerca de la
naturaleza, estructura y localización de este subconjunto, o
subconjuntos, son igualmente hipotéticos. No sabemos en
qué parte del sistema nervioso, considerado como una enti-
dad física, reside la memoria; no sabemos si es un órgano
separado o una colección de partes específicas de otros
órganos ya conocidos, etc. Pudiera ser que residiese en un
sistema de nervios específico, que tendría entonces que ser
un sistema considerablemente grande. Pudiera ser que estu-
viese relacionado con los mecanismos genéticos. Somos tan
ignorantes de su naturaleza y posición como lo eran los
griegos, quienes sospechaban que el intelecto se alojaba en
el diafragma. Lo único que sabemos es que debe ser una
memoria de capacidad considerablemente grande, y que
sería difícil comprender cómo un autómata complicado
como el sistema nervioso humano pudiera funcionar sin
ella.
96 / EL ORDENADOR Y EL CEREBRO

Principios para la estimación de la capacidad de memoria en


el sistema nervioso

Permítaseme exponer ahora algunas ideas acerca de la pro-


bable capacidad de esta memoria ..
En los autómatas artificiales, como las máquinas de cal-
cular, existen métodos habituales, ampliamente aceptados,
de definir la «capacidad» de una memoria, por lo que pare-
ce razonable extenderlos también al sistema nervioso. Una
memoria puede retener una cierta cantidad máxima de
información, y la información puede siempre convertirse en
una agregación de dígitos binarios o «bits». Así, a una
memoria que puede almacenar un millar de números deci-
males de ocho cifras, se le debería asignar una capacidad de
1.000 X 8 X 3,32 bits, puesto que un dígito decimal es el
equivalente de aproximadamente 10g2 10 - 3,32 bits (las
razones de este método de contabilización han sido estable-
cidas en los trabajos ya clásicos sobre la teoría de la infor-
mación de G. E. Shannon y otros). Es evidente que 3 dígi-
tos decimales deben ser el equivalente de alrededor de 10
bits, puesto que 2 10 = 1.024 es aproximadamente igual a
103 = 1.000 (de esta manera, un dígito decimal corresponde
aproximadamente a 10/3 - 3,33 bits). Así, el anterior cálcu-
lo de capacidad da el resultado de 2,66 X 10 4 bits. Por un
argumento similar, la capacidad de información representa-
da por una letra del alfabeto impreso o escrito a máquina
-cada una de tales letras representando 2 X 26 + 35 = 88
alternativas (2 representando la posibilidad de ser mayúscu-
la o minúscula, 26 representando el número de letras del
alfabeto y 35 el número habitual de signos de puntuación,
símbolos numéricos e intervalos, que también son, desde
luego, relevantes en este contexto)- tiene que ser evaluado
como 10g2 88 - 6,45. Por ello, por ejemplo, una memoria
que pueda almacenar un millar de tales letras tiene una
El cerebro / 97

capacidad de 6.450 = 6,45 x 10 3 bits. En el mismo orden de


ideas, capacidades de memoria correspondientes a formas
de información más complicadas, como formas geométricas
(desde luego, dadas con un determinado grado de precisión
y resolución), tonalidades de color (con los mismos presu-
puestos anteriores), etc, pueden también expresarse en tér-
minos de unidades estándares, es decir bits. A memorias
que contienen combinaciones de todo esto puede entonces
atribuírseles capacidades resultantes de las calculadas de
acuerdo con los anteriores principios, simplemente por adi-
ción.

Estimaciones de la capacidad de memoria con estas


estipulaciones

La capacidad de memoria requerida por una moderna


máquina de calcular es normalmente del orden de 105 a 106
bits. Las capacidades de memoria supuestas como necesa-
rias para el funcionamiento del sistema nervioso parecerían
deber ser mucho mayores, puesto que el sistema nervioso
como tal es, como se mostró anteriormente, un autómata
considerablemente mayor que los autómatas artificiales
(por ejemplo, las máquinas de calcular que conocemos). Es
difícil decir en cuánto debe superar dicha supuesta capaci-
dad de memoria la cifra anteriormente indicada de 105 a
10 6 . Sin embargo, es posible llegar a establecer por aproxi-
mación ciertas estimaciones orientativas.
Así, el receptor medio parece poder aceptar alrededor
de 14 impresiones digitales distintas por segundo, lo que
probablemente equivale al mismo número de bits. Consi-
derando 10 10 células nerviosas y suponiendo que cada una
de ellas es esencialmente, y bajo condiciones adecuadas, un
receptor (interior o exterior), resulta un input de 14 x 10 10
bis. Con la hipótesis adicional (de la que hay alguna eviden-
98 / EL ORDENADOR Y EL CEREBRO

cía) de que el sistema nervioso no llega a olvidar nada com-


pletamente -es decir, que las impresiones, una vez recibidas,
pueden ser retiradas del área importante de la actividad ner-
viosa, es decir del centro de atención, pero no borradas
completamente:-, puede hacerse una estimación para el con-
junto de una vida humana media. Suponiendo que ésta sea
de 60 años, aproximac1amente igual a 2 X 10 9 segundos, el
input sobre la duración de esta vida, requeriría, con las esti-
pulaciones anteriores, una capacidad de memoria total del
orden de 14 X 10 10 X 2 X 10 9 = 2,8 X 1020 bits. Esta cifra es
superior a la de 105 o 10 6 que hemos reconocido como típi-
camente válida para una moderna máquina de calcular, pero
el exceso de esta cantidad sobre su equivalente en una
máquina de calcular no es significativamente superior a las
diferencias por exceso que ya hemos observado anterior-
mente para el número de los respectivos órganos activos
básicos.

Varias formas posibles de la estructura física de la memoria

Subsiste el problema de la constitución física de esta memo-


ria, para el cual distintos autores han sugerido una variedad
de soluciones. Se ha propuesto suponer que los umbrales
(o, de forma más amplia, los criterios de estimulación), de
varias células nerviosas cambian con el tiempo en función
de la historia previa de esta célula. Así, el uso frecuente de
una célula nerviosa puede disminuir su umbral, es decir,
disminuir los requerimientos de su estimulación, y vicever-
sa. Si esto fuese cierto, la memoria residiría en la variabili-
dad del criterio de estimulación. Todo esto es ciertamente
posible, pero no voy a intentar analizarlo aquí.
U na formulación todavía más drástica de la misma idea
se obtiene suponiendo que las mismas conexiones de las
células nerviosas, es decir, la distribución de los axones con-
El cerebro / 99

ductores, varían con el tiempo. Esto significaría la posibili-


dad de la siguiente situación. Es concebible que la falta de
uso de un axon pueda hacerlo inefectivo para un uso poste-
rior. Por otra parte, un uso muy frecuente (mayor que el
normal) puede dar a la conexión que representa un umbral
más bajo (un criterio de estimulación facilitado) para este
camino específico. En este caso, de nuevo, ciertas partes del
sistema nervioso serían variables con el tiempo y con su
historia previa y, así representarían una memoria en y por sí
mIsmas.
Otra forma de memoria, que está obviamente presente,
es la parte genética del cuerpo: los cromosomas y sus genes
constituyentes son claramente elementos de memoria que
por su estado afectan, y hasta un cierto punto determinan,
el funcionamiento del sistema en su conjunto. Así, hay tam-
bién la posibilidad de un sistema genético de memoria.
Hay todavía otras formas de memoria, algunas de las
cuales tienen una plausibilidad digna de consideración. Así,
algunos rasgos de la composición química de ciertas áreas
del cuerpo pueden ser autogenerantes y por ello constituir
también posibles elementos de memoria. Se deben conside-
rar, entonces, tales tipos de memoria si se considera el siste-
ma genético de memoria, puesto que las propiedades auto-
generantes residentes en los genes pueden localizarse tam-
bién fuera de los genes, en las restantes porciones de la cé-
lula.
No voy a entrar en todas estas posibilidades y muchas
otras que se pueden considerar con una plausibilidad igual
o, en algunos casos, mayor. Me gustaría autolimitarme aquí
a la observación de que, incluso sin localizar la memoria en
conjuntos específicos de células nerviosas, se ha sugerido
una amplia variedad de estructuras físicas con grados dis-
tintos de plausibilidad.
lOO/EL ORDENADOR Y EL CEREBRO

Analogías con las máquinas de calcular artificiales

Finalmente, me gustaría mencionar que hay sistemas de


células nerviosas, que se estimulan entre sí de distintas for-
mas, que también constituyen memorias. Serían memorias
configuradas por elementos activos (células nerviosas). En
la tecnología de nuestras máquinas de calcular tales memo-
rias se usan de forma frecuente y significativa; en realidad,
éstas fueron las primeras en ser introducidas. En máquinas
de tubos de vacío, este tipo está representado por los «flip-
flops», es decir, los pares de tubos de vacío que están
mutuamente controlándose. La tecnología de los transisto-
res, así como prácticamente cualquier otra forma de tecno-
logía electrónica de alta velocidad, permite, y desde luego
induce el uso de subconjuntos del tipo flip-flop, y éstos
pueden usarse como elementos de memoria en la misma
forma que lo fueron los f1ip-flops, en las primeras máquinas
de calcular con tubos de vacío.

Los elementos componentes subyacentes de la memoria no


precisan ser los mismos que los de los órganos activos básicos

Debe observarse, sin embargo, que es a priori poco proba-


ble que el sistema nervioso deba utilizar tales instrumentos
como los medios principales para sus requerimientos de
memoria; tales memorias, más característicamente designa-
das como «memorias constituidas por órganos básicos»,
son, desde cualquier punto de vista, extremadamente costo-
sas. La tecnología de las modernas máquinas de calcular
empezó con tales dispositivos; así, la primera gran máquina
de calcular con tubos de vacío, el ordenador ENIAC, utili-
zaba exclusivamente flip-flops para su memoria primaria
(es decir, la más rápida y más directamente disponible). Sin
El cerebro! 101

el ENIAC era de gran tamaño (22.000 tubos de


vacío) y tenía una memoria primaria muy pequeña de acuer-
do con los estándares actuales (consistía en solamente unas
cuantas docenas de números decimales de diez cifras).
Obsérvese que ello equivale a algo así como unos pocos
centenares de bits, menos, desde luego, que 10 3 . En los
actuales ordenadores el equilibrio adecuado entre el tamaño
de la máquina y su capacidad de memoria se considera que
oscila alrededor de los 104 elementos activos básicos, y una
capacidad de memoria de 10 5 a 10 6 bits. Ello se alcanza uti-
lizando formas de memorias que son tecnológicamente
muy distintas de los órganos activos básicos de la máquina.
Así, una máquina de tubos de vacío o transistores puede
tener una memoria que resida en un sistema electrostático
(un tubo de rayos catódicos), o en grandes conjuntos de
núcleos ferromagnéticos convenientemente dispuestos, etc.
N o voy a intentar elaborar aquí una clasificación completa,
puesto que otras formas importantes de memoria, como las
del tipo de retraso acústico, el tipo ferro-eléctrico, y el tipo
de retraso magnetoestrictivo (lista que podría, desde luego,
aumentarse), no encajan tan fácilmente en tales clasificacio-
nes. Quiero solamente señalar que los componentes usados
en la memoria pueden ser completamente diferentes de los
que constituyen el fundamento de los órganos activos bási-
cos.
Estos aspectos de la cuestión parecen ser muy impor-
tantes para la comprensión de la estructura del sistema ner-
vioso, y no parecen estar todavía lo suficientemente expli-
cados. Conocemos el órgano activo básico del sistema
nervioso (la célula nerviosa). Todo induce a creer que una
memoria de gran capacidad está asociada con dicho sistema.
Pero hay que reconocer con la mayor franqueza que no
sabemos qué tipo de elementos físicos son los componentes
básicos para dicha memoria.
102/ EL ORDENADOR Y EL CEREBRO

Partes aua~'J¡;;".~,~ y ,u,;;n""" en el sistema nervioso

Habiendo indicado en el apartado anterior, los profundos,


fundamentales y amplios problemas conectados con el
componente memoria del sistema nervioso, parecería más
adecuado avanzar hacia otros temas. Sin embargo, hay un
aspecto adicional, aunque secundario, de la estructura de la
memoria en el sistema nervioso acerca del cual deben expo-
nerse algunas ideas, referidas a las relaciones entre sus par-
tes analógicas y digitales (o «mixtas»). A continuación haré
un análisis adicional breve e incompleto, después del cual
voy a entrar en cuestiones no relacionadas con la memoria.
La observación que deseo hacer es la siguiente: los pro-
cesos que se desarrollan en el sistema nervioso pueden,
como he indicado anteriormente, cambiar su carácter de
digital a analógico volviendo de nuevo al digital, etc., repe-
tidamente. Los impulsos nerviosos, es decir, la parte digital
del mecanismo, pueden controlar una fase particular de uno
de tales procesos, por ejemplo la contracción de un múscu-
lo específico o la secreción de un producto químico deter-
minado. Este fenómeno es del tipo analógico, pero puede
ser el origen de un tren de impulsos nerviosos que son
debidos a la sensibilidad de unos receptores internos ade-
cuados. Cuando están generándose tales impulsos nervio-
sos, estamos de nuevo en la línea de progresión digital.
Como fue mencionado previamente, tales cambios desde
un proceso digital a uno analógico, y vuelta de nuevo a uno
digital, pueden alternarse varias veces. Así, el impulso ner-
vioso del sistema, que es digital, junto con los cambios quí-
micos o dislocaciones mecánicas debidas a contracciones
musculares, que son de tipo analógico, pueden, alternando
uno con otro, dar un carácter mixto a cualquier proceso.
El cerebro / 103

Papel del mecanismo genético en el contexto anterior

Ahora bien, en este contexto, el fenómeno genético desem-


peña un papel especialmente típico. Los propios genes son,
claramente, partes de un sistema digital de componentes.
Sus efectos, sin embargo, consisten en la estimulación de la
formación de productos químicos específicos, de determi-
nados enzimas, que son característicos del gen implicado y
por lo tanto, son del tipo analógico. Así, en este terreno,
aparece un ejemplo particular, específico de la alternancia
entre analógico y digital, es decir, un elemento de una clase
más amplia, a la que, como tal, me he referido antes de una
forma más general.

Los códigos y su papel en el control del funcionamiento


de una máquina

Permítaseme pasar ahora a cuestiones referentes a otros as-


pectos distintos a los de la memoria. Me refiero concreta-
mente a ciertos principios de organización de órdenes lógi-
cas que son de considerable importancia en el funciona-
miento de cualquier autómata complejo.
En primer lugar, permítaseme introducir un término
que es necesario en el presente contexto. Un sistema de ins-
trucciones lógicas que puede llevar a cabo un autómata y
que le permite realizar algunas tareas organizadas, se deno-
mina código. Por órdenes lógicas, entiendo elementos co-
mo los impulsos nerviosos que aparecen en los axones apro-
piados, y de hecho, cualquier acontecimiento que induzca a
un sistema digital lógico, como el sistema nervioso, a fun-
cionar en una forma replicable y teleológica.
104/ EL ORDENADOR Y EL CEREBRO

El concepto de código completo

Ya que estamos hablando de códigos, resulta especialmente


importante la siguiente distinción. Un código puede ser
completo; para usar la terminología' de los impulsos nervio-
sos, se puede especificar la secuencia de los impulsos y los
axones en que aparecen. Esto definirá completamente un
comportamientO especítlco del sistema nervioso, o, según la
anterior comparación, de los correspondientes autómatas
artificiales. En las máquinas de calcular, tales códigos com-
pletos son conjuntos de órdenes, dados con todas las espe-
cificaciones necesarias. Si la máquina debe resolver median-
te el cálculo un problema específico, tendrá que ser contro-
lada por un código completo en el sentido expuesto. El uso
de las modernas máquinas de calcular está basado en la
habilidad del técnico para desarrollar y formular los necesa-
rios códigos completos para cualquier problema que la má-
quina pueda resolver.

El concepto de código reducido

En contraste con los códigos completos, existe otra catego-


ría de códigos denominados códigos «cortos» o reducidos,
basados en la siguiente idea:
El profesor inglés de lógica A. M. Tuting demostró en
1937 ey varios expertos en máquinas de calcular lo han
puesto en práctica desde entonces en distintas formas) que
es posible desarrollar sistemas de códigos de instrucciones
para una máquina de calcular, capaces de lograr que ésta se
comporte como si fuera otra máquina específica. Tales sis-
temas de instrucciones que hacen que una máquina imite el
comportamiento de otra, se denominan códigos reducidos.
Permítaseme entrar con un poco más de detalle en las cues-
El cerebro / 105

tiones del uso y desarrollo de tales códigos reduci-


dos.
Una máquina de calcular está controlada, como indiqué
anteriormente, por códigos, secuencias de símbolos (nor-
malmente símbolos binarios), esto es, por cadenas de bits.
En cualquier conjunto de instrucciones que gobiernen el
uso de una máquina de calcular debe dejarse claro qué ca-
denas de bits son órdenes y cuál es el resultado que median-
te ellas se obtendrá de la máquina.
Estas cadenas «significativas» de bits no tienen por qué
ser las mismas para dos máquina diferentes, y, en cualquier
caso, sus respectivos efectos sobre la parte operativa de las
máquinas correspondientes bien pueden ser enteramente
distintos. Así, si se facilita a una máquina un conjunto de
órdenes que son peculiares de otra máquina, éstas carecerán
presumiblemente de sentido, al menos en parte; esto es,
cadenas de bits heterogéneos con respecto a la primera de
las máquinas, harán que ésta realice acciones que no forman
parte del plan organizado para obtener la solución de un
problema. Hablando en términos generales, no harán que
dicha máquina se comporte de acuerdo con la consecución
de un propósito encaminado a la solución de un problema
específico.

La función del código reducido

Un código que, de acuerdo con el esquema de Turing, esté


diseñado para hacer actuar a una máquina como si fuera
otra máquina (es decir, imitar a ésta), debe realizar las si-
guientes acciones: contener, en términos inteligibles para la
máquina, instrucciones (partes más detalladas del código)
que hagan que ésta examine cada una de las órdenes que
recibe y determine si dicha orden tiene la estructura apro-
106/ EL ORDENADOR Y EL CEREBRO

piada de las órdenes de la segunda máquina; debe contener


también, en términos de! sistema de órdenes de la primera
máquina, suficientes órdenes para hacer que la máquina desa-
rrolle las acciones apropiadas que la segunda máquina hu-
biera adoptado bajo la influencia de la orden en cuestión.
La importancia de los resultados de Turing estriba en
que, de esta manera, hacerse que una máquina imite
e! comportamiento de cualquier otra. La estructura de las
órdenes puede ser completamente diferente de la que es
característica de la primera máquina, que es la que está ver-
daderamente implicada. Así, la estructura de las órdenes a la
que nos referimos puede tratar órdenes de mucha mayor
complejidad que las que son características de la primera
máquina: cada una de estas órdenes de la máquina secunda-
ria puede significar la realización de varias operaciones por
parte de la máquina mencionada en primer lugar. Puede
incluir procesos complicados e iterativos, acciones múlti-
ples de cualquier tipo; en términos generales, cualquier cosa
que la primera máquina pueda hacer en un periodo de tiem-
po, bajo el control de todos los sistemas posibles de órde-
nes, puede ser hecha como si solamente estuviesen implica-
das acciones elementales -órdenes primitivas, básicas, sim-
ples.
La razón de denominar código reducido a tal código se-
cundario es histórica: estos códigos reducidos fueron estu-
diados como una ayuda al desarrollo de códigos y resulta-
ron del deseo de abreviar las tareas de codificación para
máquinas cuyo propio sistema natural de órdenes era largo,
considerándolas como si fueran máquinas diferentes, con
un sistema de órdenes más conveniente y desarrollado, lo
cual permite una codificación más simple, menos circuns-
tancial y más directa.
El cerebro! 107

La estructura del sistema nervioso

Llegados a este punto, es mejor reorientar el análisis hacia


otro conjunto de cuestiones. Éstas no están, como indiqué
previamente, en relación con los problemas de la memoria
o con las cuestiones relativas a los códigos completos y
reducidos que acabamos de considerar. Están relacionadas
con los papeles respectivos de la lógica y la aritmética en el
funcionamiento de cualquier autómata complejo y, específi-
camente, del sistema nervioso.

Importancia de los procedimientos numéricos

La cuestión de considerable importancia a considerar aquí,


es la siguiente. Cualquier autómata artificial que haya sido
construido para la resolución de problemas planteados por
el hombre, y específicamente para el control de procesos
complicados, posee normalmente una parte puramente
lógica y una parte aritmética, es decir, una parte en la que
los procesos aritméticos no desempeñan ningún papel y
otra en la que éstos son especialmente importantes. Esto es
debido a que, con nuestros hábitos de pensamiento y de
comunicación, es muy difícil expresar una situación verda-
deramente complicada sin recurrir a las fórmulas y los
números.
Así, un autómata que deba controlar problemas de estos
tipos -constancia de una temperatura, o de ciertas presio-
nes, o de estados químicos en el cuerpo humano- precisará
que estas tareas le sean definidas, en términos de igualdades
o desigualdades numéricas, por el analista humano que se
las encomiende.
108/ EL ORDENADOR Y EL CEREBRO

Interacción de numéricos con la

Sin duda haber partes de esta tarea


mularse sin referencia a las relaciones nllTY\,''',.,~
puros términos lógicos. Así, ciertos principios cualitativos
que implican respuestas o no respuestas fisiológicas, pue-
den establecerse sin recurso a los números, simplemente
VH;,"Á'~U'''V cualitativamente combinaciones de
circunstancias se deter'mjmaldc)s acontecimientos
y bajo cuáles no son deseables.

Las razones que inducen a esperar "'V"H",p'Ylr1/1< de precisión


elevadas

Estas observaciones muestran que el sistema nervioso, cuan-


do se le considera corno un autómata, debe tener tanto una
parte aritmética corno una parte lógica, y que las necesida-
des de aritmética son tan importantes corno las de lógica.
Esto significa que estamos de nuevo tratando con una
máquina de calcular en el sentido estricto y que resulta
apropiado un análisis en términos de los conceptos familia-
res en la teoría de las máquinas de calcular.
A la vista de esto, se plantea inmediatamente la siguiente
cuestión: cuándo se considera el sistema nervioso como una
máquina de calcular y con qué precisión debe esperarse que
funcione la parte aritmética.
Esta cuestión es especialmente crucial por la siguiente
razón: toda la experiencia con las máquinas de calcular
indica que si tienen que desarrollar tareas aritméticas tan
complicadas como las propias del sistema nervioso, deben
proveerse de medios para alcanzar niveles de precisión más
bien elevados. La razón estriba en que los cálculos proba-
blemente serán complejos, y a lo largo de ellos no solamen-
te se acumulan los errores, sino que los cometidos en las
primeras fases del cálculo son amplificados por las últimas
El cerebro / 109

se necesita una precisión considera-


de lo que la naturaleza física del proble-
ma parecería eXIgIr.
ASÍ, podemos suponer que la parte aritmética del siste-
ma nervioso existe y, cuando la consideramos como una
máquina de calcular, debe operar con considerable preci-
sión. En las máquinas de calcular artificiales que nos son
familiares, y bajo las condiciones de complejidad aquí
implicadas, no sería una exageración considerar precisiones
de 10 a 12 decimales.
Ha valido la pena llegar a esta conclusión, precisamente
por tratarse de un hecho que nada tiene de evidente.

Naturaleza no sino estadística, del sistema de


notaciones empleado

Como fue indicado antes, conocemos en parte cómo el sis-


tema nervioso transmite datos numéricos. Lo hace normal-
mente mediante trenes de impulsos periódicos o casi perió-
dicos. Un estímulo intenso sobre un receptor hará que éste
responda poco después de haber rebasado el límite de
refractoriedad absoluta. Un estímulo más débil hará que el
receptor responda también en una forma periódica o casi
periódica, pero con una frecuencia algo menor, puesto que
ahora tendrá que rebasarse no solamente el límite de refrac-
toriedad absoluta, sino incluso un límite de una cierta re-
fractoriedad relativa, antes de que sean posibles cada una de
las siguientes respuestas. Consecuentemente, las intensida-
des de impulsos cuantitativos se traducen en trenes de im-
pulsos periódicos o casi periódicos, siendo siempre la fre-
cuencia una función monótona de la intensidad de los estí-
mulos. Se trata, pues, de alguna forma, de un sistema de
generación de señales de frecuencia modulada: las intensi-
110 / EL ORDENADOR Y EL CEREBRO

dades son traducidas a frecuencias. Esto ha sido


directamente en el caso de ciertas fibras del nervio óptico y
también en nervios que trasmiten la información relativa a
preSIOnes.
Es importante señalar que la frecuencia en cuestión no
es directamente igual a ninguna intensidad de estímulos,
sino que es más bien una función monótona de ésta. Esto
permite la inrroduccion de todo tipo de efectos de escala y
expresiones de precisión en términos que dependen, conve-
nientemente, de las escalas a las que estos estímulos ocu-
rran.
Debe señalarse que las frecuencias en cuestión están
comprendidas normalmente entre 50 y 200 impulsos por
segundo.
Está claro que bajo estas circunstancias, precisiones
como las anteriormente mencionadas (de 10 a 12 decimales)
están completamente fuera de cuestión. El sistema nervioso
es una máquina de calcular que realiza sus complicadas
tareas con un nivel de precisión más bien bajo: de acuerdo
con lo anterior, solamente son posibles niveles de precisión
del orden de 2 o 3 decimales. Este hecho debe resaltarse una
y otra vez porque ninguna de las máquinas de calcular
conocidas puede operar fiable y significativamente con tal
nivel de precisión.
Conviene señalar otro hecho. El sistema descrito con-
duce, no solamente a un bajo nivel de precisión, sino a un
nivel de fiabilidad bastante alto. Desde luego, es claro que si
en un sistema digital de notaciones falta un simple impulso,
puede resultar una deformación absoluta de su significado.
Por otra parte, es igualmente claro que si en un esquema del
tipo descrito se pierde un simple impulso, o incluso varios,
o éstos están incluidos de una forma innecesaria o equivo-
cada, la frecuencia relevante, es decir, el significado del
mensaje, no se distorsiona de forma esencial.
El cerebro / 111

Aparece ahora una cuestión que es crucial contestar:


¿cuáles son las inferencias esenciales, acerca de la estructura
aritmética y lógica de la máquina de calcular representadas
por el sistema nervioso que pueden extraerse de estas
observaciones en apariencia incongruentes?

Deterioro aritmético. Papel de la profundidad lógica y


aritmética

Para cualquiera que haya estudiado el deterioro de la preci-


sión a lo largo de un extenso proceso de cálculo, la respues-
ta es clara. El deterioro es debido, como hemos indicado
anteriormente, a la acumulación de errores por superposi-
ción, e incluso a la amplificación de los errores cometidos
previamente en el cálculo, esto es, debido al considerable
número de operaciones aritméticas que tienen que ser reali-
zadas en serie, o, en otras palabras, a la gran «profundidad
aritmética» del esquema.
El hecho de que haya muchas operaciones a realizar en
serie es, desde luego, una característica tanto de la estructu-
ra lógica del esquema como de su estructura aritmética. Por
ello, resulta correcto decir que todos estos fenómenos de
pérdida de precisión son debidos a la gran «profundidad
lógica» del esquema que aquí estamos analizando.

Precisión aritmética o fiabilidad lógica como alternativas

Debe también observarse que el sistema de mensajes usado


en el sistema nervioso, como fue descrito anteriormente, es
de carácter esencialmente «estadístico». En otras palabras,
lo que importa no son la posición precisa de marcadores
definidos, o dígitos, sino las características estadísticas de su
acontecer, es decir las frecuencias de trenes de impulsos
periódicos o casi periódicos, etc.
112 / EL ORDENADOR Y EL CEREBRO

Así, el sistema nervioso parece utilizar un sistema de


notaciones radicalmente diferente de aquél que nos resulta
familiar en el campo de la aritmética y las matemáticas ordi-
narias: en vez del sistema preciso de marcadores donde la .
posición -y la presencia o ausencia- de cada marcador
influye decisivamente en la determinación del significado
del mensaje, tenemos aquí un sistema de notaciones en el
cual el significado es transmitido por las propiedades esta-
dísticas del mensaje. Hemos visto cómo esto conduce a un
nivel más bajo de precisión aritmética pero a un nivel ma-
yor de fiabilidad lógica: un deterioro aritmético ha sido
compensado por una mejora en la lógica.

Otras características estadísticas del sistema de mensajes que


pueden ser utilizadas

Este marco de referencia induce claramente a contestar a


una cuestión más. Como vimos, las frecuencias de ciertos
trenes de impulsos periódicos o casi periódicos, transporta-
ban el mensaje, es decir, la información. Éstas eran caracte-
rísticas estadísticas del mensaje. ¿Existen otras propiedades
estadísticas que puedan contribuir de forma similar co-
mo medios de transmisión de la información?
Hasta ahora, la única propiedad del mensaje que ha sido
utilizada para transmitir información es su frecuencia en
términos de impulsos por segundo, en el bien entendido
que el mensaje era un tren de impulsos periódicos o casi pe-
riódicos.
Claramente, podrían también utilizarse otras caracterÍs-
ticas del mensaje (estadístico): desde luego, la frecuencia a la
que nos hemos referido es una propiedad de un tren de
impulsos simple, mientras que cada uno de los nervios rele-
vantes consiste en un número elevado de fibras, cada una de
las cuales transmite numerosos trenes de impulsos. Por ello,
El cerebro / 113

es perfectamente razonable suponer que ciertas relaciones


(deripo entre tales trenes de impulsos puedan
también transmitir información. A este respecto es lógico
pensar en distintos tipos de coeficientes de correlación.

El de las matemáticas

Avanzar más en este tema nos lleva necesariamente a cues-


tiones de lenguaje. Como hemos indicado, el sistema ner-
vioso se basa en dos tipos de comunicaciones: aquellas que
no implican formulaciones aritméticas, y aquellas que sí lo
hacen, es decir, comunicaciones de órdenes (de tipo lógico)
y comunicaciones de números (de tipo aritmético). El pri-
mero puede ser descrito propiamente como un lenguaje, el
segundo entra plenamente en el campo de las matemáticas.
Resulta obligado darse cuenta de que el lenguaje es, en
gran medida, un accidente histórico. Los lenguajes huma-
nos básicos nos son transmitidos tradicionalmente de varias
maneras, pero su gran variedad prueba que no hay en ellos
nada de absoluto y de necesario. Idiomas como el griego o
el sánscrito son realidades históricas y no necesidades lógi-
cas. Por ello, es razonable suponer que la lógica y las mate-
máticas son, tanto una como otra, formas históricas acci-
dentales de expresión. Pueden tener variantes esenciales, es
decir, pueden existir en formas distintas de aquellas a las
que estamos acostumbrados. Desde luego, la naturaleza del
sistema nervioso central y del sistema de mensajes que éste
transmite indican positivamente que así es. Hemos acumu-
lado ya evidencia suficiente para darnos cuenta de que cual-
quiera que sea el lenguaje que el sistema nervioso central
utilice, éste se caracteriza por una profundidad lógica y
aritmética menor de la que nos es habitual. Consideremos
el siguiente ejemplo representativo de ello: la retina del ojo
114 / EL ORDENADOR Y EL CEREBRO

humano realiza una reorganización considerable de la ima-


gen visual percibida por el ojo. Esta reorganización es efec-
tuada en la retina, o, más precisamente, en el punto de en-
trada del nervio óptico únicamente a través de tres sinapsis
sucesivas, es decir, en términos de tres escalones lógicos
e

consecutivos. El carácter estadístico del sistema de mensajes


utilizado en la aritmética del sistema nervioso central y su
baja precisión indican también que la degeneración de la
precisión, descrita anteriormente, no puede ir muy lejos en
el correspondiente sistema de mensajes. Consecuentemente
con ello, existen aquí estructuras lógicas diferentes de aque-
llas que utilizamos habitualmente en la lógica y las matemá-
ticas. Como hemos indicado antes, éstas están caracteriza-
das por una menor profundidad lógica y matemática de la
que nos es familiar en otras circunstancias similares. Así,
la lógica y las matemáticas en el sistema nervioso central,
cuando se las considera como lenguajes, deben ser estructu-
ralmente distintas de aquellos lenguajes a los que se refiere
nuestra experiencia corriente.
Debe también señalarse que el lenguaje aquí implicado
puede corresponder a un código reducido, en el sentido
descrito previamente, más que a un código completo: cuan-
do nos expresamos matemáticamente, podemos estar anali-
zando un lenguaje «secundario» construido mediante el
lenguaje «primario» realmente utilizado por el sistema ner-
vioso central. ASÍ, las formas externas de nuestras matemá-
ticas, no son absolutamente relevantes para evaluar cuál es
el lenguaje matemático o lógico verdaderamente utilizado
por el sistema nervioso central. Sin embargo, las anteriores
observaciones acerca de la fiabilidad y la profundidad lógi-
ca y aritmética, prueban que, de cualquier forma que esté
configurado el sistema, no puede diferir considerablemente
de lo que consciente y explícitamente consideramos como
matemáticas.

S-ar putea să vă placă și