Sunteți pe pagina 1din 157

UNA NUEVA BIOLOGÍA PARA UNA NUEVA SOCIEDAD

Máximo Sandín. Depto. Biología. Fac. Biología. U. A. M.

POLÍTICA Y SOCIEDAD

Vol 39, Nº 3, 2002

INTRODUCCIÓN

En Junio de 1999 tuvo lugar en Budapest la “Conferencia Mundial sobre la


Ciencia”, organizada conjuntamente por la UNESCO y el Consejo Internacional para la
Ciencia. Los participantes, en un número próximo a los 2000, elaboraron un manifiesto,
impregnado de inquietud, con el título “Declaración sobre la Ciencia y la utilización
del Conocimiento Científico”, que en su Punto 20 afirma: Que ciertas aplicaciones de
la Ciencia pueden ser perjudiciales para las personas, así como para la sociedad, el
medio ambiente y la salud humana, y que pueden incluso amenazar la supervivencia de
la especie humana... Y en el 21: Que constituye una responsabilidad específica de los
científicos prevenir aquellas aplicaciones de la Ciencia que resulten contrarias a la
ética o que tengan consecuencias indeseadas. Mi intención aquí, es dar cumplimiento a
este mandato.

Con la utilización, en la década de los 70, de la técnica del ADN recombinante, nació
lo que hoy se conoce como “ingeniería genética” (denominación que discutiremos más
adelante). Un nacimiento rodeado de controversias e inquietud... Veamos por qué: La
técnica del ADN recombinante consiste en la utilización de enzimas obtenidas de
bacterias que son capaces de cortar en trozos el ADN por sitios que tienen tendencia a
unirse de nuevo (es decir, no se trata de una invención, porque es la manipulación de un
fenómeno existente (que se produce) en la Naturaleza). El uso de estas enzimas hace
posible insertar, con mayor o menor precisión, trozos de ADN ajenos en el de virus,
plásmidos o elementos genéticos móviles, todos los cuales tienen, en la Naturaleza, las
capacidades de, o bien infectar las células y multiplicarse dentro de ellas, o de insertarse
en sus cromosomas y replicarse junto con la célula receptora. Son lo que se conoce
como “vectores”, que permiten, por ejemplo, transferir “genes” de una especie a otra
con la que no se cruza naturalmente.

Pero fueron los propios científicos involucrados en estas prácticas los que se
alarmaron ante sus posibles implicaciones. Comprendieron que existía la posibilidad de
que un error, o incluso una acción deliberada, condujese a la aparición de nuevos virus y
bacterias patógenos, dada la plasticidad y capacidad natural de recombinación de su
material genético. En 1974, los investigadores pioneros en este campo acordaron
aplazar voluntariamente varios tipos de experimentos que podían resultar arriesgados.
En aquellas fechas, los conocimientos sobre Genética molecular eran incipientes, pero
ya se tenía conciencia de que los microorganismos utilizados como “hospedador” del
ADN recombinante podían convertirse en patógenos incontrolables. Los debates
científicos sobre estos riesgos congregaron a los máximos expertos en la materia. Erwin
Chargaff, pionero en las investigaciones que condujeron al desciframiento del código
genético, afirmó: Mi generación, o quizás la que me precede, ha sido la primera que ha
librado, bajo el liderazgo de las ciencias exactas, una batalla destructiva y colonial
contra la Naturaleza. El futuro nos maldecirá por ello (Grobstein, 77). Cuando se
pronunciaba esta sentencia, que lleva camino de convertirse en premonitoria, la
actividad científica todavía estaba concebida como una profundización en los
conocimientos, cuyos avances debían ser compartidos por toda la comunidad científica
y sus posibles aplicaciones prácticas por toda la Humanidad. Pero en los Estados
Unidos ya se palpaba la inquietud por la posibilidad de que las prácticas de
manipulación genética escaparan del control científico y social: Ha ido ganando terreno
la idea de que es necesario dar inmediatamente una base legal a la regulación que se
encuentra en las normas de los Institutos Nacionales de Salud. En particular, la
regulación debe extenderse a las actividades no financiadas por organismos no
federales, especialmente en el sector industrial. También eran contempladas con
inquietud las posibles desviaciones de los científicos de la ética científica: Para estar
sobre aviso desde el principio, es de especial importancia un sistema de control eficaz
que siga las direcciones reales de la investigación del ADN recombinante. /.../ Es
esencial que se sigan de manera sistemática los caminos que toman los intereses de los
investigadores, desde los programas de ayudas económicas y las comunicaciones hasta
la publicación del trabajo. Finalmente, una conferencia celebrada en Asilomar,
California, en la que se discutió sobre los riesgos potenciales de la técnica del ADN
recombinante, finalizó con la Declaración de Asilomar, en la que se proponía una
moratoria en estas prácticas hasta que se estableciese una regulación.

Como hemos podido comprobar, las inquietudes de los científicos de los 70 estaban
plenamente justificadas. En la actualidad, las prácticas de manipulación genética han
pasado, en su mayor parte, a estar dirigidas por los intereses de las empresas privadas.
La irrupción del “Mercado” en la Ciencia ha transformado la concepción de la
investigación hasta convertirla en una actividad comercial. Las perspectivas de
rentabilización de los descubrimientos genéticos ha llevado a que muchos genetistas
moleculares se hayan convertido en dueños de sus propias compañías de biotecnología,
colaboren o dependan de la financiación de grandes empresas. Esta actitud es
entusiastamente justificada por los medios de comunicación: Algunos de los
investigadores más brillantes, al menos en los Estados Unidos, parecen haberse
hartado de que la mina de oro de sus ideas acabe siendo explotada comercialmente por
otros y han decidido constituir sus propias empresas (El País, 9-4-2000). La “economía
de libre mercado” y la Biología se han encontrado, y el resultado es que esta última
parece haber olvidado su condición de Ciencia como búsqueda del conocimiento para
convertirse en una supuesta tecnología (dado el insuficiente conocimiento y control de
los fenómenos que manipula), al servicio de la industria y el comercio, y un factor más a
incluir en las oscilaciones de la Bolsa (fenómeno del que las multinacionales de la
biotecnología son el máximo exponente). La consecuencia de esta degradación del
espíritu científico es la confluencia en un sendero por el que biotecnología y economía
caminan alegremente hacia un callejón sin salida, añadiendo a la creciente degradación
ambiental, a la extensión de la pobreza y al agotamiento de recursos, la progresión,
aparentemente imparable, de los peligros derivados de la irresponsable manipulación
genética de los seres vivos. Sin embargo, esta confluencia no resulta sorprendente,
porque desde el 24 de Noviembre de 1859, la Biología y la Economía han estado
estrechamente unidas. Tan estrechamente unidas que sus conceptos centrales y su
terminología son prácticamente indistinguibles.

1.- EVOLUCIÓN, IGUAL A DARWINISMO

Va para siglo y medio que Charles Darwin postulara el origen de todas las
especies actuales a partir de otro elenco menor, surgido a su vez de otro mas exiguo y
así hasta el amanecer de la vida.

Este es uno de los más típicos (y tópicos) comienzos de cualquier texto científico
sobre la evolución biológica. En este caso, se trata de un artículo de uno de los más
prestigiosos expertos mundiales en el estudio del origen de la vida: William Ford
Doolittle. Sorprendentemente, en dicho artículo (“Nuevo árbol de la vida”,
Investigación y Ciencia, 2000), una de sus conclusiones es que: La explicación
razonable de resultados tan contradictorios hay que buscarla en el proceso de la
evolución, que no es lineal ni tan parecida a la estructura dendriforme que Darwin
imaginó. Es más, toda la información expuesta en el citado artículo (sobre el que
volveremos mas adelante) es abiertamente contradictoria con la visión darwinista de la
evolución gradual de los organismos mediante cambios aleatorios. El origen de las
células eucariotas que constituyen los organismos animales y vegetales, tuvo lugar hace,
al menos, mil millones de años, mediante la agregación de diferentes tipos de bacterias
que, actualmente, constituyen el núcleo y los orgánulos celulares, cuyas secuencias
génicas, extremadamente conservadas, se pueden identificar actualmente. Es decir, uno
de los hechos fundamentales de la evolución de la vida (el origen de nuestros
componentes) se produjo por “integración”, por asociación de elementos que ya
manifestaban una gran complejidad biológica, y que se han conservado hasta la
actualidad. Sólo este hecho, definitivamente contrastado, tira por tierra la visión de la
evolución de la vida como un fenómeno de cambio gradual, en el que las “mutaciones”
aleatorias serían fijadas o eliminadas por la selección natural: en primer lugar, porque
este cambio de tan gran trascendencia no fue gradual, y en segundo lugar, porque si las
mutaciones fueran aleatorias el ADN de nuestras células tendría muy poco que ver con
el bacteriano después de más de mil millones de años de evolución.

William Ford Doolittle finaliza su magnífico artículo rebatiendo la idea darwinista de


un “árbol de la vida” con un único antecesor, y concluye: Los datos demuestran que
este modelo es demasiado simple. Ahora se necesitan nuevas hipótesis cuyas
implicaciones finales ni tan siquiera atisbamos. Es decir, reconoce que el modelo
evolutivo darwinista es “demasiado simple” para explicar estos hechos. Sin embargo, no
puede evitar, de nuevo, la referencia, al parecer, de obligado cumplimiento, al
“descubridor” de la evolución: Creen algunos biólogos que por este camino sólo
podemos llegar a la confusión y al desánimo. Como si nos confesáramos incapaces de
tomar el testigo de Darwin y recrear la estructura del árbol de la vida.

Pero, éste puede que sea el verdadero problema responsable del desánimo: “el testigo
de Darwin”. La sistemática identificación del hecho de la evolución, con la teoría
darwinista, incluso cuando los datos y las conclusiones derivadas de ellos son
totalmente contradictorios con ella, es el resultado de la asunción de que la evolución
biológica fue un “descubrimiento” de Darwin y, en consecuencia, muchos científicos
están honestamente convencidos (no tendrían porqué mencionarlo si no fuera así) de
que cuando se habla de evolución se habla de darwinismo. A este fenómeno no tendría
por que concedérsele mayor importancia (¿qué importa quien fue el primero?), si no
fuese porque, incluso cuando los conocimientos que se van acumulando desbordan
totalmente la capacidad explicativa del darwinismo, los conceptos, los argumentos e
incluso los mismos términos científicos que se utilizan para intentar explicar los
fenómenos biológicos están cargados de significados procedentes de la visión
darwinista de la evolución, de “cómo ha tenido que ser”, lo cual conduce,
necesariamente, a cualquier investigador que, honradamente, intente comprender estos
fenómenos dentro de esta visión, a “la confusión y al desánimo”. Y éste es sólo uno de
los muchos ejemplos del estado de desconcierto en que está sumida la Biología (ver
Sandín, 2002). Su base teórica se tambalea, precisamente en una época en la que las
esperanzas (y la confianza) en sus aplicaciones prácticas se han extendido al ámbito
social, lo cual resulta, cuando menos, alarmante.

Sin embargo, parece que va a resultar difícil un cambio de perspectiva,


especialmente porque la concepción darwinista de la vida va mas allá de una teoría o
hipótesis científica, porque forma parte de toda una visión de la Naturaleza y de la
sociedad con unas profundas raíces culturales en el mundo anglosajón, claramente
hegemónico, en la actualidad, en el campo científico y económico. Y los libros de texto
que los biólogos utilizamos para nuestra formación, las revistas científicas en que
publicamos nuestros trabajos, (si queremos que sean valorados), e incluso el “lenguaje
científico”, son de origen anglosajón, lo cual conlleva no sólo una forma determinada de
describir, de interpretar, “su” realidad (mediante un vocabulario concreto), sino también
un bagaje histórico que ha conformado esa visión de la realidad. Y una típica narración
“objetiva” del origen de la base teórica de la Biología es la cita que encabeza este
apartado y que se ha convertido en un hecho “histórico” comúnmente admitido, no sólo
en las facultades de Biología, sino en la sociedad en general: “La evolución” fue un
descubrimiento de Charles Darwin.

Nada es menos cierto. El hecho de la evolución biológica estaba firmemente


establecido y ampliamente debatido en el ámbito científico desde finales del siglo XVIII
hasta mediados del siglo XIX, con un importante núcleo en la Academia de las Ciencias
de París. Desde Buffon con su “Historia Natural” (1749-89), en la que plantea sus
teorías “transformistas”, con sus conceptos de progreso y encadenamiento de los seres
vivos, hasta Fréderic Gérard con su “Theorie de l’evolution des formes organiques”,
publicada en el Diccionario Universal de Historia Natural (París, 1841-49), pasando
por Cuvier y su “Recherches sur les ossements fósiles de cuadrúpedes” (1812) o
Geoffroy Saint-Hilaire con el “Cours de l’Histoire Naturelle des Mammiferes” (1829),
se estaban planteando y debatiendo hipótesis científicas, muchas de las cuales
(naturalmente, limitadas por los conocimientos y la capacidad experimental de la época)
se están viendo apoyadas por los datos mas recientes. Los “planes de organización” de
Geoffroy Saint-Hilaire, arquetipos compartidos por grupos animales alejados
filogenéticamente, o sus “teratologías”, cambios morfológicos bruscos que se han de
producir durante el desarrollo embrionario; los cataclismos y bruscas apariciones de
nuevas morfologías de Cuvier, o la distinción entre procesos microevolutivos (en
realidad, demográficos) y la macroevolución (los cambios de organización morfológica)
de Gérárd, habían planteado, en el ámbito académico, las bases de una visión realmente
científica de la evolución. Incluso, desde 1850 se convocaban concursos sobre estudios
paleontológicos: en 1856, la Academia de las Ciencias de París otorgó el premio al
paleontólogo alemán Henrich-Georg Bronn por su informe “Investigaciones sobre las
leyes de la evolución del mundo orgánico durante la formación de la corteza terrestre”,
(Galera, 2002).

Posiblemente, se haya echado de menos al científico mas denigrado e incluso


ridiculizado de la Historia, pero su ausencia de esta relación es debida a que merece, a
modo de “rehabilitación”, una mención especial. La innecesaria ferocidad con que
Lamarck es atacado en los tratados darwinistas parece esconder algo mas que una crítica
científica. Para sus, ciertamente escasos, admiradores nos resulta menos doloroso leer
en los libros de texto el tópico ejemplo de la evolución del cuello de la jirafa con el que
se suelen liquidar sus aportaciones a la Biología, que las reseñas “históricas” que, a
veces, se pueden encontrar en los textos “oficiales”. He aquí un ejemplo (Harris, 1985):
Lamarck fue el último de once hermanos hijos de un miembro de la baja nobleza un
tanto venido a menos... A los once años fue a París a un seminario jesuita, pero a la
muerte de su padre, en 1758, se alistó inmediatamente en la Guerra de los Siete Años.
Se distinguió por negarse a retirarse, una vez muertos todos los oficiales superiores de
su compañía. (Este fue el primer caso en que Lamarck se negaría a darse por vencido,
defendiendo una posición indefendible). Abandonada la milicia y tras comenzar
estudios de medicina , su interés derivó a la Naturaleza... Lamarck se contagió de la
manía francesa por la historia natural. Dedicó cada vez mas tiempo a la botánica, a
menudo en compañía de Rousseau. En 1778 publicó flore Françoise (sic), una clave
popular (el subrayado es mío) para la identificación de flores francesas (se refiere a las
Claves Dicotómicas, sobre las que volveremos) . Buffon, satisfecho por el rechazo de
Lamarck hacia el sistema linneano, utilizaba sus influencias cerca de Luis XVI para
obtener puestos prestigiosos, aunque de bajo sueldo, para Lamarck. En sus ratos libres,
Lamarck adquirió seis hijos y una esposa (en ese orden). Mas adelante tuvo dos hijos
más y otras dos o tres esposas. Con la Revolución, el “Jardin du Roi” fue reorganizado
bajo el control del Museo de Historia Natural. El ciudadano Lamarck fue nombrado
“profesor de insectos y lombrices” en el Museo. El título “lombrices” – el comodín
linneano para los “animales blandos y húmedos” – indica la poca estima de la que
disfrutaban esos animales y Lamarck.

En cuanto a sus aportaciones científicas, la descripción no es mucho más elogiosa: A


partir de 1790 Lamarck comenzó a ponerse cada vez mas pesado con sus grandes ideas
de unificar toda la ciencia bajo una filosofía general basada en unas pocas leyes. Entre
las graciosas ideas de Lamarck estaba su aceptación de los cuatro elementos clásicos
(el subrayado es mío) y el rechazo a la química de Lavoisier. / ... / El evolucionismo de
Lamarck descrito en Philosophie Zoologique (1809) no tuvo mejor recepción que sus
demás teorías. Cuando Lamarck presentó al emperador Napoleón una copia del libro,
se vio reducido al llanto por la insultante reticencia de Napoleón a aceptar lo que creía
un trabajo sobre meteorología. Lamarck siguió publicando docenas de artículos hasta
1820, pero pasó los últimos once años de su vida ciego y en la indigencia. Fue
enterrado en una fosa común y sus huesos fueron exhumados cinco años mas tarde
para hacer sitio para otros.

El encono, que lleva incluso a seguir el rastro de sus pobres huesos, no produce la
impresión de que se pretenda transmitir la admiración (o, cuando menos, la
comprensión) que, por los precursores, suelen expresar los historiadores de otras
disciplinas. Sin embargo, es posible encontrar, fuera del ámbito “oficial” (se podría
expresar mas concretamente: anglosajón), otro tipo de narración: En cuanto a la “clave
popular” que menciona Harris, En 1778, en un corto espacio de tiempo, culminó su
“Flore française”, que entusiasmó a Buffon y conquistó el honor de ser impresa por la
“Imprimerie Royale”. En dicha obra, que le abrió las puertas de la Academia de
Ciencias, realizó su primera aportación destacada, de las muchas que haría, al
desarrollo de las ciencias naturales: el método dicotómico (Casinos, 1986). A lo que se
refiere Adriá Casinos en el prólogo a la edición facsímil de Filosofía Zoológica, es a las
claves dicotómicas que actualmente se utilizan en Botánica para la identificación de
plantas (y, también en el campo de la Zoología). Su nombramiento como “profesor de
lombrices” tiene, también, otra narración: Cuando la Convención lleva a cabo la
reorganización del “Jardin des Plantes”, a propuesta del propio Lamarck,
transformándolo en el “Museum d’Histoire Naturelle”, se convierte oficialmente en
zoólogo. En efecto, el 10 de Junio de 1793 el gobierno republicano crea doce cátedras,
para las que son nombrados / ... / E. Geoffroy Saint-Hilaire (Animales superiores), A. L.
de Jussieu (Botánica, herborización), Lamarck (Animales inferiores) / ... / El
“Muséum” no es sino un eslabón más de la profunda renovación de la enseñanza
superior que el poder revolucionario lleva a cabo, sobre todo como alternativa a la
decrépita y obsoleta Sorbona, la misma que había intentado prohibir la Historia
Natural de Buffon.

A lo largo de su actividad investigadora y docente sus aportaciones a las Ciencias


Naturales fueron realmente notables (incluso fundamentales). En 1794, en su “Discurso
de apertura” del curso académico, introdujo el término “invertebrado” (hasta entonces
se utilizaba la “presencia o ausencia” de sangre), en 1794 publica sus “Investigaciones
sobre las causas de los principales hechos físicos” (En Física, sus aportaciones no
fueron brillantes). Entre 1799 y 1810, once volúmenes de “Anuarios Meteorológicos”.
En 1801, “Sistema de los animales sin vértebras”, en el que plantea por primera vez sus
ideas evolutivas. Entre 1802 y 1806 publica “Memorias sobre los fósiles de los
alrededores de París”... Su capacidad de trabajo y su anticipación a su tiempo eran
realmente excepcionales. Aportó el concepto de “organización” de los seres vivos, la
clara división del mundo orgánico del inorgánico, realizó una revolucionaria
clasificación de los animales de acuerdo a su complejidad y fue el fundador de una
nueva Ciencia: La Biología. Con la publicación, en 1802, de “Hidrogeología” introduce
una definición general, articuladora de los conocimientos existentes de los seres vivos,
para convertirla en disciplina científica bajo dicha denominación.

En lo que respecta a su “pesadez” en la búsqueda de una “filosofía general”


mencionada por Harris, quizás no esté de más recordar que el término “filosofía” se
aplicaba, en los siglos XVIII y XIX, en el sentido de “teoría”, y Lamarck tenía muy
clara una idea que, al parecer, no es contemplada en la actualidad por muchos de los
más prestigiosos especialistas de la moderna Biología: para cualquier disciplina
científica es imprescindible una base teórica unificadora que la dote de coherencia y
permita entender los fenómenos estudiados: Nadie ignora que toda ciencia debe tener
su filosofía, y que sólo por este camino puede hacer progresos reales. En vano
consumirán los naturalistas todo su tiempo en describir nuevas especies / ... / porque si
la filosofía es olvidada, sus progresos resultarán sin realidad y la obra entera quedará
imperfecta. (pag. 48). Su Filosofía Zoológica, el primer tratado científico completo
dedicado a la evolución, está escrito en el típico estilo decimonónico (mas bien
dieciochesco) de los textos académicos de la época, con sus interpretaciones
condicionadas por los conocimientos y creencias de la época, pero introduce ideas y
conceptos sorprendentemente modernos, como el de “organización”, no sólo
morfológica o anatómica, sino también referida al orden general de la Naturaleza (pag.
88): La multiplicación de las pequeñas especies de animales es tan considerable, que
ellas harían el globo inhabitable para las demás, si la Naturaleza no hubiese opuesto
un término a tal multiplicación. Pero como sirven de presa a una multitud de otros
animales, y como la duración de su vida es muy limitada, su cantidad se mantiene
siempre en justas proporciones para la conservación de sus razas. / ... / y ello conserva
a su respecto la especie de equilibrio que debe existir. Su concepción ecológica de la
Naturaleza tiene muy claro el elemento desestabilizador que el Hombre ha introducido
en estas relaciones: Por último, sólo el hombre separadamente de todo lo que es
particular a él parece poder multiplicarse indefinidamente, porque su inteligencia y sus
medios le colocan al abrigo de ver su expansión limitada por la voracidad de ninguno
de los animales. Ejerce sobre ellos una supremacía tal, que es capaz de aniquilar a las
razas más grandes y más fuertes de animales, y restringe diariamente el número de
individuos. (pag. 89).
Otro de sus conceptos dignos de resaltar es el de la complejidad intrínseca a las mas
elementales formas de vida: Como las condiciones necesarias para la existencia de la
vida se encuentran ya completas en la organización menos compleja, aunque reducida
a su mínima expresión se trataba de saber cómo esta organización a causa de cualquier
tipo de cambios había llegado a dar lugar a otras menos simples y a organismos
gradualmente mas complicados, como se observa en toda la extensión de la escala
animal (pag. 249). Este hecho, todavía no asimilado por los darwinistas ortodoxos,
empeñados en el intento de explicar la aparición “por partes” y “al azar” de los
complejos componentes de la vida, ha emergido de los modernos enfoques de la Teoría
de Sistemas con la denominación de “Sistemas irreductiblemente complejos”
compuestos por varias piezas armónicas e interactuantes que contribuyen a la función
básica, en el cual la eliminación de cualquiera de estas piezas impide al sistema
funcionar. (Behe, 2000)

Pero la anticipación, sin duda, más brillante, y por la cual ha recibido los más feroces
ataques, fue su concepción de la interacción organismo-ambiente de su proceso de
adaptación, que ha pasado a constituir, en los libros de texto el ridículo tópico utilizado
para descalificar a Lamarck, como si toda su labor científica se redujera a la afirmación
de que “el cuello de las jirafas se alargó como consecuencia de sus esfuerzos por
alcanzar las hojas de los árboles”, es decir la evolución morfológica como consecuencia
del “uso y el desuso”. Veamos ahora su explicación: Las circunstancias influyen sobre
la forma y la organización de los individuos / ... / Ciertamente, si se me tomasen estas
expresiones al pie de la letra, se me atribuiría un error, porque cualesquiera que
puedan ser las circunstancias, no operan directamente sobre la forma y sobre la
organización de los animales ninguna modificación. Pero grandes cambios en las
circunstancias producen en los animales grandes cambios en sus necesidades y tales
cambios en ellas las producen necesariamente en las acciones. Luego si las nuevas
necesidades llegan a ser constantes o muy durables, los animales adquieren entonces
nuevos hábitos, que son tan durables como las necesidades que los han hecho nacer.
(pag. 167). A lo que Lamarck se refería, por tanto, no es a la herencia de las
consecuencias directas de la utilización o del fortalecimiento de un órgano o estructura.
Una idea bastante simplista que veremos planteada por “otro autor” mas adelante, sino a
los efectos, a largo plazo, de las circunstancias ambientales naturales que produzcan una
respuesta del organismo (y cortar la cola a cientos de ratones, la supuesta demostración
de Weissman de la falsedad del lamarckismo, no sólo no es una influencia ambiental,
sino que es una simpleza cruel e inútil). En la actualidad, se ha podido comprobar que
esas respuestas al ambiente existen, tanto mediante remodelaciones genéticas llevadas a
cabo por “elementos móviles” del genoma (Whitelaw y Martin, 2001), como por
procesos mediante los que una misma secuencia génica puede “codificar” distintos
mensajes (y no al azar) en función de las circunstancias ambientales (Herbert y Rich,
1999).

En cuanto a la “recompensa” final a sus aportaciones científicas, narrada de una


forma tan despiadada como poco fundamentada por Harris, se trata de unos hechos que,
aunque por su profunda injusticia puedan resultar indignantes, en el fondo no resultan
sorprendentes, por ser un fenómeno muy repetido en la Historia con las personas cuyas
ideas no resultan gratas a los poderosos: Lamarck era un entusiasta de la Revolución
Francesa, al parecer, debido a la influencia de Rousseau y su
”Contrato social”. En su “Recherches sur les causes des principaux faits physiques”
escribe una dedicatoria muy ilustrativa sobre su pensamiento político: Al pueblo
francés. Acepta pueblo magnánimo / ... / pueblo que has recuperado los derechos
sagrados e imprescindibles que has recibido de la naturaleza /... / y por el deseo que yo
tengo de compartir tu gloria contribuyendo al menos, según mis débiles facultades, a
ser útil a mis semejantes, mis hermanos, mis iguales. Y el fin de la etapa revolucionaria
le pasó factura: El Imperio y la Restauración borbónica no le serán favorables. El
propio Napoleón le recriminará públicamente durante una reunión del Instituto por su
obra meteorológica cuando Lamarck intentaba hacerle entrega de su “Filosofía”
(Casinos, 1985). Su caída en desgracia con el poder tuvo consecuencias fatales. Pasó los
últimos 10 años de su vida ciego y en la indigencia, cuidado por una de sus hijas a la
que dictó, en su mayor parte, uno de sus legados principales: “Histoire Naturelle des
animaux sans vertèbres”. Murió el 18 de Diciembre de 1829 y, efectivamente, fue
enterrado en una fosa común.

En definitiva, el saludable (y, en ocasiones , fructífero) ejercicio que para un


profesional de la Biología constituye el abandonar por un tiempo la rutina (o en su caso
la competencia) habitual, y bucear en las fuentes originales, puede conducir a tomar
conciencia del cúmulo de ocultamientos, deformaciones y falsedades que se ha
fraguado en torno al fundador de nuestra disciplina, y nuestro ilustre colega, sólo
comparable en cantidad y calidad a las medias verdades, evidentes falsedades y
componendas con las que se ha adornado en los textos científicos didácticos y
divulgativos a la gran figura histórica de la Biología: el reverendo Charles Robert
Darwin. Un fenómeno sin parangón en ninguna otra disciplina científica y que debe de
tener algún motivo, porque revela una evidente intencionalidad de ocultar los datos
históricos. Así es cómo los estudiantes de Biología hemos recibido nuestra “formación”
por parte de nuestros maestros más prestigiosos: Antes de Darwin, la diversidad de los
organismos quedaba sin explicación o se atribuía a los designios del Creador. (Ayala,
”La Naturaleza inacabada”, (1987) pag. 6). Los organismos vivientes han existido
sobre la Tierra sin nunca saber porqué, hasta que la verdad, al fin, fuese comprendida
por uno de ellos. Por un hombre llamado Charles Darwin (Dawkins, “El gen egoísta” ,
(1993) pag. 1). La recopilación de glosas al descubridor de la evolución (Stratern, 1999)
que figura en los textos que los biólogos utilizamos habitualmente podría ser
inacabable. La figura y la trascendencia histórica de Darwin se ha igualado a las de
Newton, Shakespeare y Einstein. Su obra cumbre El origen de las especies ha sido
propuesta como “el libro del milenio” (no parece arriesgado aventurar que los autores
de tal propuesta, o bien no han leído el citado libro, o han leído pocos libros).

Lo cierto es que su publicación constituyó lo que se podría considerar el origen de


los “Best Seller” de los libros científicos. El día de su publicación, el 24 de Noviembre
de 1859, se vendió la primera edición de 1250 ejemplares y una segunda, de 3000
ejemplares, se agotó en una semana. Su éxito social, sin precedentes en obras de éste
tipo, no fue acompañado, sin embargo, de una acogida elogiosa (que narraremos mas
adelante) por parte de personajes de reconocido prestigio con conocimientos o interés
por la evolución. El motivo es comprensible. El libro de Darwin resultaba (y resulta),
para cualquiera que tuviese una mínima formación científica, filosófica o, incluso
literaria, una obra de gran debilidad argumental, con unas bases conceptuales
acientíficas (se podrían calificar de “populares”), y una estructuración errática e
inconsistente. Veamos en que se fundamentan estas calificaciones: El primer capítulo,
(página 19 de la edición española), comienza con la “Variación en el estado
doméstico” en el que expone los “Efectos del hábito del uso o desuso de las partes”,
según el cual: Así encuentro en el pato doméstico que los huesos del ala pesan menos y
los huesos de la pierna más en proporción a todo el esqueleto, que lo que pesaban los
mismos huesos en el pato salvaje; y este cambio puede atribuirse, sin riesgo de
equivocarse, a que el doméstico vuela mucho menos y anda mucho más que sus salvajes
padres (pag. 23). Es decir, la versión más simplificada y pobre del lamarckismo, de la
que, al parecer, era el más firme defensor: Cuando discute casos especiales pasa M.
Mivart en silencio los efectos del uso y el desuso de las partes, que yo siempre he
sostenido ser altamente importantes y que he tratado con mayor extensión que ningún
otro escritor... (pag. 237). En su conjunto, la obra puede ser calificada de cualquier cosa
menos coherente como tratado científico. Desde la tendencia a variar de la misma
manera (pag. 239) hasta lo que hoy se conoce como “neutralismo” modificaciones que
no son importantes para el bienestar de la especie ...que se hicieron constantes por la
naturaleza del organismo... pero no por la selección natural (pags. 236-237), hasta
narraciones de lo que le contaron (pag. 194): En la América del Norte ha visto Hearne
al oso negro nadando horas enteras con la boca completamente abierta, atrapando así,
casi como una ballena los insectos del agua. Se pueden encontrar, a lo largo del libro,
abundantes argumentaciones de consistencia científica semejante, referidas a las orejas
caídas del ganado porque se asustan menos (pag. 23), a la situación de los ojos de los
peces planos debida a los esfuerzos por mirar hacia arriba (pag. 251)... Pero, para no
resultar exhaustivos, nos centraremos en sus conclusiones finales (pags. 556-561), que
resumen y “concretan” su mensaje científico. Las implicaciones de su visión de la
Naturaleza tienen, en el Hombre, un inevitable resultado final: Y como la selección
natural obra solamente por y para el bien de cada ser, todos los atributos corpóreos y
mentales tenderán a progresar hacia la perfección. (Para una más concreta información
sobre lo que significa para él la perfección en los atributos corpóreos y mentales, véase
su “Origen del Hombre”) lo que, por otra parte, pone de manifiesto que la, tan
denostada por los darwinistas, “tendencia a la perfección” atribuida a Lamarck, y que
éste refería a la complejidad, tiene, en realidad, otra paternidad. Pero leamos su resumen
final: Estas leyes, tomadas en un sentido más amplio, son crecimiento con
reproducción: variabilidad, resultado de la acción directa e indirecta de las
condiciones de vida y del uso y desuso; aumento en una proporción tan alta, que
conduce a una lucha por la existencia, y como consecuencia, a la selección natural, la
cual trae consigo la divergencia de carácter y la extinción de las formas menos
mejoradas.

Naturalmente, todas estas aportaciones al “esclarecimiento” de la evolución son


meticulosamente depuradas en los tratados darwinistas, en los que los
“descubrimientos” de Darwin quedan resumidos en los dos conceptos (mas bien
axiomas) que hoy constituyen el dogma central de la Biología: el azar como fuente de
variación, y la selección natural como motor de cambio. Concretemos, pues, sus bases
“científicas": He hablado hasta aquí como si las variaciones, tan comunes y
multiformes en los seres orgánicos en estado de domesticidad y no tan comunes en los
silvestres, fueran debidas a la casualidad. Innecesario es decir que este término es
completamente inexacto y que sólo sirve para reconocer paladinamente nuestra
ignorancia de la causa de cada variación particular (pag. 149). Es decir, la variación
“al azar”, (dogma y pilar fundamental de la Biología actual) era, en realidad,
desconocimiento. Pero el otro pilar no tiene una base mucho mas sólida. El intento de
explicar los grandes cambios de organización morfológica y funcional que se han
producido a lo largo de la evolución, el “mecanismo” propuesto e incluso el término
“selección” eran una simplista extrapolación de las actividades de los ganaderos y
criadores de palomas de su país: Cuando vemos que han ocurrido indudablemente
variaciones útiles para el hombre, no podemos creer improbable que ocurran en el
curso de muchas generaciones sucesivas, otras variaciones útiles de algún modo a cada
ser en la batalla grande y compleja de la vida. Y si ocurren, ¿podemos dudar
(recordando que nacen muchos más individuos que los que es posible que vivan) que
los individuos que tengan alguna ventaja sobre los demás, por pequeña que sea,
tendrán la mejores probabilidades de sobrevivir y reproducir su especie?. Por otra
parte, podemos estar seguros de que cualquier variación en el más pequeño grado
perjudicial, sería rígidamente destruida. Esta conservación de las variaciones y
diferencias individuales favorables, y la destrucción de aquellas que son nocivas, es lo
que he llamado “selección natural” o “supervivencia de los más aptos” (pag. 94). Es
decir, las transiciones entre la organización pez y anfibio, (o reptil y ave), serían
simplemente, el resultado de un proceso semejante a la actividad de los ganaderos: la
selección forzada, (y aquí sí sería adecuado usar el término “contra Natura”) de
animales, en muchos casos, con defectos e incluso patologías que serían inviables en
condiciones naturales, como enanismo, obesidad, atrofias,... pero que a pesar de
milenios de selección por el Hombre siguen siendo perros, cerdos, gallinas... es decir, la
misma especie.

Esta fragilidad conceptual (por calificarla de un modo benévolo) fue rápidamente


denunciada por científicos e intelectuales de la época. El zoólogo evolucionista S. G.
Mivart puso de manifiesto (entre muchas otras cosas), lo absurdo de la idea de que un
proceso así fuera el responsable de la aparición gradual y al azar de nuevas estructuras:
La selección natural es incapaz de explicar las etapas incipientes de las estructuras
útiles (Mivart, 1871). El ingeniero (y, al igual que Darwin, naturalista aficionado)
Fleeming Jenkin puso de manifiesto lo poco creíble que resultaba la idea de que en la
Naturaleza una desviación ocasional de la estructura se extendiese, en animales
normales, hasta hacerse común a toda la población. Además hizo notar que, en los
animales seleccionados, cuando retornan a la libertad no solamente no pueden variar
indefinidamente, sino que muchos sujetos vuelven a la condición primera, (Thuillier,
1990). Este evidente fenómeno se encuentra explicado actualmente en los tratados
darwinistas bajo la incoherente denominación de “selección estabilizadora”, que , mas
propiamente, debería llamarse “selección deseleccionadora”: La selección
estabilizadora es muy común. Con frecuencia, los individuos que sobreviven y se
reproducen con más éxito son los que presentan los valores fenotípicos intermedios.
(Ayala, 1999). Porque esto es lo que sucede en la Naturaleza: los individuos que
sobreviven no son ni más ni menos “aptos”, son los individuos normales. Para finalizar,
nos referiremos a una objeción de una solidez lógica difícilmente discutible, expuesta
por el matemático William Hopkins: La teoría de Señor Darwin no puede explicar
nada, ya que es incapaz de asignar una relación necesaria entre los fenómenos (los
cambios de organización) y las causas que les atribuye (la variación dentro de la
especie) (Thuillier, 1990).

Cuando se tiene acceso a estas informaciones, resulta absolutamente pasmoso, no ya


el éxito que alcanzó Darwin en su época y en su entorno, sino el mantenimiento, incluso
el auge de la visión Darwinista de la Naturaleza en la actualidad, a pesar de los
descubrimientos sobre la enorme complejidad de los fenómenos biológicos. Sin
embargo, un somero estudio de las circunstancias históricas y sociales que rodearon el
nacimiento del darwinismo nos puede dar cuenta , no sólo de su éxito inicial, sino del
motivo de su auge actual.

2.- LA HIPOCRESÍA COMO DOCTRINA CIENTÍFICA

Durante los años finales del siglo XVIII y primeros del XIX, la situación social en
las islas británicas estuvo agitada hasta llegar, en ocasiones, al borde de la revolución,
que fue evitada mediante una dura represión. Fue la época de la masacre de Peterloo y
de “los mártires de Tolpuddle”. Según las narraciones históricas (Stratern, 1999), el
mariscal Wellington permitió a sus soldados disparar contra los trabajadores (cabe
suponer que la orden debió ser: “si les apetece...”). Gran Bretaña había entrado en la
edad moderna arrastrando el bagaje de leyes feudales y costumbres diseñadas por y
para los ricos y aristócratas. (Harris, 1985). Las leyes de cerramiento de fincas,
promulgadas en el siglo XVIII, permitieron a los terratenientes vallar sus tierras para
utilizarlas como pastos para el ganado, y expulsar a sus renteros, condenándolos a ser
mano de obra barata para las oscuras fábricas satánicas, y que pasaron a constituir una
gran masa de desheredados hacinados en las grandes ciudades industriales. Entonces,
comenzaron a surgir “pensadores” que aportaron sus diagnósticos y sus justificaciones
de la situación (Ekelund y Herbert, 1995): Para Arthur Young cualquiera, excepto un
imbécil, sabe que las clases inferiores deben mantenerse pobres o nunca serán
laboriosos (“Eastern Tour”, 1771). Bernard de Mandeville, dictaminó que a los hijos
de los pobres y a los huérfanos no se les debía dar una educación a cargo de los fondos
públicos, sino que debían ser puestos a trabajar a una temprana edad, ya que la
educación arruinaba al que merece ser pobre (“La Fábula de las abejas”, 1714).
Mandeville sostenía la máxima calvinista de que el Hombre está lleno de vicio, no
obstante, era de la opinión de que los vicios individuales hacen la prosperidad pública.

Estos antecedentes constituyen el sustrato sobre el que se construyó la “teoría


científica” de Adam Smith, el “padre de la economía moderna”. Su idea rectora es que
No es de la benevolencia del carnicero, cervecero o panadero de donde obtendremos
nuestra cena, sino de su preocupación por sus propios intereses / ... / que proviene de
nuestra propensión a cambiar una cosa por otra. (“La Riqueza de las Naciones”, 1776).
Para Adam Smith, es el egoísmo individual lo que conlleva al bien general: Por regla
general, no intenta promover el bienestar público ni sabe cómo está contribuyendo a
ello. Prefiriendo apoyar la actividad doméstica en vez de la foránea, sólo busca su
propia seguridad, y dirigiendo esa actividad de forma que consiga el mayor valor, sólo
busca su propia ganancia, y en este como en otros casos está conducido por una mano
invisible que promueve un objetivo que no estaba en sus propósitos.

La base conceptual de Smith no era, como se puede ver, mucho más amplia y general
que la de Darwin. Igual que éste convirtió las actividades de los ganaderos de su entorno
en Ley General de la evolución, Adam Smith construyó su teoría a partir de sus
observaciones de cómo actuaban sus vecinos y correligionarios. Es decir, un análisis
(más bien, una descripción) de su entorno social, tal vez, incluso de la ciudad donde
vivía. Porque es evidente que estos planteamientos, sin necesidad de ir mas lejos de su
propio país, no serían extrapolables a la economía y a la “libertad de elección” de los
trabajadores de “las fábricas satánicas”. De todas formas, da la impresión de que éstos
no parecen estar incluidos en su modelo “científico” ( salvo, tal vez, como recursos
naturales), porque, según él: Los trabajadores y otras clases inferiores de personas,
engendran demasiados hijos, lo cual hará descender sus salarios a un nivel de
subsistencia.

Esta “entrañable” concepción de la sociedad tiene unas evidentes, y muy estudiadas


(Weber, 94) raíces culturales y religiosas, pero el motivo para presentar estas ideas
como “leyes científicas”, bien pudiera ser el siguiente: se estaba produciendo en Gran
Bretaña una peculiar “revolución” de la burguesía contra la oligarquía y la nobleza, para
arrebatarles el monopolio de la explotación de los trabajadores “y otras clases inferiores
de personas”. Por eso, una de las máximas fundamentales del “liberalismo económico”
era (y es) que los gobiernos no deben entrometerse en la libertad de “operaciones” del
mercado, es decir, que dejen a la sociedad en manos de los realizan esas “operaciones”.
Y, del mismo modo que en el campo de la Biología, la capacidad creadora del azar y
la competencia han pasado a convertirse en un dogma, a pesar de su inconsistencia
científica, el papel benefactor de “la mano invisible del mercado” se ha convertido en
una creencia, por muy lejos que sus verdaderos efectos estén de ella en el mundo real ,
que no es el reino de la providencial mano invisible y benefactora sino, al contrario, el
de manos bien visibles e interesadas, buscando el máximo beneficio privado a costa de
lo que sea (San Pedro, 2002).

Otra obra de gran relevancia en este contexto fue el “Ensayo sobre el Principio de la
población”, publicado, en 1798, por el ministro anglicano Thomas Robert Malthus y
que se convirtió en una parte importante e integral de la economía liberal clásica, (The
Peel Web). Malthus, que sólo salió de Inglaterra para una breve visita a Irlanda y un
viaje al “continente” por razones de salud, elaboró su ensayo basado en la observación
de las masas de desheredados que abarrotaban las calles de las ciudades inglesas. Su
famosa tesis era que el aumento de la población en progresión geométrica, mientras que
los alimentos aumentaban en progresión aritmética, impondría una “lucha por la vida”.
Su libro que, al parecer, fue su única aportación sustancial, tuvo una gran influencia en
el “Acta de Enmienda de la Ley de Pobres” de 1834. Según Malthus, las “Leyes de
Pobres” estimulaban la existencia de grandes familias con sus limosnas, y afirmaba que
no deberían de existir, porque además limitaban la movilidad de los trabajadores.
Estaba en contra de la ayudas a los pobres y afirmaba que las “casas de trabajo” donde
se hacinaban los desempleados no deberían ser confortables asilos, sino sitios donde la
estancia debería ser dura (The Peel Web).

Quizás sea conveniente señalar que, probablemente, no era, necesariamente, una


intención malévola (aunque no se puede descartar) la que dirigía las ideas de los autores
reseñados, (de hecho, los historiadores de Malthus le describen como un hombre
amable y benevolente que ha sufrido unas grandes malinterpretaciones tanto por
revolucionarios como por conservadores ) (The Peel Web). La uniformidad de sus
argumentos hace pensar que era una forma muy común de ver el mundo, al menos, por
un sector concreto de una sociedad con unos determinados fundamentos y valores
culturales. Pero, además, las víctimas de la “Revolución Industrial” (en la que jornadas
de 16 horas de trabajo llegaron a ser comunes para los niños de seis, cinco y, a veces, de
cuatro años, que alcanzaban a duras penas la adolescencia con deformaciones que
permitían deducir en qué máquinas habían trabajado) y de la expansión colonial
británica, necesitaban, probablemente, de alguna justificación “científica” y “objetiva”
de las terribles situaciones creadas dentro y fuera del país. Y una de las más
“autorizadas” fue la que ofreció Herbert Spencer. Economista y filósofo, en su primer y
exitoso libro “La Estática Social” (1850), trata de dar algunas directrices, basadas en
sus ideas sobre la evolución biológica, para llevarlas a la política social. Según él, los
políticos no deberían intervenir en la evolución de la sociedad, pues ésta tiene un
instinto innato de libertad. La sociedad eliminará a los “no aptos” y eligirá a aquellos
individuos más sanos e inteligentes. En su opinión, el intento de ayudar a los pobres era
un entorpecimiento de las “Leyes Naturales” que se rigen por la competencia. Según
Spencer: Las civilizaciones, sociedades e instituciones compiten entre sí, y sólo resultan
vencedores aquellos que son biológicamente más eficaces (Woodward, 1982). Fue él
quien aplicó la famosa noción de la “supervivencia del más apto” (mas exactamente,
del más “adecuado”) como el motor de las relaciones sociales.

Y, una vez más, para no “desentonar” con la metodología “científica” de los


pensadores antes mencionados, todas las investigaciones de Spencer sobre otras culturas
son “de segunda mano”. No están basadas en ningún trabajo de campo, ni siquiera en
alguna observación directa, sino en relatos y observaciones de viajeros británicos
(Ekelund y Herbert, 1995).

Estos son los cimientos “científicos” y “objetivos” (y, especialmente, metodológicos)


sobre los que se edificaron las bases conceptuales de “la” teoría de la evolución (del
darwinismo, para ser exactos). Porque ésta no se elaboró a partir del estudio de la
Naturaleza (lo que parecería, al menos, razonable) es decir, no se basó en observaciones
de animales salvajes, ni en estudios anatómicos o embriológicos o, al menos, en lecturas
de textos científicos. Tampoco fue el resultado directo (como se nos cuenta) de la
famosa expedición del Beagle, de la que Darwin volvió sin ninguna idea concreta (mas
bien con dudas) sobre la evolución, a pesar de que había leído a Lamarck, como nos
narra él mismo en su autobiografía. El método no fue mucho más empírico que los de
sus antecesores conceptuales: consistió en la lectura, durante lo que describe como el
período de trabajo más intenso de mi vida (“Autobiografía”, pag. 66) de textos
especialmente en relación con productos domesticados, a través de estudios publicados,
de conversaciones con expertos ganaderos y jardineros y de abundantes lecturas.
También de filosofía, política y economía. En “La riqueza de las Naciones” encontró
Darwin las ideas de la importancia de las diferencias individuales y del resultado
beneficioso de actividades “no guiadas”. Spencer le aportaría, posteriormente, la idea de
que sólo los “más adecuados” sobreviven en un mundo de feroz competencia. Pero la
revelación decisiva le llegó de los “filantrópicos” principios malthusianos. Así es como
él mismo lo describe; En Octubre de 1838, esto es, quince meses después de haber
comenzado mi estudio sistemático, se me ocurrió leer por entretenimiento el ensayo de
Malthus sobre la población y, como estaba bien preparado para apreciar la lucha por
la existencia que por doquier se deduce de una observación larga y constante de los
hábitos de animales y plantas, descubrí enseguida que bajo estas condiciones las
variaciones favorables tenderían a preservarse, y las desfavorables a ser destruidas. El
resultado de ello sería la formación de especies nuevas. Aquí había conseguido por fin
una teoría sobre la que trabajar (“Autobiografía”, pag. 67). En efecto, la extensión al
mundo natural de las actividades de jardineros, criadores de animales y agricultores, le
lleva directamente a su gran (y, al parecer, indeleble) aportación: He llamado a este
principio por el cual se conserva toda variación pequeña, cuando es útil, selección
natural para marcar su relación con la facultad de selección del hombre. Pero la
expresión usada a menudo por Mr. Herbert Spencer, de que sobreviven los más idóneos
es más exacta, y algunas veces igualmente conveniente (pag. 76) . En cuanto a su
concepción de las relaciones entre los seres vivos en la Naturaleza, ésta es su
interpretación “ecológica: De aquí, que como se producen más individuos de los que es
posible que sobrevivan, tiene que haber forzosamente en todos los casos una lucha por
la existencia / ... / Es la doctrina de Malthus aplicada con multiplicada fuerza al
conjunto de los reinos animal y vegetal; porque en este caso, no hay aumento artificial
de alimento y limitación prudente de matrimonios (pag. 78) .

Con estos argumentos como conceptos fundamentales, no puede resultar extraño el


enorme éxito de su libro, cuyas dos primeras ediciones ya descritas fueron seguidas,
hasta 1876, de otras siete. En un período de máximo esplendor de la revolución
industrial y del imperio británico, con muy duras consecuencias para las víctimas de
ambos fenómenos, llegó la “explicación científica”. El título de su libro: “Sobre el
Origen de las Especies por medio de la Selección Natural o el mantenimiento de las
Razas favorecidas en la Lucha por la Existencia”, debió resultar muy sugerente para
muchos de sus compatriotas (que no se encontrarían, lógicamente, entre los
“desfavorecidos”) aunque, como hemos visto, también recibió muchas críticas, en
algunos casos muy bien fundamentadas, que le obligaron a añadir a la sexta edición otra
con todo un capítulo en el que respondía, en muchas ocasiones con escasa fortuna, a las
objeciones.

Con semejantes antecedentes, se puede entender el éxito de Darwin en Gran Bretaña,


pero su proyección internacional resulta, cuando menos, desconcertante si tenemos en
cuenta los datos antes mencionados sobre los estudios sobre evolución en “el
continente”. ¿Cuál pudo ser, entonces, el motivo de que un libro con semejantes bases
conceptuales y con semejantes méritos científicos se haya convertido en la obra de la
que nace toda la biología moderna (Fernández, 85)?. Aunque la explicación no sea,
probablemente, sencilla, porque requeriría más profundos estudios históricos y sociales,
tal vez se puedan arriesgar algunas hipótesis (o especulaciones) que, si bien pueden
resultar sesgadas o parciales, posiblemente no lo sean más que las narraciones de sus
seguidores.

3.- LA “TRANSFORMACIÓN MENTAL” DE DARWIN, O CÓMO SE


FABRICA UN GENIO

Es un hecho histórico perfectamente documentado que, en la primera mitad del siglo


XIX la evolución biológica era un fenómeno ampliamente estudiado y debatido en el
ámbito académico. Es mas, los partidarios de la evolución eran llamados
“lamarckianos” (Harris, 1985). Naturalmente, estos estudios y debates estaban
restringidos al entorno científico o a personas cultivadas con interés por la materia. No
es arriesgado suponer que las noticias del éxito editorial que supuso la publicación de la
obra de Darwin contribuyeran en gran medida a despertar el interés por ella fuera de
Gran Bretaña y fuera del ámbito estrictamente biológico. La sencillez y la fácil
“visualización” de sus argumentos fue la probable causa de que muchas personas que no
habrían tenido noticias sobre las investigaciones e hipótesis previas sobre la evolución,
la “descubrieran” como un fenómeno plausible.

De hecho, los debates (y la aceptación) que suscitó la obra de Darwin se produjeron,


fundamentalmente, en torno a la idea de la evolución. En España, por ejemplo, “El
Orígen de las Especies” se tradujo (incompleto) en 1872. “The Descent of Man, and
Selection in relation to Sex”, traducido incorrectamente como “El Origen del Hombre”,
y del que los darwinistas actuales hablan poco (y con muy fundados motivos), se tradujo
en 1876. En 1877 apareció la primera traducción completa del “Origen de las
Especies” corregida y ampliada. “Filosofía zoológica” tardó un siglo en ser traducida al
español. Fue publicada en 1911 por la pequeña editorial Sempere de Valencia. Por eso,
las narraciones darwinistas se pueden permitir, “sin faltar exactamente a la verdad”,
hablar del debate sobre “la” Teoría de la evolución tanto dentro como fuera de las aulas
universitarias (Gomis y Josa, 2002), como un debate sobre el darwinismo: La
publicación en 1859 de On the Origin of Species... (Acerca del origen de las especies),
y la posterior aparición en 1871 de The Descent of Man (El origen del hombre), supuso
una ruptura con la interpretación creacionista del Génesis... Y así, se adornan las ideas
de Darwin con un tinte progresista, e incluso revolucionario, al narrar las
confrontaciones que se produjeron entre sectores de tendencias liberales y, del otro, los
sectores mas conservadores de la sociedad española, con un fuerte apoyo de la Iglesia
Católica.

Esta manera de deformar la Historia, mediante la narración de hechos reales y la


ocultación de otros no menos ciertos, es una constante en los textos científicos o
divulgativos. El debate entre Thomas Henry Huxley (“el bulldog de Darwin") y el
obispo de Oxford Samuel Wilberforce, del que, por cierto, Darwin se escabulló
(Stratern, 99), se ha convertido en el tópico habitual en la narración de la epopeya de la
“revolución” darwinista, pero no se citan las críticas científicas, como las anteriormente
recogidas, de naturalistas conocedores del hecho de la evolución, de las que, quizás la
mas significativa, porque sintetiza un certero análisis de la obra de Darwin en pocas
palabras, es la del profesor Haughton, de Dublín, citado por él mismo en su
“Autobiografía”: Todo lo que había de nuevo era falso, y todo lo que había de cierto
era viejo.

Pero, tal vez, una de las deformaciones mas descaradas (porque su falsedad se puede
revelar en libros existentes) es la de atribuir a la supuesta “revolución” darwinista un
carácter de progreso científico porque fue el primero en dar una explicación
materialista, no teísta de los fenómenos naturales (Rose, 1999, Ayala, 1985, etc.), como
si las explicaciones de Saint Hilaire, Lamarck, Gèrárd (entre otros muchos), basadas en
experimentos con embriones, estudios anatómicos, taxonómicos o paleontológicos,
fueran interpretaciones “supersticiosas”.

Si cada una de estas lagunas en la información o interpretaciones parciales o


inexactas pueden ser consideradas producto de algún descuido o, incluso, de la típica
idealización de los personajes “míticos” por parte de sus seguidores, el conjunto de
ellas, añadido a las crueles descalificaciones y descaradas falsedades lanzadas sobre los
precursores del evolucionismo, producen la impresión de un engaño premeditado. De
que se ha “fabricado” un personaje, una historia e, incluso, una “sólida teoría científica”
muy alejados de los hechos reales. Una realidad a la que nos podemos acercar, no sólo
buceando pacientemente en la historia, sino leyendo directamente al mismo Darwin
(algo que, al parecer, pocos darwinistas se han molestado en hacer).

Como hemos visto, en las hagiografías de Darwin que suelen figurar en las
introducciones de los textos científicos y divulgativos, la historia suele comenzar con la
publicación de la “obra cumbre de nuestra civilización”, o, en algunos casos, con el
viaje de “un joven naturalista” a bordo del Beagle, durante el cual “descubrió” la
evolución. Aunque, vistos los anteriores datos, pueda parecer reiterativa (incluso
innecesaria) la exposición de las circunstancias personales que rodearon realmente el
nacimiento de la obra que completó la revolución que comenzó en el siglo XVI con
Copérnico etc., etc., la información sobre ello tal vez no resulte superflua, porque,
cuando lo que se está valorando es la teoría de un personaje que ocupa una de las mas
altas cumbres del pensamiento humano (para mí la más) (Arsuaga, 2002), algunos
datos históricamente documentados sobre este aspecto pueden resultar esclarecedores.
Porque su formación, las influencias recibidas y el contexto científico y social en que
este hecho tuvo lugar, nos pueden ofrecer alguna información, tanto sobre su bagaje
científico como sobre la forma en que todo esto ha sido (y sigue siendo) transmitido por
sus apologistas.

Para no correr el riesgo de incurrir en valoraciones del tipo de las que, por ejemplo
Harris, hacía de Lamarck, vamos a recurrir a su propia autobiografía y a biógrafos cuya
calificación de Darwin como el hombre que aportó la idea más importante de la
humanidad (Stratern, 1999) no deja dudas sobre sus inclinaciones.

A pesar de que la narración, por éste último, de varias anécdotas y circunstancias


referidas a la infancia y juventud de Darwin se presta, sin gran esfuerzo, a una sátira
cruel, nos ceñiremos a lo que se refiere a su formación intelectual. Su padre, un
acaudalado médico de las clases altas (sólo si podían pagar sus elevados honorarios
hacía algún caso a los pacientes) (Stratern, 1999) lo envió, a los 16 años a estudiar
medicina a Edimburgo. Así es como él mismo narra sus experiencias: También asistí en
dos ocasiones a la sala de operaciones en el hospital de Edimburgo y vi dos
operaciones muy graves, una de ellas de un niño, pero salí huyendo antes de que
concluyeran (“Autobiografía”, pag. 16). El resultado de su poca inclinación a la
medicina fue que: Tras haber pasado dos cursos en Edimburgo mi padre se percató, o
se enteró por mis hermanas , de que no me agradaba la idea de ser médico, así que me
propuso hacerme clérigo. / ... / sentía escrúpulos acerca de la declaración de mi fe en
todos los dogmas de la iglesia Anglicana aunque, por otra parte, me agradaba la idea
de ser cura rural. Durante sus estudios de Teología en el Christ’s College, conoció al
hombre, quizás mas determinante en su futuro: El reverendo J.S. Henslow, teólogo y
coadjutor de la iglesia de St. Mary, constituyó para Darwin el equivalente de lo que fue
(salvando ciertas distancias) Rousseau para Lamarck. Según Stratern: Era también hijo
de padres ricos que lo enviaron a Cambridge para estudiar para la Iglesia, donde
había descubierto que su verdadero interés era la ciencia. Darwin quedó impresionado
con él: Era profundamente religioso y tan ortodoxo que un día me dijo que se afligiría
si se alterara una sola palabra de los treinta y nueve artículos. Sus cualidades morales
eran admirables en todos los sentidos. / ... / En la Universidad se daban clases en
diversas ramas, siendo la asistencia absolutamente voluntaria. /... / De cualquier forma
asistía a las conferencias de botánica de Henslow /... / Estas excursiones eran
absolutamente deliciosas (Autobiografía). Darwin aprobó, a principios de Enero de
1831, su examen de bachiller con el puesto décimo de la promoción, lo que le abría el
camino para la profesión de pastor de la Iglesia Anglicana. Pero por lo pronto se
quedó dos semestres mas en Cambridge. (Hemleben, 1971). El hecho de no tener prisa
en comenzar sus actividades profesionales y su admiración por Henslow hizo posible la
clave del descubrimiento de la evolución (Stratern, 1999): el viaje alrededor del Mundo
en el Beagle. Por aquellos días le ofrecieron a Henslow el puesto de naturalista sin
sueldo a bordo del HMS Beagle / ... / Como Henslow no quería abandonar Cambridge,
le ofreció el trabajo a Darwin, que no quiso dejar pasar la ocasión / ... / Era costumbre
llevar un botánico en este tipo de viajes de exploración / ... / (hasta al médico de a
bordo se la exigía un certificado de carpintería)... Puede resultar incongruente con
nuestra historia que al “botánico de a bordo” se le exigiese un certificado de botánico,
pero lo cierto es que se le exigía. Y lo tenía. El naturalista del Beagle era un experto que
había desempeñado su cargo con distinción en otros viajes, ... El joven S. J. Gould, en
su artículo La transformación marítima de Darwin o cinco años a la mesa del capitán
(1977), nos narra un curioso descubrimiento: He aquí toda una historia; no solamente
un puntilloso pie de página para la historia académica, sino un descubrimiento de no
poca significación. El naturalista del Beagle se llamaba Robert McKormick, y la
historia resulta ser, una vez mas, muy diferente a cómo nos la han contado. Y comienza
con la carta que J.S. Henslow escribió a Darwin: El Cap. F. busca un hombre (por lo
que tengo entendido) más para compañero de viaje que como simple coleccionista. El
capitán del Beagle, Robert Fitzroy, un aristocrático marino (su tío, el vizconde de
Castlereagh, sofocó la rebelión irlandesa de 1798) cuya relación con sus subordinados,
narrada por Darwin, y los motivos de su posterior suicidio, relatados por Gould, hacen
pensar que, a su lado, el capitán William Bligh causante del (histórico) “motín de la
Bounty” era una especie de monje budista, necesitaba un compañero de viaje: La
tradición naval británica dictaba que un capitán no podía tener virtualmente ningún
contacto social con ningún miembro inferior en la escala de mando. / ... / Sólo un
caballero, podía compartir sus comidas y eso es precisamente lo que era Darwin, un
caballero.

Parece que, desgraciadamente, no hay mas remedio que suscribir la opinión de


Gould: Qué diferente sería hoy la ciencia de la biología si Darwin hubiera sido hijo de
un comerciante y no de un médico extremadamente rico. Efectivamente, Darwin se
embarcó acompañado de un criado, con una abundante suma de dinero, y con cuentas
abiertas en las principales ciudades en las que se hizo escala. La competencia de
Darwin, que podía reclutar a un considerable número de “nativos” para sus
recolecciones de “especímenes” y los desprecios del capitán exasperaron al naturalista
oficial del Beagle y las consecuencias las narra Darwin en su diario: La suerte del pobre
McKormick estaba echada. / ... / En Abril de 1832, en Río de Janeiro, fue “dado de
baja por invalidez”. Darwin comprendió el eufemismo y le escribió a su hermana,
refiriéndose a McKormick, dado de baja por “invalidez”, es decir, por resultarle
desagradable al capitán... no constituye una pérdida (Gould, 1977).

En las narraciones habituales de la epopeya del “descubrimiento de la evolución” se


narran meticulosos detalles del viaje, pero el pobre McKormick, con los sempiternos
problemas de “presupuesto oficial”, ha sido borrado de la historia en aras a la
“financiación privada”. Y esto también explica (por fin) el misterio de que, cuando el
joven biólogo, (en este remoto caso, quien esto escribe), entusiasmado tras leer en el
prólogo del primer libro de Darwin, “Viaje de un naturalista” (1972) la presentación de
éste como el factor del mayor escándalo del siglo XIX, motor de una biología,
sociología, antropología, historiología e incluso una ética a su manera, divisoria de
aguas de la ciencia decimonónica y aún de mucha de la contemporánea, y espera
conocer los, sin duda, dramáticamente intensos momentos iniciales del impresionante y
trascendental viaje, que habría de durar desde el 27 de Diciembre de 1831 hasta el 2 de
Octubre de 1836, se encuentra con el siguiente comienzo: Río de Janeiro: del 4 de Abril
al 5 de Julio de 1832.

Las ocultaciones y manipulaciones de la historia “oficial” son demasiadas como para


pensar en descuidos. Del mítico y trascendental viaje del Beagle no volvió Darwin con
ninguna idea sobre la evolución, a pesar de que, como nos cuenta en su Autobiografía,
había oído hablar de Lamarck. Su “descubrimiento” tuvo lugar ocho años mas tarde del
regreso, tras su documentación antes mencionada. Concretamente, alrededor del 11 de
Enero de 1844, aunque fuera un descubrimiento vacilante: Por fin ha surgido un rayo
de luz, y estoy casi convencido, (el subrayado es mío) (totalmente en contra de la
opinión de la que partí) de que las especies no son (es como confesar un asesinato)
inmutables. (Carta a J. Hooker en Autobiografía y cartas escogidas, pag. 273).
Tampoco sufrió, durante el famoso viaje, la transformación de que se nos habla, que le
convirtió en un lúcido científico materialista. Bien avanzado el viaje, escribía en una de
sus cartas a sus amigos: A menudo hago conjeturas acerca de lo que será de mí: si me
dejara llevar por mis deseos acabaría sin duda siendo un clérigo de aldea. (Gould,
1977). Es más: Todavía a bordo del Beagle citaba la Biblia a los oficiales del barco
como la prueba irrefutable de sus principios morales y tuvo que soportar por ello las
burlas de los marineros. (Hemleben,1971, pág 72). Su posterior, y siempre inseguro
alejamiento de la Iglesia Anglicana fue, en realidad, otra muestra de su ingenua
honestidad intelectual que le llevó a dudar de la interpretación literalista de la Biblia.
(Hemleben, 1971). Y, entonces, ocurrió un milagro: se convirtió en un genio. Pero,
¿cómo ocurría?, ¿qué mecanismo encerraba ese proceso? Darwin no había recibido
formación científica en el sentido académico, y hasta el momento no había demostrado
poseer una inteligencia excepcional. (Su celebridad se debía enteramente a haber
estado en el lugar oportuno en el momento oportuno) / ... / Pero, de pronto, a los
veintiocho años, pareció descubrir su imaginación / ... / El resultado sería un científico
genial. (Stratern,1999, pag.51). Sin embargo, la explicación de esta “reorganización
cerebral” sin precedentes (al menos hasta entonces) en la historia de la Humanidad, tal
vez resulte menos esotérica y más comprensible. Gracias a sus abundantes recursos
económicos, Darwin se pudo permitir enviar a su mentor, el reverendo Henslow, una
gran cantidad de especímenes de todo tipo, recolectados por sus asalariados. Éste,
entusiasmado, pronunció varias conferencias sobre ellos en la Geological Society de
Londres. Estas provocaron el suficiente revuelo como para hacer de Darwin una
pequeña celebridad en los círculos científicos / ... / Al llegar a Londres, Darwin
descubrió que se había convertido en una especie de celebridad / ... / Le nombraron
miembro de la Geological Society y le ascendieron casi de inmediato a su consejo
rector. Un año mas tarde fue aceptado por el Ateneo, el club para caballeros más
exclusivo de Londres, y al año siguiente le nombraron miembro de la Royal Society. El
regreso de Darwin no fue precisamente discreto. (Stratern,1999, pag. 45). El
“revolucionario” Darwin no era, ciertamente, un proscrito entre la rancia aristocracia
científica de las “exclusivas” sociedades victorianas. Y, a pesar del manido relato de la
reacción escandalizada del obispo de Oxford, también es cierto que Sir Charles Lyell y
Sir William Hooker, importantes miembros de estas sociedades, le ofrecieron todo su
apoyo para la publicación de su famosa obra, e incluso, para que obtuviera la prioridad
sobre los trabajos enviados previamente por Alfred Russell Wallace, en los que
proponía su teoría sobre la evolución basada en la selección natural. Y también lo es
que, tanto éste como Patrick Matthew, otro naturalista aficionado que también había
publicado, en 1831, (Ver Sandín, 2000) una hipótesis semejante, compartían defectos
difícilmente tolerables por los aristocráticos académicos: el primero era de ideas
socialistas, y Matthew fue miembro del “Movimiento Chartista”, que denunciaba y
combatía las duras condiciones de los trabajadores de la época.

En suma, de los datos históricos se desprende que la sorprendente “conversión” de


Darwin en el hombre genial que descubrió la selección natural, el “verdadero
mecanismo de la evolución” fue más una creación externa que propia. De hecho, él
mismo acabó por estar muy poco convencido de que esto fuera así. En su otra gran obra,
“La variación de los animales y las plantas en domesticidad”, publicada diez años
después del “Origen de las especies”, elaboró lo que consideraba su teoría definitiva, en
la que daba el paso drástico de abandonar la idea de la selección natural. De lo
sublime a lo ridículo. En su lugar propuso una teoría pergeñada por primera vez en el
siglo V a. C. por el filósofo griego Demócrito, conocida como Pangénesis. Su versión
moderna afirmaba que cada órgano y sustancia del cuerpo segregaba sus propias
partículas que luego se combinaban para formar las células reproductivas. Las
partículas segregadas por cada órgano eran un eco fiel, no sólo de las características,
sino también de la respectiva fuerza, tamaño y salud del órgano (Stratern, 1999). Es
decir, al parecer, son sus apologistas los que deciden cuales de sus ideas son las
adecuadas, incluso en contra de su opinión. Lo cual resulta un caso de mitificación
realmente peculiar (si bien, no único), porque sería algo así como reconocerle las
aportaciones que él admitía como errores y rechazar, precisamente, las que creía
válidas. Es más, muy probablemente, Darwin tampoco estaría de acuerdo con los
atributos de genialidad con que le adornan sus “correctores”: No tengo la gran presteza
de aprehensión o ingenio, tan notable en algunos hombres inteligentes, por ejemplo
Huxley. Por lo tanto soy un mal crítico: la lectura de un artículo o de un libro, suscita
en un principio mi admiración, y sólo después de una considerable reflexión me percato
de los puntos débiles. Mi capacidad para seguir una argumentación prolongada y
puramente abstracta es muy limitada y por eso nunca hubiese triunfado en metafísica ni
en matemáticas. Parece, en definitiva, que no hay mas remedio que estar de acuerdo con
Stratern en lo que respecta a su descripción de las cualidades y verdaderos méritos de
Darwin previos a su “transformación”. Y que, por mucho que sus seguidores se
empeñen en hacernos creer que ésta ocurrió, el mismo Darwin se niega tozudamente a
reconocerlo, a juzgar por la frase con que finaliza su “Autobiografía”: Con unas
facultades tan ordinarias como las que poseo, es verdaderamente sorprendente que
haya influenciado en grado considerable las creencias de los científicos respecto a
algunos puntos importantes.

Pero, la sensación de desconfianza que produce el constatar cómo se ha fabricado un


mito mediante la “creación” de una sólida teoría y una impecable y coherente biografía
no sólo inexactas, sino contrarias a las que manifiesta el propio personaje, llega al
extremo cuando nos enfrentamos con la falacia, (absolutamente manifiesta, porque se
puede comprobar en libros que se encuentran actualmente en las librerías), de negarle a
Darwin la responsabilidad del “darwinismo social”, ya que fue Herbert Spencer su
verdadero creador, antes de la publicación del “Origen de las Especies”. Esta frase,
“clonada” literalmente en los textos darwinistas, resulta muy poco favorecedora para la
credibilidad del resto de la obra porque, tanto si es resultado de una tergiversación
intencionada, como si lo es del desconocimiento, no dice mucho en favor del rigor
científico de sus autores. Porque, aún sin tener en cuenta la existencia de cartas muy
significativas (especialmente, una escrita por Darwin a Heinrich Fick, un jurista suizo
partidario de la aplicación de la teoría darwiniana a la legislación) (Sandín, 2000), cuyo
desconocimiento se podría justificar por no resultar de fácil acceso, la otra “obra
cumbre” de Darwin, “Descendencia del Hombre y la Selección en Relación al Sexo”
(1871), conocida como “El Origen del Hombre”, resulta (naturalmente, si uno se toma
la molestia de leerla) suficientemente informativa al respecto, y merece, con todos los
honores, un capítulo aparte.

4.- SOBRE “LA TENDENCIA A LA PERFECCIÓN”

Esta obra es, sin duda, la más clarificadora sobre la concepción que Darwin
tenía realmente del hecho y, especialmente, del significado de la evolución y de la
selección natural. Porque, a diferencia de “El Origen de las Especies” en el que, como
hemos visto, encontraba muchas dificultades para explicar la Naturaleza mediante sus
bases conceptuales (selección de ganados, Malthus y Spencer) , en este caso, esos
problemas (obviamente) no existen para explicar “su” sociedad humana.

Comencemos por la situación de su “observatorio” de la realidad: La presencia de un


cuerpo de hombres bien instruidos que no necesitan trabajar materialmente para ganar
el pan de cada día, es de un grado de importancia que no puede fácilmente apreciarse,
por llevar ellos sobre sí todo el trabajo intelectual superior (del) que depende
principalmente todo progreso positivo, sin hacer mención de otras no menos ventajas.
(pag. 192). Entre éstas, hay algunas no despreciables: Los ricos por derecho de
primogenitura pueden, de generación en generación, elegir las mujeres más hermosas,
las más encantadoras, dotadas por lo general de bienes materiales y de espíritu
superior. (pag. 193). Pero, este “espíritu superior” hay que considerarlo en proporción
al nivel de las mujeres, ya que, Está generalmente admitido que en la mujer las
facultades de intuición, de rápida percepción y quizá también las de imitación, son
mucho más vivas que en el hombre; mas algunas de estas facultades, al menos, son
propias y características de las razas inferiores, y por tanto corresponden a un estado
de cultura pasado y más bajo. / ... / Por consiguiente podemos inferir de la ley de la
desviación de los tipos medios – tan bien expuesta por Galton en su obra sobre “El
Genio hereditario” – que si los hombres están en decidida superioridad sobre las
mujeres en muchos aspectos, el término medio de las facultades mentales del hombre
estará por encima del de la mujer. (pag. 728).

En cuanto a las “clases inferiores”, citadas continuamente en la obra (y poco


caritativamente, por cierto), su “observatorio de la realidad” no le debía permitir mucho
contacto con ellas, ya que, en muchos casos, hablaba por referencias ajenas: Mas en
estos casos parecen ser igualmente hereditarios la aptitud mental y la conformación
corporal. Se asegura que las manos de los menestrales ingleses son ya al nacer
mayores que las de la gente elevada. (pag. 47). Sin embargo, a pesar de que ya nacen
con las “herramientas” incorporadas, es precisa una selección, como expone en el
apartado Acción de la selección natural sobre las naciones civilizadas : Existe en las
sociedades civilizadas un obstáculo importante para el incremento numérico de los
hombres de cualidades superiores, sobre cuya gravedad insisten Grey y Galton, a
saber: que los pobres y holgazanes, degradados también a veces por los vicios se casan
de ordinario a edad temprana, mientras que los jóvenes prudentes y económicos,
adornados casi siempre de otras virtudes, lo hacen tarde a fin de reunir recursos con
que sostenerse y sostener a sus hijos. / ... / Resulta así que los holgazanes, los
degradados y, con frecuencia, viciosos tienden a multiplicarse en una proporción más
rápida que los próvidos y en general virtuosos. A continuación, cita un ejemplo en el
que los irlandeses se corresponden con la primera categoría, mientras que los escoceses
están adornados de, exactamente, siete virtudes superiores, para finalizar: En la lucha
perpetua por la existencia habría prevalecido la raza inferior, y menos favorecida
sobre la superior, y no en virtud de sus buenas cualidades, sino de sus graves defectos.
Pero, también para este problema hay solución: Con respecto a las cualidades
morales, aun los pueblos más civilizados progresan siempre eliminando algunas de las
disposiciones malévolas de sus individuos. Veamos, si no, cómo la transmisión libre de
las perversas cualidades de los malhechores se impide o ejecutándolos o reduciéndolos
a la cárcel por mucho tiempo. Porque, como señala a continuación: En la cría de
animales domésticos es elemento muy importante de buenos resultados la eliminación
de aquellos individuos que, aunque sea en corto número, presenten cualidades
inferiores. (pag. 195).

Todos los argumentos del libro se pueden condensar en unas ideas básicas muy
sencillas: Las cosas son como deben ser, porque la selección (bien natural o en su caso
la del verdugo) se encarga de ello. Dado que las cualidades morales e intelectuales son
innatas, los países civilizados ha llegado a dominar el Mundo por obra y gracia de la
mayor calidad de sus ciudadanos y, naturalmente, dentro de éstos y de acuerdo con sir
Francis Galton, las clases superiores son las adornadas de las mayores virtudes. Por eso,
... sería una interminable tarea señalar los numerosos puntos de diferencia de las
razas. / ... / Sus caracteres mentales son igualmente muy distintos, sobre todo cuando se
trata de las partes emocionales, aunque mucho, asimismo, en sus facultades
intelectuales. La consecuencia de estas diferencias en un Mundo dirigido por la
implacable selección natural es inevitable: Llegará un día, por cierto, no muy distante,
que de aquí allá se cuenten por miles los años en que las razas humanas civilizadas
habrán exterminado y reemplazado a todas las salvajes por el mundo esparcidas / ... / y
entonces la laguna será aún más considerable, porque no existirán eslabones
intermedios entre la raza humana que prepondera en civilización, a saber: la raza
caucásica y una especie de mono inferior, por ejemplo, el papión; en tanto que en la
actualidad la laguna sólo existe entre el negro y el gorila. (pag. 225). Y, en este caso, sí
contaba con datos objetivos para reforzar sus argumentos. Cuando las naciones
civilizadas entran en contacto con las bárbaras, la lucha es corta, excepto allí donde el
clima mortal ayuda y favorece a los nativos. / ... / Cuando se comenzó a colonizar
Tasmania, estimaban algunos el número de sus habitantes en 7.000 y otros en 20.000.
Este número disminuyó considerablemente a causa, sobre todo, de las luchas con los
ingleses y consigo mismos. Después de la famosa cacería emprendida por todos los
colonizadores en que se sometieron los residuos que quedaban de la antigua población
indígena, su número no era más que 120 individuos, los cuales en 1832 fueron
deportados a la isla Flinders. (En 1864 quedaba un hombre, que murió en 1869, y tres
mujeres. La última tasmana murió a finales del siglo XIX). A la vista de “procesos
naturales” como éste, se entienden perfectamente Los notables resultados que los
ingleses han obtenido siempre como colonizadores, comparados con los de otras
naciones de Europa / ... / Es en apariencia muy verdadera la opinión de los que
entienden proceder el admirable progreso de Estados Unidos, como también el
carácter del pueblo, de la selección natural. (pag. 201)

En suma, el libro, (que, por cierto, sería muy de agradecer que fuera leído por los
darwinistas), que no estaba concebido por Darwin, ni mucho menos, como una obra
secundaria, sino como la culminación necesaria del “Orígen de las Especies ....”, no
cuenta con mayores virtudes científicas y literarias que éste porque, además de las
abundantes argumentaciones del tipo de las citadas, cuya calificación benévola podría
ser de “políticamente incorrectas”, contiene muchas otras referidas, por ejemplo, a las
clases entregadas a la destemplanza, al libertinaje y al crimen, o al matrimonio y la
reproducción que no se pueden calificar de otro modo que de absolutamente ridículas.
No me puedo resistir a mencionar una muestra final: En suma, concluimos como el
doctor Farr, en que la menor mortalidad de los casados, relativamente a la de los
solteros, ley que parece ser general, se debe principalmente a la eliminación constante
de los tipos imperfectos y a la hábil selección de los individuos más hermosos que en
cada generación se verifica, por no haber selección mas que cuando se trata de
matrimonio, y ser tan grande su influjo sobre las cualidades corporales, intelectuales y
morales. De lo cual podemos inferir que los hombres sanos y buenos no se hallarán
sujetos a mayor mortalidad si sólo por prudencia permanecen sin casarse algún tiempo.

Del candor (que mejor se podría calificar de simpleza) y del rancio puritanismo
victoriano que se refleja en sus escritos no se desprende la mas mínima intención de
manipular o distorsionar los hechos (entre otros motivos, porque, como él mismo
reconoce, carecía en absoluto de las capacidades necesarias). Se trata, sencillamente, de
una concepción del Mundo característica del sector social del que procedía y en el que
se relacionaba, (y no “un producto de su época”, como se suele justificar, porque en la
misma época y en el mismo país existían visiones muy diferentes de la realidad, como,
sin ir mas lejos, las de Wallace o Matthew). Una clase social que se caracterizaba por
unos valores profundamente enraizados en la tradición calvinista, (otra revolución
burguesa), según la cual ciertas personas están predestinadas por Dios a la salvación y
otras a la condenación. Pero, eso sí, el creyente, aunque desconoce su destino, puede
demostrar que es un “elegido de Dios” con los éxitos que alcance en su vida privada.
Esta curiosa “fe” que, por otra parte, fue la que alumbró la teoría de Adam Smith,
desvela una envidiable capacidad de amoldar toda una cosmovisión a los intereses de
una clase social concreta, de modo que, mediante unos convenientes e inevitables
designios, un Dios tan complaciente con los ricos como implacable con los pobres, la
mano invisible del mercado y la poderosa y ciega selección natural favorecen,
curiosamente, a los mismos, otorgándoles, de una tacada y por los mismos méritos (que
se pueden sintetizar en “ir a lo suyo”), la salvación, la riqueza y el éxito biológico.

Y estos principios no pertenecen al campo de las anécdotas históricas, porque son los
que conforman, en la actualidad, el llamado "pensamiento único", la base ideológica de
las sociedades “avanzadas”. Su intelectualización en forma de “leyes científicas” y su
carácter eminentemente práctico (especialmente para los “más adecuados”) los ha
expandido y consolidado, de forma que, de ser, en su origen, una justificación del statu
quo con mayor o menor dosis de hipocresía o de simpleza, han pasado a convertirse en
una firme creencia de cómo es (y cómo debe ser) la realidad, y muchos de los
argumentos no sólo de Darwin, sino de Smith, Malthus y Spencer permanecen, además
de en las “leyes” de la economía de libre mercado, en los textos en los que los
científicos darwinistas nos explican su visión de la Naturaleza y de la Sociedad en
forma de metáforas y “leyes” científicas.

5.- EL DARWINISMO “MODERNO”

Resulta verdaderamente difícil definir qué es hoy el Darwinismo (el neodarwinismo,


para ser exactos), lo cual es un serio problema, porque se trata de “la” teoría de la
evolución, la base teórica de la Biología que permitiría explicar (pero sobre todo
comprender) todos los fenómenos biológicos y muchas de las grandes cuestiones
candentes actuales, desde los graves problemas ambientales, hasta el posible futuro de
los ecosistemas (especialmente el humano), desde el SIDA hasta el cáncer (ver Sandín,
97). Pero lo cierto es que, a pesar de que en los últimos 25 años se han producido
descubrimientos espectaculares en el campo de los conocimientos biológicos (o tal vez,
precisamente por ello), nos encontramos con una gama tan variada y, a veces tan
contradictoria, de concepciones y explicaciones de los procesos evolutivos que la base
teórica, más que en confusa, se ha convertido en inexistente.

La teoría “oficial” que sigue figurando en los libros de texto, a pesar de estar
totalmente descalificada por los datos recientes es la llamada “Teoría sintética
moderna”. El término “moderna” hace referencia a la época en que fue elaborada, desde
los años veinte a los cincuenta, fundamentalmente por matemáticos (Wrigth, Fisher y
Haldane) que tenían muy pocos conocimientos de genética cuando incluso los genetistas
tenían muy pocos conocimientos de genética. La idea de evolución (de cambio en la
organización morfológica, fisiológica y genética) se resume así de sencillamente: La
visión de Darwin sobre la selección natural se puede incorporar fácilmente a la visión
genética de que la evolución se produce típicamente a partir de cambios en las
frecuencias génicas. (Boyd y Silk, 2001).

La “visión genética” a la que se refieren es la simplificación mendeliana que explica


(solo en ciertas ocasiones) la transmisión de características superficiales (en su mayor
parte “defectos”), como las famosas características de la piel de los guisantes, o el pelo
de los ratones, que no afectan en absoluto a la condición de guisantes o ratones, pero
que, sobre todo, ha conducido a la concepción de que existe “un gen” responsable
directo de cada carácter, ya sea fisiológico, anatómico o, incluso, de comportamiento, y
que todavía subyace en las interpretaciones de muchos teóricos de la evolución. Lo
cierto es que, después de medio siglo desde que se formuló (difusamente) la Teoría
Sintética Moderna, los dos ejemplos clásicos que figuran en los libros de texto como
explicación de la evolución según sus criterios ( es decir, mediante la selección natural)
son la resistencia a la malaria de los heterocigotos para “el gen” de la anemia falciforme
y el cambio de coloración de las famosas “polillas del abedul”. El hecho de que los
individuos resistentes a la malaria, y las polillas oscuras, teóricamente supervivientes a
los pájaros gracias a su ocultación en el hollín contaminante, sigan siendo los mismos
hombres y las mismas polillas existentes antes de la “actuación” da la selección natural,
no les invalida como ejemplo de evolución. La idea de evolución implícita (es más,
firmemente asumida) en estos argumentos es que las mutaciones (errores de copia del
ADN en su replicación) producen, al azar, variantes de un gen (alelos diferentes) que
producen pequeñas variaciones como las anteriormente mencionadas que, “con el
tiempo” llegarían a convertirse en los grandes cambios de organización genómica,
fenotípica y anatómica que se han producido en los seres vivos. Según F. J. Ayala
(1999), la evolución se produce mediante cambios en la composición genética de una
especie, como si los genes fueran unas entidades individuales, cada una responsable de
un carácter que se situarían, a modo de cuentas de un collar, en los cromosomas.

Sin embargo, hace tiempo que esta visión de los genomas está totalmente invalidada.
Hoy sabemos que lo que llamamos “genes” (donde se localiza la información sobre
cómo se hace y cómo funciona un organismo vivo), es algo mucho más complejo que
un segmento concreto de ADN, pues puede haber genes repetidos en trozos dispersos
por el genoma, hay genes con otros genes dentro, los hay enormes, formados por
millones de pares de bases, y muy pequeños, formados por unos pocos miles (ver
Sandín 2001). Pero, sobre todo, lo que más ha cambiado de la visión extremadamente
simple y, especialmente, determinista, de la teoría sintética y que, desgraciadamente, ha
pasado a formar parte de los tópicos populares es la idea de que “un gen” tiene un
significado único y concreto. En la época en que se elaboró la Teoría Sintética se
hablaba de “un gen - un carácter”. Posteriormente, se pasó a asociar un gen con una
proteína y, finalmente se ha comprobado que la información genética es algo de una
complejidad difícil de abarcar. En primer lugar, el ADN en sí mismo no es ni
autorreplicable ni de único significado. Es algo así como un diccionario, que necesita de
una gramática, incluso de un idioma que dé sentido (y contexto) a la información que
contiene. En el primer aspecto, para la replicación del ADN son necesarias un buen
número de complejísimas y muy específicas proteínas que separan la doble cadena,
inducen la replicación, revisan, corrigen los errores, los reparan y unen los trozos
reparados. En cuanto a los mensajes codificados en el ADN, el “significado” de una
secuencia concreta de bases, varía según su situación en el genoma, de la regulación por
parte de otros genes y del tipo de organismo en el que esté. Por ejemplo, el gen llamado
GAI codifica en plantas una proteína que frena su crecimiento, excepto en presencia del
ácido giberélico (una especie de hormona vegetal). Se ha visto (Peng, et al., 1999; Boss
y Thomas, 2002), que una mutación de este gen tiene distintas consecuencias en plantas
diferentes: en Arabidopsis (una planta silvestre muy común) este gen o su mutante
pueden producir hojas o flores; en vides, uvas o zarcillos, y en trigo, tallo largo o corto.

Pero la plasticidad del ADN puede ir aún más lejos. Muchos genes tienen la
capacidad de lo que se conoce como “splicing” (empalme o ligamiento) alternativo
(Herbert y Rich, 1999), es decir, de producir diferentes mensajes (diferentes proteínas)
en función de las condiciones del ambiente celular (que, a su vez, depende del ambiente
externo), lo que en definitiva significa que el ADN posee la capacidad de respuesta al
ambiente. Y esta capacidad de respuesta va aún más lejos si tenemos en cuenta los
descubrimientos derivados de la secuenciación (parcial) del genoma humano (The
Genome Sequencing Consortium, 2001). El 95% de nuestro genoma está constituido a
partir de elementos móviles y virus endógenos (Sandín, 2002). Los primeros pueden
estar de dos formas: transposones, que son “trozos” de ADN que pueden saltar de unas
partes a otras de los cromosoma, y retrotransposones, que pueden realizan (mediante
las proteínas correspondientes) copias de sí mismos que se insertan en otra zona del
genoma, produciéndose duplicaciones de sus secuencias. Ambos se activan como
reacción a agresiones ambientales (Whitelaw y Martin, 2001, ). En cuanto a los virus
endógenos, que constituyen, por el momento, el 10% del genoma, se considera que su
presencia obedece a que, en algún momento de la historia evolutiva “infectaron” al
“hospedador” y se insertaron en el genoma, donde permanecen como “parásitos”. Lo
cierto es que sus secuencias participan activamente en procesos celulares normales de
distintos órganos, como: cerebro, pulmón, corazón… (Genome directory, 2001). Y
también tienen capacidad de respuesta al ambiente, “malignizándose” ante agresiones
ambientales (Gaunt y Tracy, 1995) e incluso reconstruyendo su cápsida y recuperando
su capacidad infectiva (Ter-Grigorov et al., 1997).

Por si todos estos datos sobre la enorme complejidad del material genético no fueran
suficientes para mostrarnos lo mucho que todavía nos queda por conocer, los estudios
sobre el proteoma (el conjunto de proteínas celulares que participan en todos sus
procesos) están poniendo de manifiesto fenómenos que, según sus investigadores
(Gavin, et al., 2002; Ho et al., 2002) desafían la imaginación: los miles de complejas
proteínas que interactúan en las células se asocian en grupos de, al menos, 96 proteínas.
Cada combinación determina, al parecer, sus estructuras y funciones características.
Según los autores La célula está organizada en una forma para la que no estamos
preparados.

En suma, los procesos biológicos, incluso al nivel más básico, están resultando tan
diferentes de la visión reduccionista del darwinismo que todavía figura en los libros de
texto, que la conclusión lógica es la que planteó Phillip Ball (2001), uno de los
editorialistas de la revista Nature, ante el informe de la secuenciación del genoma
humano: Nos encontramos sin base teórica para explicar esta complejidad. En otras
palabras, la que tenemos es inútil. Porque, desde luego, todo esto implica que la
evolución de la vida, no ha podido ser, según la narración darwinista, mediante
mutaciones, es decir, “errores” o desorganizaciones al azar, productoras de variantes de
un mismo gen, con pequeñas consecuencias en el fenotipo, que serían “fijadas” por la
selección natural en el caso de ser “mejores” que sus otras variantes, produciendo como
consecuencia una evolución gradual.

Y, efectivamente, los datos nos informan de que la historia no ha sido así. Desde el
origen de las células que constituyen los seres vivos que, como ha sido comprobado por
W.F. Doolittle (2000), Lynn Margulis (1995) y R. Gupta (2000), se ha producido por
agregaciones de bacterias, hasta las bruscas remodelaciones de fauna y flora que inician
los grandes periodos geológicos ( Moreno, 2002) y que coinciden con grandes
catástrofes ambientales perfectamente documentadas en la actualidad, (Kemp, 1999),
pasando por la todavía, misteriosa para los científicos, “explosión del Cámbrico”
(Morris, 2000), en la que aparecieron, de un modo repentino, todos los tipos generales
de organización animal (ver Sandín 2002), constituyen un relato más acorde con las
características reales de los fenómenos naturales. Desde la naturaleza de la información
genética hasta el todavía indescifrable funcionamiento celular, desde las sofisticadas e
interdependientes actividades de los procesos fisiológicos, hasta la coordinación en la
formación de un organismo, o la complejidad de los ecosistemas, la Naturaleza nos
habla, fundamentalmente, de cooperación. De sistemas biológicos de una enorme
complejidad en los que no hay sitio para los “errores”, pero, sobre todo, de una gran
interacción con el ambiente y una gran capacidad de respuesta, con poco de aleatorio, a
las condiciones o agresiones ambientales. Una realidad totalmente opuesta a la visión de
las características genéticas rígidamente determinadas y herméticamente aisladas del
ambiente, en las que los supuestos cambios aleatorios serían seleccionados por medio de
una implacable competencia.

Sin embargo, los términos y los conceptos, incluso el modo de razonar darwinista,
aparentemente “grabados a fuego” en el cerebro durante nuestra formación como
biólogos, impiden dar a estos hechos el significado que tienen. Sólo a modo de ejemplo
de los sistemáticos y tópicos argumentos, a veces realmente peregrinos, que se utilizan
para embutir los nuevos datos en el paradigma darwinista, vamos a hacer referencia a
algunas interpretaciones sobre los fenómenos fundamentales de los procesos evolutivos
que se producen continuamente en las revistas especializadas en referencia a cualquier
fenómeno investigado, incluido el nivel molecular.

Radhey Gupta, de la Universidad Macmaster de Canadá, ha conseguido identificar de


qué tipo de bacterias proviene el material genético (ADN y proteínas) de nuestras
células: los genes y las proteínas que controlan la replicación del ADN provienen de
arqueobacterias; los que controlan el metabolismo celular, de eubacterias. Sin embargo,
para él, este hecho fundamental en la evolución de la vida y que indica hasta qué punto
son importantes en ella los fenómenos de cooperación y de integración de sistemas, en
sí mismos complejos, de “cómo tienen que ser” para conseguir los increíbles niveles de
complejidad e interconexión que se encuentran en los más mínimos procesos
biológicos, es el resultado de un fenómeno ocasional aleatorio y único ( a pesar de la
increíble eficacia de su resultado) y considera que “los siguientes” fenómenos
evolutivos tuvieron lugar por medio de la selección natural (Gupta, 2001).

Pero los “siguientes procesos evolutivos” también resultan, para los especialistas que
los estudian, fenómenos excepcionales. La llamada “explosión del Cámbrico” en la que
aparecieron, en un período máximo de cinco millones de años ( Gª Bellido, 1999) todos
los grandes tipos de organización animal existentes en la actualidad (anélidos,
artrópodos, moluscos,... e incluso vertebrados), tuvo lugar en un medio marino muy
estable y a partir de antecesores muy sencillos. Antonio García Bellido, sin duda, el
científico español de mayor prestigio internacional, ha denominado “sintagma” al
conjunto de genes/proteínas responsable de la regulación embrionaria de la
diferenciación de distintos tejidos y órganos (que constituyen los llamados homeoboxes)
y que, forzosamente, tuvieron que aparecer en aquel período. Se ha podido comprobar,
por ejemplo, que los homeoboxes que coordinan la aparición de las alas de los
mamíferos, aves e insectos están formados por las mismas secuencias de ADN. Sólo se
diferencian en el número de duplicaciones. Y lo mismo ocurre para los ojos,
extremidades, tubo digestivo... También se ha podido comprobar (Morata, 2000) que
“transplantando”los genes que controlan el ojo de ratón, y "activándolos" en diversos
puntos del embrión de la mosca del vinagre, se formaban ojos de mosca (que para
colmo, son ojos compuestos, muy diferentes a los de mamífero). Una vez más, la misma
secuencia genética en un medio celular diferente, se expresa de modo distinto. Según
García Bellido sintagmas completos, en un número creciente de casos, están
conservados desde el origen. Es decir, que la evolución de los organismos y las
estructuras biológicas no ha sido, ni mucho menos, mediante “mutaciones” aleatorias
fijadas por la selección natural. De hecho, García Bellido lo expresa claramente: Las
mutaciones clásicas en los genes que codifican para proteínas han debido ser de escasa
relevancia para la evolución morfológica ( García Bellido, 1999). Sin embargo, no
podemos olvidarnos de la reverencia al darwinismo: Así se inició una competición
morfológica y de comportamiento entre organismos, elaboraciones que han continuado
y diversificado (sic) desde entonces.

Como se puede ver, aunque los descubrimientos “reales”, los datos, nos indican que
la competencia y la selección no han podido tener nada que ver en la formación de estos
sistemas “conservados desde el origen” tiene que existir, forzosamente, una
competencia que suponemos que fue “después”.

Y la competencia se busca donde haga falta. En la sutil proliferación embrionaria de


las células que forman las alas de la mosca Drosophyla existe, al parecer, un proceso
llamado “competición celular”, que “elimina” las células que proliferan lentamente
(Moreno et al., 2002) (y se supone que las alas son consecuencia de esta competición).
Incluso el centrómero, un orgánulo celular que contiene ADN formado por “secuencias
repetidas en tándem” y que es el responsable de la separación exacta de las dos hebras
de los cromosomas en la división celular no es, en realidad, una muestra más de eficacia
y coordinación de los procesos celulares, sino “ADN egoísta” (Menikoff y Malik, 2002)
y “la competición darwiniana entre centrómeros oponentes aporta un mecanismo
molecular general para la evolución del centrómero...”.

En suma, visto desde una “mentalidad biológica exterior al paradigma” resulta una
desalentadora sensación de que el “adiestramiento” (Feyerhabend,1989) en el modo de
ver darwinista, impide la compresión de lo que tenemos delante de los ojos. Y no parece
que este problema tenga fácil solución. No sólo es una visión reforzada por el modelo
social del “libre mercado” y la “libre competencia” que se ha impuesto en todos los
ámbitos de la vida en la llamada “civilización occidental”, sino que ya ha sido
“científicamente demostrado” nada menos que mediante programas de ordenador.
Leamos: Los organismos digitales, esencialmente programas de ordenador que
obedecen las leyes de mutación y selección natural, pueden ser usados para investigar
las relaciones entre los procesos básicos de evolución (Wilkie et al., 2001). Es decir, si
se programa una secuencia para que “obedezca” las “leyes” de la mutación y la
selección natural, las obedecerá. Pero difícilmente se podrá programar el
funcionamiento de una simple célula con sus cientos de miles de moléculas
interactuando y contribuyendo a su funcionamiento. Sencillamente, porque actualmente,
lo desconocemos.

La consecuencia de todo esto es una Biología con una gran cantidad de


informaciones inconexas sin una base teórica capaz de unificarlas y dar sentido
científico a estos conocimientos. Simplemente, se mantienen las interpretaciones
basadas en la competición. Y mientras en las universidades se enseña la evolución como
“un cambio gradual en las frecuencias génicas”, en sus propios laboratorios se observa
que los procesos implicados en la evolución morfológica nos dicen exactamente lo
contrario. Pero el darwinismo subsiste, en forma de auténtica creencia, en muchos casos
con carácter integrista, en la que el azar y la competencia son los dogmas intocables.
Pero además, son “conceptos científicos”: Entre la ordalía de opiniones personales en
que se ha convertido la base teórica de la Biología, se pueden leer sentencias como esta,
aportada por Lynn Margulis, una de los principales contribuyentes a la teoría del
“origen endosimbionte” de las células eucariotas: La variación en la evolución no viene
de la selección natural / .../ Estamos de acuerdo con Darwin en casi todo, excepto en de
donde vienen las variaciones; pero no estamos de acuerdo con sus seguidores, que han
corrompido la teoría (?) / ... / la cooperación y la colaboración (derivación lógica de
sus descubrimientos) son términos sociales (El País, 12-5-2002). Es decir, son
inutilizables y desechables frente a los términos “competencia” y “más apto” (más
adecuado) que son conceptos realmente “científicos”. Porque éste es el más grave daño
que ha provocado el darwinismo: el convertir unos prejuicios culturales en conceptos
científicos. Y el daño de esta visión deformada de la realidad no se ha limitado al
ámbito científico.

6.- EL PENSAMIENTO DARWINISTA: TEORÍA Y PRÁCTICA

El darwinismo parece haber vuelto a sus raíces de justificación teórica del “statu
quo” social, aunque, en realidad, nunca se alejó mucho. A lo largo de los últimos 150
años, el vocabulario de la Biología sólo se ha diferenciado del lenguaje de la economía
de mercado en los sujetos (banquero, empresa o bolsa, por individuo, especie o
ecosistema, por ejemplo), porque los procesos y las reglas (“leyes”) que los rigen son
prácticamente indistinguibles: las estrategias adaptativas, el coste-beneficio, la
explotación de recursos, la competitividad, la eficacia de un comportamiento, o su
rentabilidad, incluso las carreras armamentísticas (y muchos otros) se han llevado hasta
los más recónditos procesos bioquímicos. De hecho, incluso en las secciones de
periódicos relacionadas con la economía se puede leer: El mejor libro de negocios que
se ha escrito es “El Origen de las Especies”...(“Digital Darwinism” en el País
Negocios). Porque, en lo más profundo del Darwinismo, con sus inamovibles
principios, lo que subyace en realidad no es el intento de estudiar o comprender la
Naturaleza, sino el espíritu que guiaba las argumentaciones de Malthus, Spencer y el
mismo Darwin: la justificación de las diferencias sociales y entre países colonizadores y
colonizados (o “civilizados” y “atrasados”). Y esto explica la magnífica acogida de los
libros “científicos” encaminados en esta dirección, su gran difusión y el gran prestigio
que adquieren sus autores. Por ejemplo, uno de los mayores éxitos editoriales de un
libro que, supuestamente, era estrictamente científico fue el de “Sociobiología: La
Nueva Síntesis” del entomólogo estadounidense E.O. Wilson. Cuando se publicó por
primera vez, en 1975, el despliegue de medios de comunicación fue impresionante: se le
concedieron entrevistas en distintas cadenas de televisión y en revistas entre las que
figuraban “People”, “The New York Times Sunday Magazine”, e incluso “House and
Garden”. La tesis fundamental que mantiene Wilson es que el comportamiento social
humano es sólo un ejemplo especial de categorías más generales de comportamiento y
organización social del Reino animal. En consecuencia, tanto los comportamientos
individuales, como los de grupo, (léase pueblos o “razas”), han evolucionado como
resultado de la selección natural. Entre las características humanas resultantes del
proceso de selección natural figuran, según él, la agresividad, la competición, la división
del trabajo, el núcleo familiar, el individualismo y la defensa del territorio nacional. Si
tenemos en cuenta cual es el país que sobresale en estas virtudes sobre cualquier otro
del planeta, no parece necesario un análisis en profundidad de estos argumentos
“científicos”.

Pero, sin duda, el caso más nefasto por lo profundamente que ha calado en el ámbito
científico es el protagonizado por el zoólogo inglés Richard Dawkins. Como él mismo
escribe en el prefacio a una de sus múltiples reediciones (en este caso a la de 1989): En
la decena de años trascurridos desde la publicación de “El gen egoísta”, su mensaje
central se ha transformado en ortodoxia en los libros de texto. / ... / La teoría del gen
egoísta es la teoría de Darwin, expresada de una manera que Darwin no eligió pero
que me gustaría pensar que él habría aprobado y le habría encantado. La tesis central
de “El Gen Egoísta: las bases biológicas de nuestra conducta” es que los seres vivos
somos, simplemente, “máquinas de supervivencia” construidas por los genes que son la
“unidad de evolución”, y que compiten por alcanzar la supremacía sobre los otros
genes. Según Dawkins Toda máquina de supervivencia es para otra máquina de
supervivencia un obstáculo que vencer o una fuente que explotar. Su “entrañable”
visión de la vida la resume así: .. pienso que la naturaleza en estado puro, la naturaleza
“roja en uñas y dientes”, resume admirablemente nuestra compresión moderna de la
selección natural.
El problema de su visión es que sus bases científicas son inexistentes. Rizando el rizo
del darwinismo original, cuyas bases conceptuales eran claramente las creencias o la
visión de la vida de una clase social concreta, y los procesos evolutivos eran explicados
mediante la simplista extrapolación de las actividades de los ganaderos y horticultores,
pero que, al menos, eran hechos existentes, en este caso, los fenómenos biológicos que
invoca son una absoluta invención. Comenzando por su “definición” del protagonista
activo de su historia, “el gen”, nos encontramos con una tautología y una simplificación
no ya absolutamente descalificada por los datos actuales, sino absurda en el momento en
que la formuló: Un gen se define como una porción de material cromosómico que,
potencialmente, permanece durante infinitas generaciones para servir como una unidad
de selección natural. Desde su punto de vista, un automóvil de competición podría
definirse como “una porción de material metálico que potencialmente dura lo suficiente
para servir como una unidad de competición en un circuito”. En cuanto al origen y las
características del material cromosómico, el “ADN egoísta”, no son menos fantasiosos:
En algún punto, una molécula especialmente notable se formó por accidente. La
denominaremos el replicador. No tuvo que ser, necesariamente, la más grande o la más
compleja de todas las moléculas, pero tenía la extraordinaria propiedad de poder crear
copias de sí misma / ... / tan pronto como nació el replicador, sin duda esparció
rápidamente sus copias a través de los mares hasta que las moléculas mas pequeñas,
cuya función era la de ser componentes, se convirtieron en un recurso escaso y otras
moléculas mas grandes no pudieron formarse sino muy rara vez /... / Pero cuando los
replicadores llegaron a ser numerosos , estos componentes debieron de ser utilizados
en una proporción tan elevada que se convirtieron en un recurso escaso y precioso. Las
diferentes variedades o especies de replicadores debieron de competir por ellos. / ... /
Hubo una lucha por la existencia entre las distintas variedades de replicadores / ... /
Los replicadores que sobrevivieron fueron aquellos que crearon máquinas de
supervivencia para vivir en ellas. Las primeras máquinas de supervivencia consistían,
probablemente, nada más que en una capa protectora. Pero ganarse la vida se hizo
cada vez más duro a medida que surgían nuevos rivales con mejores y más efectivas
máquinas de supervivencia.

Además de que, como hemos visto, no existen en la Naturaleza “moléculas


autorreplicantes”, los argumentos de su “explicación” de cómo apareció la vida no son
mucho más científicos: sin duda esparció..., una molécula especialmente notable..., por
accidente..., probablemente...

En definitiva, da la impresión de que las especulaciones de Dawkins no reflejan un


intento de comprensión muy profunda de los fenómenos naturales. Porque no existen en
la Naturaleza estos entes autorreplicantes y competitivos, pero lo que sí existen son
personas (claramente, una de ellas R. Dawkins) que tienen una concepción muy clara de
cómo es realmente la sociedad humana y cual es el verdadero mensaje de su obra: El
planteamiento de este libro es que nosotros, al igual que todos los demás animales,
somos máquinas creadas por nuestros genes. De la misma manera que los prósperos
gangsters de Chicago, nuestros genes han sobrevivido, en algunos casos durante
millones de años, en un mundo altamente competitivo. Esto nos autoriza a suponer
ciertas cualidades en nuestros genes . Argumentaré que una cualidad predominante que
podemos esperar que se encuentre en un gen próspero será el egoísmo despiadado.
Esta cualidad egoísta en el gen dará, normalmente, origen al egoísmo en el
comportamiento humano. Sin embargo, como podremos apreciar, hay circunstancias
especiales en las cuales los genes pueden alcanzar mejor sus objetivos egoístas
fomentando una forma limitada de altruismo al nivel de los animales individuales.
“Especiales” y “limitadas” son palabras importantes en la última frase. Por mucho
que deseemos creer de otra manera, el amor universal y el bienestar de las especies
consideradas en su conjunto son conceptos que, simplemente, carecen de sentido en
cuanto a la evolución.

La consecuencia, realmente dramática, del enorme éxito editorial de Dawkins, es que


sus argumentos se valoran, muy especialmente por los jóvenes biólogos, convencidos de
la “objetividad” de la ciencia, como conceptos científicos descarnados y sin
concesiones a la sensiblería ni a valores morales. Y, dentro de esta ingenua concepción,
Dawkins les resulta muy convincente cuando afirma: No estoy defendiendo una
moralidad basada en la evolución. Estoy diciendo cómo han evolucionado las cosas. Y
su seguridad de la posesión de la verdad, le permite pontificar sobre el más complejo y
más antidarwinista de los fenómenos naturales: la evolución cultural. Su invento más
peregrino: los memes, son los nuevos replicadores y unidades de transmisión cultural,
que evolucionan por selección natural, al ser transmitidos con errores: Cuando
aseguramos que hoy en día todos los biólogos creen en la teoría de Darwin, no
queremos decir con ello que todos los biólogos tienen, grabada en sus cerebros, una
copia idéntica de las palabras exactas del propio Charles Darwin. Cada individuo tiene
su propia forma de interpretar las ideas de Darwin. Probablemente las aprendió
basándose no en los propios escritos de Darwin, sino en otros autores más recientes
(esto último parece una pequeña traición del subconsciente). Al parecer existen memes
para todas las actividades y comportamientos humanos; para la música, las creencias, la
forma de vestir: Por la imitación, considerada en su sentido más amplio es como los
memes pueden crear copias de sí mismos. Por ejemplo, El meme para el celibato es
transmitido por los sacerdotes a los muchachos jóvenes que aún no han decidido lo que
van a hacer en su vida.

El éxito de estos despropósitos ha llevado a la creación de toda una disciplina


científica que se denomina “Teoría General de los Memes”. El problema surge a la
hora de buscar una denominación para sus “especialistas”.

Sin embargo, a pesar de lo absurdas que resultan estas argumentaciones para


cualquier persona, no ya con conocimientos históricos, etnográficos o sociológicos, sino
con un mínimo nivel cultural y la capacidad de hacer uso de un elemental sentido
común, el auge que han obtenido entre los darwinistas más radicales (que, sin exagerar,
se pueden considerar los dominantes en la Biología actual) ha sido creciente desde la
primera edición, en 1976, del “Gen egoísta”: “Culture and Evolutionary Process”
(Boyd y Richardson, 1985), “Darwin machines and the Nature of Knowledge” (Plotkin,
1993), “Darwin dangerous Idea” (Dennett, 1995), y muy especialmente,
“Darwininizing Culture: The story of Memetics as a Science” (Anger, 2001) se están
constituyendo en la “base científica” de la justificación de la actual situación política y
económica mundial.

Naturalmente, este proceso viene acompañado de un apoyo “oficial” mediático


inversamente proporcional al que suscitan las actitudes críticas con este fenómeno. Por
ejemplo, Michael Ruse, el más prestigioso, promocionado y leído historiador de “la”
Biología evolutiva, (según él), pero más exactamente del darwinismo, extiende las
críticas que, desde las ciencias sociales se hacen a estas extrapolaciones dogmáticas del
darwinismo, a críticas a “la” evolución como hecho, y en su publicitado libro “El
misterio de los misterios: ¿es la evolución una construcción social?”, lanza furibundos
ataques a los catedráticos y rectores de las facultades de humanidades y ciencias
sociales acusándoles de una oposición a la ciencia basado en el prejuicio, el miedo y,
sobre todo, en una absoluta ignorancia. Este desprecio por los “ignorantes” se justifica
cuando, entre la brillante panoplia de ejemplos de documentación objetiva que
encontramos en su libro (muy divertida la consagración del abuelo de Darwin como el
verdadero científico “precursor“ del evolucionismo), inicia el apartado de “La ciencia
de Darwin” con estas palabras: Darwin empezó su carrera científica como geólogo...

Los guardianes oficiales del darwinismo son tan implacables con cualquier actitud no
ya crítica, sino dudosa, entre los biólogos, como elogiosos con los más dogmáticos (o
“integristas”). En “El fin de la ciencia” (1998) John Horgan, redactor de la revista
“Scientific American”, sostiene la tesis de que la investigación en Biología está
llegando a su fin, precisamente por el éxito de la teoría darwinista de la que afirma que
No solo es bella, sino, además, verdadera. Según Gunter Stent, presidente del
departamento de neurobiología de la Academia Nacional de Ciencias de Estados
Unidos, entrevistado en su libro: Los biólogos, sólo tenían tres cuestiones de gran
calado que explorar; a saber, cómo empezó la vida, cómo una única célula fertilizada
se desarrolla hasta convertirse en un organismo multicelular y cómo el sistema
nervioso central procesa la información. ( Es decir, sólo quedan “minucias” por
conocer). Cuando se alcancen estas metas, decía Stent, la tarea fundamental de la
Biología, de la Biología pura, habrá concluido. / .../ La biología evolutiva, en
particular, había concluido con la publicación, por parte de Charles Darwin, de El
origen de las especies.

Y, a los poseedores de “la verdad” lo que más les irrita no son las otras posibles
verdades, que no merecen ni un segundo de su consideración, sino las dudas razonadas
sobre la propia. Así es como Horgan trata en su libro al recientemente fallecido S. J.
Gould, el más brillante (y crítico, dentro de la ortodoxia) teórico evolucionista de los
últimos años autor, junto con Niles Eldredge, de la “Teoría del equilibrio puntuado”:
La gran pesadilla de Gould es su falta de originalidad. Darwin vaticinó el concepto
básico del equilibrio puntuado en “Sobre el origen de las especies”... (Aquí conviene
señalar que, como hemos visto, en el libro de Darwin se pueden encontrar
especulaciones tan variadas, confusas y contradictorias, que los darwinistas pueden
encontrar antecedentes para cualquier versión de la evolución). Pero su falta de
originalidad tiene una explicación: La clave para entender a Gould puede que no sea su
supuesto marxismo, o liberalismo, o antiautoritarismo, sino su miedo al potencial punto
final de su campo de investigación. La aversión por los científicos con espíritu crítico
llega a extremos realmente esperpénticos: Gould desarma a cualquiera con su aspecto
ordinario: bajito y regordete, de cara rechoncha, nariz chata y pequeña y bigote a lo
Charlot, especialmente, si comparamos esta descripción con la del abanderado de “la
Naturaleza roja en dientes y garras”: La primera vez que vi a Dawkins fue con motivo de
un encuentro organizado por su agente literario en Manhattan. Es un hombre de una
belleza glacial, ojos de ave rapaz, nariz puntiaguda y mejillas incongruentemente
sonrosadas. Llevaba lo que me pareció un traje caro, hecho a medida. Cuando extendía
sus manos surcadas de venas para rematar una idea, éstas temblaban ligeramente. Era
el temblor, no de un hombre nervioso, sino de un competidor perfectamente adiestrado
– y con espíritu ganador – para la guerra de las ideas: del galgo de Darwin. No será
necesario aclarar que para Horgan Dawkins se expresa con absoluta claridad, tanta que
no deja espacio alguno para el misterio, el significado, la finalidad ni para las grandes
revelaciones científicas, fuera de las que Darwin nos hizo.

La sensación de opresión dogmática y de práctica imposibilidad de combatir o, al


menos, debatir públicamente estas descripciones “objetivas” del estado actual de la
teoría de la evolución, que se pueden calificar de auténticas supercherías, se acrecienta
cuando, en los medios de comunicación, nos encontramos con glosas – promociones
como éstas, transmitidas al público por los especialistas en la materia: (El País, 22-5-
2002): Vivimos un momento muy favorable para la evolución. Ensayos como los de
Michael Ruse, Juan Luis Arsuaga, o Camilo José Cela Conde y Francisco J. Ayala,
plantean aproximaciones al tema desde perspectivas tan diversas como la
paleontología y el urbanismo. Es decir, “una amplia gama de perspectivas”. Sin
embargo, difícilmente se podrán encontrar (salvo como objeto de crítica, a veces feroz)
autores como M. Behe (La caja negra de Darwin, 1999), N. Eldredge (Síntesis
inacabada, 1997), B. Goodwin (Las manchas del leopardo, 1999), ó R. Chauvin
(Darwinismo. El fin de un mito, 2000).

Pero los dictámenes de la autoridades científicas no son mas proclives a la “duda


inteligente”. Con motivo de la muerte de Gould, se publicó, también en El País (22-5-
2002), la “elegía” de John Maynard Smith, uno de los máximos representantes actuales
de la ortodoxia: ... Gould incurrió en la herejía de publicar un artículo técnico titulado
“¿Está emergiendo una nueva teoría general de la evolución?”, que constituía nada
menos que una revisión científica de la sagrada teoría de Darwin. Y la jerarquía
evolucionista no le perdonó jamás. Para Maynard Smith, Gould ocupa una posición
bastante curiosa. Dada la excelencia de sus artículos divulgativos, ha acabado siendo
considerado por los no biólogos como el teórico evolucionista más destacado. Por el
contrario, los biólogos evolucionistas con quienes he hablado de su obra tienden a
verle como un hombre cuyas ideas son tan confusas que apenas merece la pena
preocuparse por ellas . Lo cual es perfectamente comprensible. Para un colega que cree
que el “experimento” de la polilla del abedul es un ejemplo de la evolución de los
organismos, una frase de Gould como Es demasiado difícil inventar una secuencia
razonable de formas intermedias (es decir, de organismos viables y funcionales) entre
antecesores y descendientes en transiciones estructurales cardinales, debe resultar tan
indescifrable como un texto de escritura cuneiforme.

Y es que la duda “no vende”. Los sabios son los que conocen “La Verdad”, los que
están convencidos de que Darwin nos dijo ya básicamente todo lo que sabemos y
necesitamos saber sobre la vida. Un ejemplo: Uno de los tópicos más repetidos por los
darwinistas, con un aire de suficiencia que produce la impresión de estar emitido desde
el Olimpo de la sabiduría, es El ojo es una chapuza de la evolución. Hoy día se podría
diseñar mejor. Sin duda, esta seguridad impresiona a la audiencia, pero quizás se
olvidan explicarla que, en el momento actual, la ciencia es incapaz, no ya de diseñar una
sola de las células que forman el ojo, sino tan siquiera de comprender su
funcionamiento.

Pero eso no parece tener importancia. Se han inventado una Naturaleza muy fácil de
entender, porque en la forma de razonar en que están “adiestrados” (Feyerhabend, 89)
no hay necesidad de reflexionar sobre cómo se pueden producir estos fenómenos de tal
complejidad (Para el “filósofo” M. Ruse Eso de la complejidad es una tontería).
Simplemente, las células, los ojos, las conexiones neuronales, la organización de los
campos visuales del cerebro,... “aparecen”, “por partes”, “al azar” y lo que realmente
importa es que la selección natural elige a lo que, naturalmente, por casualidad,
funciona mejor. ¡Ya está entendido! Un Universo indiferente, sí, pero ya nunca más
incomprensible desde que Darwin, sobre las tinieblas de la ignorancia, arrojara luz,
mucha luz. El descubrimiento de la verdad nos hizo, al fin, libres (Arsuaga, 2001).

El problema de mayor gravedad que de deriva de ésta concepción no es sólo la


deformación de los fenómenos biológicos, por lo que implica de auténtico bloqueo para
la profundización en el conocimiento. Lo realmente peligroso (ya comprobado
históricamente) son las aplicaciones prácticas de esta doctrina, tanto en lo que respecta a
las “explicaciones” de la condición humana y de la sociedad, como a las interferencias y
manipulaciones de los procesos naturales, ya que el “conocimiento” de que la
Naturaleza es un ente indiferente regido por el azar, nos concede la libertad de
controlarla a nuestro antojo.

En el aspecto social, parece deducirse que las cosas son como son porque funcionan
según las Leyes de la Naturaleza, que, curiosamente, son las mismas que “descubrieron”
los padres fundadores de la economía moderna: El comportamiento altruista es, en la
Naturaleza, algo que es sencillamente incompatible con la selección natural operando
en el nivel del individuo, que es la única forma de selección que admite el
neodarwinismo (Arsuaga, 2001). Lo cierto es que en la Naturaleza (por no hablar de las
sociedades humanas) se pueden observar comportamientos razonablemente calificables
de altruistas o cooperativos. Pero para el darwinismo no resultan creíbles: En el caso de
que los individuos estén genéticamente emparentados la explicación es la “selección
familiar” es decir ayudas a mantener tus propios genes. Pero entre los individuos no
consanguíneos, cuando un individuo arriesga su vida con una llamada de alarma para
que otros escapen, o avisa de la existencia de alimento el problema es mucho más
complejo y plantea un verdadero reto al neodarwinismo, porque la selección familiar
no puede actuar cuando los individuos no están muy relacionados genéticamente...
Pero John Maynard Smith ha ofrecido una explicación que se basa en la teoría
matemática de juegos / ... / Un conocido ejemplo es el llamado “dilema del
prisionero”: dos acusados de haber cometido un robo juntos, son aislados en celdas
separadas y obligados a confesar sin que uno sepa lo que hace el otro / ... /
Paradójicamente, si cooperan los dos ladrones (y ninguno confiesa) les va mejor que si
los dos confiesan (y no cooperan entre sí) /... / La cooperación puede, como se ha visto,
resultar rentable aunque los individuos no sean por naturaleza altruistas ( Arsuaga,
2001) (El subrayado es mío).

Lo dramático de la situación es que, aunque sinceramente, creen que lo que lo que


nos están transmitiendo son hechos científicos objetivos, sus explicaciones de la
realidad son interpretaciones que les han inculcado en su formación, pero que están muy
lejos de estar “científicamente demostradas”. Desde el punto de vista científico, no
existe un comportamiento humano dictado por naturaleza, es decir, “programado” en
nuestros genes (Lewontin et al, 87). A lo largo de nuestra historia han existido, (y
existen) culturas, sociedades, modos de vida e individuos en los que la cooperación
realmente solidaria es norma común, y no parece muy científico calificar a esos
individuos de “mutantes”. En el comportamiento humano, el aprendizaje (desde
períodos sorprendentemente tempranos de la vida), es la parte fundamental, y un claro
ejemplo de esto lo constituyen los darwinistas, que sólo ven lo que les han enseñado a
ver.

Pero la proyección a la sociedad, tan ampliamente apoyada desde los medio de


comunicación, de estas “verdades científicas”, más o menos sutilmente disfrazadas de
“políticamente correctas” están calando profundamente en la población, de forma que
frases como “lo lleva en los genes” o “los africanos (o cualquier otro grupo) son
genéticamente de tal forma” son parte habitual del vocabulario coloquial, con lo que
estamos asistiendo a lo que puede derivar en un fenómeno que tuvo (por el momento) su
máxima expresión y sus más terribles consecuencias durante la primera mitad del siglo
XX: El determinismo genético como excusa supuestamente científica para la opresión e
incluso el exterminio de los grupos “inferiores”. La concepción darwinista de la
naturaleza humana, junto con la simplificación mendeliana de que cada carácter era el
resultado de la actividad o el control de “un gen”, condujo, en los países “civilizados” a
atribuir a la herencia genética la responsabilidad de todo tipo de circunstancias, y
condiciones humanas; desde las jerarquías sociales hasta los comportamientos
inadaptados, desde la inteligencia hasta la peligrosidad social. Las actuaciones que,
como resultado de estas ideas, llevaron a cabo las autoridades políticas sobre la
sociedad , nos las narra Michael Rose (1999), un entusiasta darwinista, que no tiene
inconveniente en exponer algunos efectos lamentables del darwinismo: La mayoría de
los biólogos evolucionistas (a lo que se refiere es a los darwinistas, únicos
evolucionistas posibles) no quieren ni pensar sobre el grado en el que el Darwinismo
contribuyó al desarrollo de ideas racistas en el mundo moderno. /... / La idea de
evolución por modificación gradual llevó a muchos líderes culturales y políticos a
caracterizar a los grupos despreciados en términos de su supuesto origen racial. / ... /
Añadida a esta idea fue la de la competición, en la que las razas superiores pudieron
vencer – posiblemente eliminar - a otras razas. Efectivamente, las aplicaciones
prácticas de éstas ideas fueron terribles: En Estados Unidos durante la primera mitad
del siglo XX, la eugenesia alcanzó un alto grado de influencia entre científicos y
administradores gubernamentales en el mundo angloparlante. Un moderado número de
leyes y directivas burocráticas tomaron un sesgo eugenésico, si no una razón
explícitamente eugenésica . Ciertamente, en 1930 las Leyes Eugenésicas se habían
extendido a treinta y un estados norteamericanos. Según cifras oficiales, en pocos años
fueron esterilizadas más de setenta mil personas. (Una práctica que todavía se aplica en
algunos estados). Los motivos, según esas Leyes, eran las consideraciones de que
características como la delincuencia, el alcoholismo (al parecer, sólo en los pobres),
debilidad mental, epilepsia y otros defectos como lunáticos, perversos sexuales y
morales, enfermos morbosos y personas degeneradas, eran hereditarios. (Woodward,
82).

Pero su culminación tuvo lugar con la implantación en Alemania de las leyes


eugenésicas norteamericanas mediante la “Ley de sanidad genética”. Según Rose:
Aunque la eugenesia logró triunfos legislativos en Estados Unidos, fueron los alemanes
los que tomaron la eugenesia con mayor entusiasmo. Es más: La edición de 1937 del
manual de joven Hitler estaba llena de teoría darwinista y de genética y como tal
ciencia fue tomada como justificación para el exterminio de los judíos.

Lo que resulta realmente sorprendente es, hasta qué punto ha de llegar la fe


darwinista para que, incluso “creyentes” informados como Rose, justifiquen lo
injustificable en aras de La Verdad: El darwinismo probablemente contribuyó al
ascenso del racismo a finales del siglo XIX y, por tanto, ayudó a fomentar en general el
racismo del siglo XX. El darwinismo fue usado también para exacerbar el desprecio
por los pobres en el siglo XIX. Considerado todo ello, el darwinismo ha tenido muchos
efectos lamentables y, a veces, actualmente viciosos en el clima social del mundo
moderno. Es comprensible que tantos odien a Darwin y el darwinismo. A diferencia de
tantas doctrinas, religiosas e ideológicas, no es, ciertamente, un opio intelectual. Como
consecuencia: nadie puede hacer un juicio al darwinismo basado en higiene moral.
Pero, al parecer, existe otra justificación que, esta sí, es indiscutible, y es (casualmente)
la económica: En lo que concierne a los beneficios prácticos del darwinismo el caso es
casi el opuesto. El pensamiento darwinista es esencial en el cruce del ganado,
agronomía y similares. La agricultura moderna depende del darwinismo como una de
sus mas importantes piedras fundadoras. Estamos sólo empezando a ver el uso de
metodologías darwinistas en medicina, ingeniería genética y campos asociados. Pero
es seguro que más de sus aplicaciones llegarán.

7.- LA “VERDAD” NOS HARÁ HUMILDES

A lo que Rose se refiere es a la “ganadería industrial” y a la “revolución verde”, el


inicio de uno de los mayores desastres ecológicos y sociales a que se va a enfrentar la
Humanidad, (Capra, 1985) pero que puede llegar a proporciones inimaginables gracias
al uso de metodologías darwinianas en medicina, ingeniería genética y campos
asociados.

La llamada “revolución verde” fue, posiblemente, el primer exponente a gran escala


de la estrecha y profunda relación entre las bases conceptuales del darwinismo y el
modelo económico de Adam Smith, y de la similitud de sus consecuencias . Financiada
por la Fundación Rockefeller y el Banco Mundial, e impulsada, a partir de los años 50
por Norman Borlaug (que recibió por ello el Premio Nobel de la Paz en 1970) y basada
científicamente en el reduccionismo darwinista, consistió, esencialmente, en el uso de
semillas seleccionadas de alto rendimiento, no importa cuales fueran las condiciones
ambientales del terreno, y grandes cantidades de abonos químicos y pesticidas. Aunque,
inicialmente se apreció un descenso en la proporción de personas desnutridas en el
Tercer Mundo, que se estimó en un 16%, y fue el logro que justificó el Nobel para
Borlaug, pronto, los efectos del libre mercado y del reduccionismo científico se hicieron
patentes. El alto precio de las semillas mejoradas, de los fertilizantes y los pesticidas
hizo que muchas pequeñas explotaciones no pudieran competir con los grandes
propietarios. Sólo en Estados Unidos, el número de granjas se ha reducido a un tercio y
la mayoría de las que hay son grandes empresas mecanizadas, en gran parte, propiedad
de multinacionales de la alimentación. Los efectos fueron aún más desastrosos en el
Tercer Mundo, en el que la concentración de la tierra en pocas manos ya era
considerable, pero, además, aumentaron los precios por el alto costo en productos
químicos y maquinaria.

Pero, en la economía de libre mercado, producción no equivale a acceso a los


alimentos. La escasez de “demanda efectiva” en los países pobres hizo que, por ejemplo
en la India, se acumularan enormes producciones de cereales que se pudrían en los
graneros (en los países ricos y, a veces, en los no tan ricos, se llega a destruir alimentos
para que no bajen los precios). Y en la mayoría de los países del Tercer Mundo (por
ejemplo, Etiopía) los cultivos de cereales se venden en su mayoría a los países ricos
como alimento para ganado (el 36% del cereal mundial se destina a la alimentación de
ganado, según el Informe de la FAO, 2002). Mientras, sus ciudadanos se mueren de
hambre, y el verdadero beneficio ha sido para la industria química y de maquinaria,
grandes impulsoras de este tipo de agricultura.
Sin embargo esto es sólo un aspecto del problema: la producción comenzó a
disminuir en muchas partes y aumentaron las plagas. Como solución, tuvo que
aumentarse de forma continua el uso de fertilizantes y plaguicidas. Y esto, para lograr,
con suerte, los mismos resultados, porque los abonos químicos destruyen la fertilidad
natural del suelo, en la que las bacterias y los hongos tienen un papel fundamental, y
además, los plaguicidas “generan” plagas cada vez más resistentes. Con el tiempo, la
tierra acaba por perder su capa orgánica. En los últimos 30 años el incremento en la
cantidad de fertilizantes para el arroz asiático fue de tres a cuarenta veces más rápido
que el de las cosechas de arroz. En la India, la cantidad de producción agrícola por
tonelada de fertilizante disminuyó en dos tercios durante los años de la Revolución
Verde. Por el momento, el 6% de sus tierras se ha vuelto inutilizable. Pero el problema
no es sólo para los países pobres: en el estado de Iowa estas prácticas han hecho
desaparecer, en los últimos treinta años, la mitad del mantillo de sus terrenos de cultivo.

En cuanto a la ganadería de producción intensiva, la concepción “científica” y las


consecuencias son semejantes: La competencia de grandes instalaciones ha arruinado a
millones de pequeños ganaderos en todo el Mundo. La utilización de razas muy
seleccionadas de “alta producción” ha hecho desaparecer variedades de ganado que
estaban perfectamente adaptadas a sus tierras y a sus climas. Las razas seleccionadas,
muy endogámicas, son más susceptibles a enfermedades, y más aún por las condiciones
de hacinamiento en que se las cría, y se ha tenido que abusar del uso de antibióticos;
primero, para protegerlas de enfermedades, pero posteriormente para acelerar su
engorde (lo que ocurre por motivos aún desconocidos). Con el consumo de esta carne se
está acelerando un grave problema causado por el (reduccionista) uso excesivo de
antibióticos: el aumento de la resistencia de las bacterias “patogenizadas” a estos
fármacos (Corpet, D. 1999). A esto, habría que añadir los brotes esporádicos de variadas
y desconcertantes enfermedades en los animales de crianza “intensiva”, resultado de sus
condiciones antinaturales de vida y de la avidez de beneficios.

Pero las repercusiones de esta forma de producción en la disponibilidad de alimentos


en el Mundo son, si cabe, más vergonzosas que las de los cereales. Para que un novillo
“de engorde” gane alrededor de medio kilo hacen falta más de cuatro kilos de pienso, de
los que sólo el 11% es utilizado para “producir” carne. Cuando un novillo se lleva al
matadero ha consumido unos 1.200 kilos de cereales. Actualmente, más del 70% de los
cereales producidos en Estados Unidos se destina a la alimentación de ganado, la
mayoría vacuno. Mientras, dos tercios de la Humanidad permanecen en un estado que
va desde una alimentación precaria hasta el hambre crónica, de la que mueren cada año
20 millones de personas (Informe FAO, 2002), y en el “Primer Mundo” millones de
“consumidores” fallecen por enfermedades relacionadas con el exceso de alimentación
cárnica (enfermedades coronarias, infartos, diabetes y cáncer), y más de la mitad de la
población adulta de los países ricos (en Estados Unidos el 61%) “padecen” sobrepeso.
Y las cifras de obesos crecen rápidamente entre las minorías adineradas de los países
pobres. Según el informe de la FAO del 2002: Si todos los alimentos del Mundo fueran
repartidos equitativamente, habrían muchos para todos e incluso sobrarían; en
realidad, el Mundo actual produce un 10% más de alimentos de lo necesario para
alimentar a todos.

Y, como afirma Rose, el pensamiento darwinista ha sido esencial en este proceso.


Pero no sólo por sus “aportaciones científicas”, sino por su inevitable traducción al
ámbito social y económico. Porque “la mano invisible” que gobierna el Mercado es la
misma que dirige esa entidad trascendente que es la selección natural: una competencia
implacable en la que “el mejor” debe vencer, y los incompetentes e incapacitados son
excluidos del premio, ya sea éste el éxito o la simple supervivencia. Y, por mucho que
sus terribles consecuencias para la mayor parte de la Humanidad sean evidentes, su
camino es imparable porque son “Leyes Naturales”. Según Paul A. Samuelson, Premio
Nobel de Economía en 1970 (¡un buen año!), autor del manual de economía mas
vendido de la Historia, que le ha hecho extraordinariamente rico ( Web eumed.net) y
de gran influencia en economistas y políticos, El mercado es una evolución necesaria
de la naturaleza humana y sólo el mercado rige de forma eficiente la división social del
trabajo en las sociedades modernas. Las Leyes Naturales del mercado, para Milton
Friedman, regulan la vida de la sociedad y el comportamiento de los individuos. Todas
las relaciones sociales pueden ser reducidas a la “Ley” de la oferta y la demanda, que se
rige por la “libre competencia” y la exclusión de los incompetentes e incapaces
redundará, a largo plazo, en beneficio de la especie.

8.- UNA NUEVA SOCIEDAD PARA UNA NUEVA BIOLOGÍA

Cada día resulta más evidente que, si es que en la Naturaleza existe algo que se
pueda denominar “Leyes”, son muy diferentes a los rancios e hipócritas principios que
impregnan “la supervivencia del más apto”, y nos hacen tomar conciencia de lo lejos
que estamos de poder controlar la Naturaleza. Porque, casi diariamente, están
apareciendo nuevas evidencias de que los fenómenos vitales, desde el nivel celular hasta
el ecosistémico, incluido el que constituye la Biosfera, están constituidos por un
complejísimo entramado de relaciones que interconectan a todos sus componentes, tanto
bióticos como abióticos, que contribuyen a su funcionamiento, y en la que todos sus
componentes son tan interdependientes como necesarios.

Incluso las bacterias y los virus, considerados por los darwinistas nuestros peores
competidores, se han revelado como una parte fundamental de los procesos naturales.
Las bacterias no sólo fueron, como se ha visto, las responsables de la formación de
nuestros componentes celulares (Doolittle, 2000; Gupta, 2000; Margulis, 95 ), sino
también de la creación de las condiciones que hicieron posible la vida tal como la
conocemos (Margulis, 95). En la actualidad, siguen siendo fundamentales para el
funcionamiento de la vida. Hoy sabemos que los suelos terrestres están repletos de
bacterias que cumplen funciones esenciales como la degradación de sustancias tóxicas y
en la regeneración de suelos y ecosistemas terrestres y marinos. También son
indispensables para la vida vegetal y animal: las bacterias son absolutamente
imprescindibles a las plantas para la fijación de Nitrógeno, en una simbiosis tan estrecha
que se ha comprobado (Endre, G. et al., 2002) que existen células vegetales con
receptores moleculares para facilitar su relación con las bacterias. En cuanto al Reino
Animal, enormes colonias de bacterias viven y realizan sus necesarias funciones en
nuestro interior y nuestro exterior. En el tubo digestivo, colaborando en funciones
esenciales como la degradación de sustancias que no podemos digerir o la producción
de otras, imprescindibles para el organismo. En la piel, una capa formada por un
número aproximado de 100.000 bacterias por centímetro cuadrado nos protege de
microorganismos ajenos.

También se ha podido comprobar que el carácter patógeno de las bacterias no es


intrínseco a ellas, sino que se produce mediante su capacidad de transferencia horizontal
de genes (Shankar, N. et al., 2002) como respuesta a agresiones ambientales, la mayoría
provocadas por el hombre. Según Lynn Margulis: Los organismos vivos visibles
funcionan sólo gracias a sus bien desarrolladas conexiones con la red de vida
bacteriana / ... / toda la vida está embebida en una red bacteriana autoorganizadora,
que incluye complicadas redes de sistemas sensores y de control que tan sólo
empezamos a percibir.

Un papel de igual importancia es el que están mostrando, cada día con más
evidencias, los temidos virus. Tanto éstos como las bacterias arrastran el estigma de
“nuestros peores enemigos invisibles” gracias a que su descubrimiento fue debido a su
actividad patógena (ver Sandín, 2002). Y es cierto que la tienen. El problema que ahora
se plantea es cuando y por qué se convierten en patógenos, y si es éste su carácter
predominante que les atribuye la concepción competitiva del darwinismo. Porque, del
mismo modo que las bacterias, los virus están resultando ser no sólo una parte más de
los complejos sistemas de relaciones que hacen posible la vida, sino una parte
fundamental. Además de las implicaciones en los procesos evolutivos que ya hemos
visto, y que les sitúa en un papel central en la historia de la Vida, los virus siguen
colaborando en los (todavía muy desconocidos) procesos naturales de la transferencia
de genes ( Patience et al.,1997 ). También tenemos datos sobre agresiones ambientales
que pueden provocar su “malignización” (Ter-Grigorov et al., 97). Pero lo que puede
resultar mas sorprendente es que su papel ecológico es, al menos, tan importante como
el de las bacterias. Un estudio, que inicialmente pasó casi desapercibido (Fuhrmam 99),
pero que desencadenó una serie de investigaciones posteriores, ha sacado a la luz el
hecho de que en las aguas superficiales marinas superficiales hay 10.000 millones de
virus por litro. Su papel ecológico consiste en el mantenimiento del equilibrio entre las
distintas especies que componen el microplancton (y por tanto, del resto de la cadena
trófica) y entre los distintos tipos de bacterias, destruyéndolas cuando hay un exceso. La
materia orgánica liberada tras la destrucción de los pequeños microorganismos
enriquece en nutrientes el agua. Pero su papel más sorprendente es que los compuestos
de Azufre producidos por estas actividades contribuyen ¡a la nucleación de las nubes!.
Se conocen unos 4.000 tipos de bacterias (no se puede hablar de especies porque
potencialmente todas son capaces de intercambiar información genética), y unos 5.000
de virus, de los que sólo una mínima proporción se conocen como patógenos. Según el
Informe del Programa de las Naciones Unidas para el Medio Ambiente (PNUMA,
2000), el número mínimo estimado, tanto de bacterias como de virus, por ahora
desconocidos es, al menos, cien veces mayor. Parece claro que su aspecto patógeno es
extremadamente minoritario. Desde luego, si fueran “nuestros competidores”
tendríamos pocas oportunidades de “vencerlos”.

Pero el modelo social y el modelo biológico de la “libre competencia” necesitan


competidores. Por eso, si no los encuentran, los crean. Y, por si no fueran
suficientemente dramáticas y peligrosas las consecuencias de la hipócrita “mano
invisible” sobre la gran mayoría de la población y sobre el medio ambiente mundial, la
irrupción de la “Biología de mercado” puede ser el golpe final capaz de hacer real el
vaticinio de Chargaff. Cuando, en los años 70 se “inventó” la llamada “ingeniería
genética”, los conocimientos que hoy tenemos sobre la complejidad de los sistemas de
control de la información genética y su sensibilidad a factores ambientales eran
impensables. La visión reduccionista que impregnaba (y aún impregna, en muchos
casos) las interpretaciones de los procesos biológicos, estaba firmemente anclada en la
concepción darwinista – mendeliana de la evolución. Para que sus postulados se
cumplan, el “lenguaje” genético ha de ser universal y único, es decir, la información
contenida en una secuencia de ADN ha de ser la misma independientemente del
organismo en que esté, y hoy sabemos que no es así. La información genética debería
estar restringida al núcleo de la célula, y hoy sabemos que no es así. La información de
“un gen” sería independiente de la de otros genes y del lugar del genoma en que se
sitúe, y hoy sabemos que no es así. Sin embargo, éstos son los principios que rigen las
prácticas de “ingeniería genética”, lo que implica que, en realidad, no es una
“ingeniería” porque su base teórica no es que sea inexacta o incompleta: sencillamente,
es inexistente. Y esta afirmación se refuerza si nos informamos sobre las técnicas
empleadas para las manipulaciones genéticas, porque no resultan especialmente
tranquilizadoras. Para la inserción de material genético ajeno en un organismo, se
utilizan fundamentalmente dos métodos, a cuál más incontrolable: Uno consiste en
añadir las secuencias modificadas a “vectores”, es decir, elementos de gran complejidad
que en la Naturaleza tienen la capacidad de intercambiar información genética, como
plásmidos, (utilizados por las bacterias para transmitirse, por ejemplo, genes de
resistencia a antibióticos), o virus más o menos “mutilados”, e “infectar “ con ellos las
células tratadas. El lugar de inserción de estas secuencias en el genoma es incontrolable,
porque no depende de los deseos del experimentador, sino de las capacidades y
tendencias del vector. La otra técnica resulta aún más inquietante, aunque sólo sea por
su denominación: Se trata de la “biobalística”. Consiste en impregnar con los segmentos
de ADN modificados pequeñísimas partículas de oro o tungsteno y dispararlas con una
especie de pistola sobre las células (se utiliza fundamentalmente en plantas). En algunos
casos estos proyectiles pueden llegar al núcleo de la célula y en algunos casos el ADN
puede integrarse en algún punto del celular.
Pero esto no es todo. Como las técnicas son tan poco fiables, para poder encontrar las
células en las que se encuentran los nuevos genes se ha añadido otro factor inquietante:
Antes de transferir el “nuevo gen” se le añade un gen bacteriano de resistencia a los
antibióticos. Después de realizada la transferencia se añade al cultivo celular el
antibiótico y sólo sobreviven las células que tienen “el nuevo gen”... con la resistencia
al antibiótico incorporada.

Y aún hay más: A este “Frankenstein” se le ha de añadir, para que el nuevo gen se
exprese, un “promotor”; un segmento de ADN que suele ser de origen viral, y que,
frecuentemente, produce un exceso de “expresión” (producción) del nuevo gen.

Aunque las noticias sobre estos “logros científicos” suelen ser muy triunfalistas
(Científicos norteamericanos crean el primer mono que incorpora un gen de otra
especie (El País, 12-1-2001)), las consecuencias reales de estos “avances” y los fracasos
sistemáticos parecen ser menos periodísticos. Como la realidad es que, cuando se realiza
una transferencia de material genético no se sabe donde se va a insertar (en el caso de
que lo haga) en el genoma que lo recibe, las consecuencias son impredecibles. Como
hemos visto, el conocimiento de la manera en que se controlan y autorregulan los genes
es muy limitado, aunque sabemos que un cambio de posición de los genes al introducir
otros puede alterar las relaciones entre todos ellos. Y de esto sí existen pruebas: Un
ejemplo muy ilustrativo (entre otros) fue el intento de transferir “el gen” del pigmento
rojo de maíz a petunia. Las flores se pusieron rojas, pero además las plantas tenían más
hojas, más brotes, mayor resistencia a los hongos y baja fertilidad. (Steinbrecher, 97).

Sorpresas de este tipo se están produciendo en abundancia: maíz transgénico con un


gen de resistencia a los insectos redujo su rendimiento en un 27% y se produjeron
cambios en sus componentes minerales (Hormick, 1997). Levaduras modificadas
producían altas concentraciones de metabolitos tóxicos (Inose y Murata, 1995). La
producción de L-triptófano (usado como suplemento dietético) mediante bacterias
modificadas genéticamente produjo, en Estados Unidos, la muerte de 37 personas y mas
de 1.500 con daños permanentes (Mayeno y Gleich, 1994). La introducción de proteínas
extrañas en otros organismos ha producido fuertes reacciones alérgicas, como el caso de
la soja con proteínas de nuez de Brasil en Estados Unidos (Nordlee et al., 1994)... (Para
una mas amplia documentación ver: Ingeniería genética: ¿Sueño o pesadilla? de Mae
Wan Ho (2001) y Transgénicos de Luke Anderson (2001)).

En cuanto a los efectos de estas manipulaciones sobre el medio ambiente, han sido
tan documentados y denunciados por organizaciones ecologistas y científicos
independientes que casi se han convertido en un lugar común: “Contaminación
genética” (transferencia de las características introducidas, deseadas o no, a las plantas
silvestres y cultivos cercanos) (Frello, et al., 1995), pérdida de insectos beneficiosos
(Tudge, 1993) y alteración de los ecosistemas naturales (Hilbeck et al., 1998),
disminución de variedades de cultivos (The Ecologist, 1998), posible generación de
nuevos virus patógenos por hibridación de los “vectores” (Cory, 1991). En resumen,
peligros de los que la mayor parte son desconocidos, impredecibles y, probablemente,
inimaginables. Según Jacques Diouf, director general de la FAO, los organismos
genéticamente modificados son innecesarios: En su opinión, los OGM son un arma de
doble filo que exigen medidas de precaución. Cuando se comienza a manipular genes,
no se sabe en que va a terminar eso. (El País, 22-5-2001).

Pero los riesgos de la manipulación genética con fines comerciales no se limitan a los
de los alimentos transgénicos. Los experimentos en humanos de intentos de “terapia
génica”, el intento de sustituir “un gen malo” por otro “bueno”, que han producido el
fallecimiento de pacientes que podrían haber vivido mas tiempo si no se les hubiese
“tratado” (Wan-Ho, 2001). Los Xenotransplantes (transplantes de órganos de animales)
en los que se pretende utilizar cerdos transgénicos, con el riesgo de hibridación de virus
endógenos animales y humanos y la generación de nuevos patógenos que pueden ser
incontrolables (Stoye, 1997; Millet, 1999).

También los fracasos, como las falsas clonaciones de animales con el evidente
propósito de llegar a clonar a los humanos que puedan pagárselo (entre ellos a Richard
Dawkins, a quien, al parecer, le entusiasma la idea) que se han puesto de manifiesto al
intentar clonar un gato, (una “investigación” de mas de 3,5 millones de dólares donados
por el financiero de 81 años John Sperling, que fundó la empresa Genetics Savings &
Clone), cuyo descendiente ha resultado de otro color que el donante del núcleo (Shin et
al, 2002), fenómeno que no se podía detectar en la famosa Dolly, que, (salvo por algún
carnero enamorado), era imposible de distinguir de otras de su seleccionada raza, y
cuyas negativas consecuencias en la salud de los animales “clonados” y el escaso rigor y
alto índice de fracasos de su metodología no son muy diferentes de los que caracterizan
a la transferencia génica.

Las críticas a algunas de estas manipulaciones irresponsables ya han llegado desde


las instituciones científicas: La terapia génica es todavía arriesgada, pero los intentos
siguen en marcha, advierte el Comité de Ética de la Organización del Genoma Humano
(HUGO) (Nature, 2001). Pero las denuncias mas documentadas y fundamentadas
provienen de científicos muy cualificados y críticos con la visión reduccionista y
economicista que mueve estas actividades: El prestigioso genetista Richard Lewontin
considera que En un ecosistema, siempre se puede intervenir y cambiar algo en él, pero
no hay manera de saber cuales serán los efectos o cómo puede afectar al medio
ambiente. Y esto es así, porque, según Bárbara McClintock, la descubridora de los
elementos móviles, La función de los genes es totalmente dependiente del ambiente en
que se encuentran. Para la hindú Vandana Shiva, la más prestigiosa experta en los
problemas medioambientales de su país, y una activista en contra de los cultivos
transgénicos, Su introducción en los sistemas agrarios del Tercer Mundo, llevará
aparejado un aumento en el uso de los agro – químicos, incrementándose así los
problemas medioambientales. Destruirá también la biodiversidad, que es el sustento y
el modo de vida de las mujeres rurales. Lo que para Monsanto son malas hierbas, para
las mujeres del Tercer Mundo es alimentación, pienso y medicinas. (The Ecologist,
1998).

Sin embargo, estas fundadas objeciones, que difícilmente llegan a los medios de
comunicación, más dados a ensalzar los “logros científicos” que a sacar a la luz los
problemas derivados de ellos, no son obstáculo para que se continúe con estas
peligrosas prácticas. Incluso los trabajos científicos que ponen de manifiesto los riesgos
de estas actividades, o las pruebas de accidentes relacionados con ellas, son rápidamente
descalificados (Ver ISIS Report, 29- 4-2002) por “equipos científicos” entre los que, sin
el menor pudor, figuran miembros de alguna gran empresa de la biotecnología. Porque,
la realidad, es que los verdaderos intereses que subyacen a todas estas prácticas
(incluidas las de muchos especialistas de buena voluntad que creen trabajar “por el bien
de la Humanidad”), son intereses económicos. Tanto las grandes sumas invertidas en la
investigación pública (a menudo financiada por grandes empresas), como
(mayoritariamente) la llevada a cabo por las empresas involucradas en su
comercialización, esperan resultados prácticos (aproximadamente, el 25% de las
acciones de Wall Street pertenecen a empresas de biotecnología), y esos resultados
prácticos no son, evidentemente, la solución de los problemas del 80% de la
Humanidad, sino el beneficio económico de sus poseedores. (Ver “Genetically
Modified Organisms 25 Years On”. ISIS)

A pesar de estas evidencias, son muy abundantes los científicos (sobre todo entre los
altamente especializados) de buena fe convencidos de que estas prácticas no son mas
que una aceleración de los procesos que han tenido lugar en la Naturaleza. Es decir,
como los cambios evolutivos han sido “al azar”, no hay motivo de preocupación por
introducir más. Por otra parte, es lógico que se tengan que pagar por estos
descubrimientos en los que tanto se ha invertido. Y así asistimos al vergonzoso
espectáculo del abandono de las multinacionales farmaceúticas de las investigaciones
sobre las enfermedades que azotan al Tercer Mundo, porque sus ciudadanos no son un
buen mercado (Grabowski, H. 1997). Las doctrinas de la mano invisible del mercado y
de la selección natural justifican la existencia de un creciente número de desheredados
y los millones de personas que mueren en el Mundo de hambre y enfermedades fáciles
de curar. A título personal, nadie es responsable: son el mercado y la supervivencia del
más apto los que deciden. La Naturaleza es así. John R. Rockefeller lo tenía muy claro:
El crecimiento de un gran negocio consiste, simplemente, en la supervivencia del más
apto / ... / es, sencillamente, el desarrollo de una ley de la Naturaleza (Lewontin et al.,
1987).

Se ha creado una Biología virtual en una sociedad virtual. La competencia es el


verdadero poder creador y, como no se cansan de repetir los (innecesarios)
propagandistas del Mercado, ni el Estado debe tener el poder de impedirla (Rodríguez
Braun, C., El País. “Poder no hay más que uno” 1-2-2001 ). Es decir, hay que dejar,
más aún, a la sociedad en manos de los “más aptos”, para que la dirijan según sus
“Leyes de la Naturaleza” porque, “a la larga”, todos saldremos beneficiados. No
importa que lo que suceda sea exactamente lo contrario: Si “la economía” de un país va
bien, lo que quiere decir es que unos pocos han ganado mucho (naturalmente, a costa de
otros). Porque el progreso económico se mide por la “renta per cápita” (que no merece
la pena discutir). Lo que “tira” de la economía es el aumento “del consumo”, (también
“per cápita”), que, al parecer, ha de ser constante, sin fin. Pero, si aumenta “la
demanda” de un producto, éste, “lógicamente” sube sus precios, independientemente de
su valor real o de su necesidad, y entonces altera las científicas previsiones del IPC. Y
se puede llegar a oír decir a los expertos que “el culpable del aumento del IPC” ha sido
“el pollo”, lo cual hace pensar en algún especulador internacional o, al menos, en algún
gangster más o menos atildado, pero no, es el pollo muerto.

Esta forma de razonar es lo que se conoce como el “pensamiento único”: “así son las
leyes de la libre competencia”. Y la competencia se está extendiendo a unos niveles que
harán extremadamente felices a Richard Dawkins y sus discípulos: Incluso para los
líderes sindicales, “el mercado laboral es muy competitivo”, lo que quiere decir que hay
que competir hasta para poder trabajar, es decir, ofrecer el mismo trabajo por menos
salario (lo que hace suponer que, con el tiempo, habría que pagar por trabajar), con lo
cual se ha conseguido poner a competir a los pobres de todos los países, que ofrecen su
trabajo a cambio de salarios de miseria.

Y así, se está creando un Mundo en el que mientras las dos terceras partes de la
población se mueren prácticamente de hambre, en el tercio restante, la vida se está
convirtiendo crecientemente en un estado de tensión e inseguridad permanentes. Para la
mayor parte de la población, la sensación (en el “mercado laboral”, en la calle, en las
relaciones humanas) es la de una sociedad cada día mas insolidaria, agresiva e
inhóspita.

Mientras, y cumpliendo las “Leyes de la Naturaleza” , las grandes empresas han de


fusionarse para no ser vencidas por la competencia (La cooperación, como se ve, puede
resultar rentable, etc.), lo que supone despidos masivos y naturalmente, la subida de sus
acciones en “La Bolsa”, el “mercado del dinero”, que constituye, junto con otros no
menos filantrópicos, los mayores “creadores de riqueza” en el Mundo.

Es evidente que esta creciente acumulación de riqueza en manos de, cada vez, menos
personas, a costa del expolio de los recursos y la población de la Tierra es tan inviable a
largo plazo como las consecuencias científicas de la hipócrita visión spenceriana de “la
supervivencia del más adecuado”. Pero será difícil un cambio de rumbo en este camino
hacia un callejón sin salida mientras las sociedades de los países “desarrollados” no
tengan la posibilidad de acceder a una información libre que haga posible una reflexión
sobre las “verdades científicas” que nos imponen este feroz sistema económico y sus
propagandistas.

La Nueva Biología está transformando este inhóspito Mundo, degradado por la


competencia de todos contra todos, y plagado de terribles enemigos, en un Mundo rico
y complejo, pero, sobre todo, lleno de misterios por desvelar, en el que todos sus
habitantes, hasta el más ínfimo y extraño, tienen un papel que jugar, y un derecho a la
vida. Tal vez sea posible una sociedad en la que haya sitio para todos. Como se ha
podido ver, no somos los biólogos los más adecuados para dictaminar cómo ha de ser
una sociedad humana viable. Es un campo para los que poseen la experiencia y los
conocimientos adecuados para esta labor, que, cada día que pasa, resulta más urgente,
pero que, sobre todo, impone a los que tenemos conciencia de ello, la obligación ética
de luchar por ello, aunque tengamos pocas esperanzas de conseguirlo. Porque, dados los
principios y las características morales del enemigo a batir, podemos tener la certeza de
que la derrota está garantizada.

AGRADECIMIENTOS

Al Doctor Juan Javier Sánchez Carrión, especialmente, por su infinita paciencia, pero
también por darme la oportunidad de publicar este trabajo. Y a la “protodoctora” Sandín
por su, siempre oportuna, ayuda.

BIBLIOGRAFÍA

Anderson, L. (2001): "Transgénicos. Ingeniería genética, alimentos y nuestro


medio ambiente". Gaia. Proyecto 2050. Madrid.

Ayala, F.J. (1987): “La Naturaleza inacabada”. Biblioteca Científica Salvat.


Barcelona.

Ayala, F.J. (1999): “La Teoría de la Evolución”. Colección: “Tanto por saber”. Ed.
Temas de hoy. Madrid.

Arsuaga, J.L. (2001): "El enigma de la esfinge. Las causas, el curso y el propósito
de la evolución". Plaza Janés. Barcelona.

Ball, P. (2001): "Ideas for a new biology". Nature science update. 12 Feb.
Behe, M.J. (1999): "La caja negra de Darwin. El reto de la bioquímica a la
evolución”. Editorial Andrés Bello.

Boss, P.K. y Thomas, M.R. (2002): “Association of dwarfism and floral induction
with a grape "green revolution" mutation”. Nature 416, 847-850.

Boyd, R. y Silk, J.B. (2001): “Cómo evolucionaron los humanos". Ariel Ciencia.
Barcelona.

Capra, F. (1985): “El Punto Crucial”. Integral. Barcelona.

Corpet, C. (1999): “Carne: ¿Después de las hormonas: los antibióticos”. Mundo


Científico. Nº 197: 43-45.

Cory, J.S. (1991): "Release of Genetically Modified Viruses". Reviews in Medical


Virology. 1: 79-88.

Darwin, Ch.R. (1846): “A Naturalist’s Voyage”. Versión española: “Viaje de un


Naturalista”.

Biblioteca General Salvat. Nº 48. 1972.

Darwin, Ch.R. (1859): “On the Origin of Species by Means of Natural Selection, or
the Preservation of Favoured Races in the Struggle for Life”. Versión española: “El
Origen de las Especies”. Akal, 1998.

Darwin, Ch.R. (1871): “The Descent of Man, and Selection in Relation to Sex”.
Versión española: “El Origen del Hombre”. Ediciones Petronio. Barcelona. 1973.
Darwin, Ch.R. (1876): "Autobiografía". Alianza Editorial. Madrid. 1993.

Darwin, Ch.R. (1876): “Autobiografía y cartas escogidas”. Selección de Francis


Darwin. Alianza Editorial. Madrid. 1997.

.Dawkins, R. (1975): “The Selfish Gene”. Oxford University Presss. Versión


española: “El Gen Egoísta” . Biblioteca Científica Salvat. 1993. Barcelona.

DECLARACIÓN SOBRE LA CIENCIA Y LA UTILIZACIÓN DEL


CONOCIMIENTO CIENTÍFICO (Conferencia Mundial sobre la Ciencia). (1999).
Budapest. En: Encuentros Multidisciplinares. Vol. I, Nº 2.

Di Trocchio, F. (1997): “Las Mentiras de la Ciencia”. Alianza Editorial. Madrid.

Doolittle, W.F. (2000): "Nuevo árbol de la vida". Investigación y Ciencia. Abril. 26-
32.

Ekelund, R.B. y Hebert, R.F. (1995): "Historia de la teoría económica y su


método". Mc Graw Hill. Madrid.

Eldredge, N. (1997): “Síntesis Inacabada”. Fondo de cultura económica. México.

Endre, G. Et al., (2002): "A receptor kinase gene regulating symbiotic nodule
development”. Nature, 417: 962-966.
FAO (Organización para la Agricultura y la Alimentación) (2002): “Examen del
estado mundial de la agricultura y la alimentación”. Cumbre mundial sobre la
alimentación. Roma.

Feyerhabend, P.K. (1989): "Contra el método". Ariel. Barcelona.

Frello, K.R. et al. (1995): "Inheritance of Rapeseed (Brassica napus) Specific RAPD
Markers and a Transgene in the cross B. Juncea x (B. Juncea x B. Napus)". Theor.
Appl. Genet. 91: 236-241.

Fuhrman, J.A. (1999): "Marine viruses and their biogeochemical and ecological
effects". Nature, 399: 541-548.

Galera, A. (2002): "Modelos evolutivos predarwinistas". Arbor. Nº 677 Pp. 1-16.

García Bellido, A. (1999): "Los genes del Cámbrico". Rev. R. Acad. Cienc. Exact.
Fis. y Nat. Vol. 93, Nº 4: 511-528.

Gaunt, Ch. y Tracy, S. (1995): "Deficient diet evokes nasty heart virus". Nature
Medicine, 1 (5): 405-406.

Gavin, A.C. et al. (2002): "Functional organization of the yeast proteome by


systematic analysis of protein complexes". Nature, 415: 141-147.

Gomis, A. y Josa, J. (2002): “Imágenes de la polémica darwinista en España”.


Mundo Científico. Nº 233: 20-29.
Gould, S.J. (1977): "Desde Darwin. Narraciones sobre Historia Natural". H. Blume
Editores. Barcelona.

Grabowski, H. (1997): “The effect of pharmacoeconomics on company research and


development decisions”. Pharmacoeconomics. 5: 389-397.

Grobstein, C. (1977): "Debate sobre el ADN recombinante". Investigación y


Ciencia. Nº 12: 6-19.

Gupta, R.S. (2000): "The natural evolutionary relationships among prokaryotes".


Crit. Rev. Microbiol. 26: 111-131.

Harris, C.L. (1985): “Evolución. Génesis y revelaciones”. Hermann Blume. Madrid.

Hemleben, J. (1971): “Darwin”. Alianza Editorial. Madrid.

Henikoff, S. y Malik, H.S. (2002): “Centromeres: Selfish drivers”. Nature, 417:


227.

Herbert, A. Y Rich, A. (1999): "RNA processing and the evolution of eukaryotes".


Nature Genetics. 21: 265-269.

Hilbeck, A. Et al. (1998): "Toxicity of Bacillus thuringiensis CryIAb toxin to the


predator Chrysoperla carnea (Neuroptera: Chrysopidae)". Environmental Entomology,
Nº 27.

Ho, Y. et al. (2002): "Systematic identification of protein complexes in


Saccharomyces cerevisiae by mass spectometry". Nature. 415: 180-183.
Hormick, S. (1997): "Effects of a Genetically Engineered Endophyte on the Yield
and Nutrient Content of Corn". www.geocities.com/Athens/1527/btcorn.html.

Inose, T. y Murata, K. (1995): "Enhanced accumulation of toxic compound in yeast


cells having high glycolytic activity: a case study on the safety of genetically enginereed
yeast". Int. J. Food Science Tech. 293: 22.

ISIS (Institute of Science in Society): http://www.i-sis.org.uk/contamination.php

http://www.i-sis.org.uk/GMO25.php

Kemp, T.S. (1999): "Fossils and Evolution". Oxford University Press

Lamarck, J.B. de M. (1809): “Filosofía Zoológica”. (Traducción al español).


Editorial Alta Fulla. 1986.

Lewontin, M.C. (1982): “El Determinismo Biológico Como Arma Social”, en “La
Biología como Arma Social”. The Ann Arbor Science for the People (Editorial
collective). Alhambra. Madrid.

Lewontin, M.C.; Rose, S.; Kamin, L.J. (1987): “No Está en los Genes”. Ed. Crítica.
Barcelona.

Lewontin, M.C. (1992): “The doctrine of DNA. Biology as Ideology”. Penguin


Books. London.
Margulis, L. y Sagan, D. (1995): "Waht is Life?". Simon and Schuster. New York,
London.

Mayeno, A.N. y Gleich, G.J. (1994): "Eosinophilia-mialgia syndrome and


tryptophan production: a cautionary tale". Tibtech, 12: 364-352.

Millet, A. (1999): “¿Humanizar a los cerdos?”. Mundo Científico. Nº 203: 54-55.

Morata, G. (1999): “Biología Molecular, desarrollo y Evolución del Reino Animal”:


en “Origen y Evolución”. Fundación Marcelino Botín. Santander.

Moreno, E., Basler, K. Y Morata, G. (2002): "Cells compete for Decapentaplegic


survival factor to prevent apoptosis in Drosophila wing development". Nature, 416, 755-
759.

Moreno, M. (2002): "Botánica y evolución". Arbor. Nº 677. Pp. 59-99.

Morris, S.C. (2000): "The Cambrian "explosion": Slow-fuse or megatonnage?”.


Proc. Natl. Acad. Sci. USA. 97, 9: 4426-4429.

Nordlee, et al. (1994): "Identification of a brazil-nut allergen in transgenic


soybeans". The New England Journal of Medicine 334: 688-692.

Nature (1998): “Last chance to stop and think on risks of xenotransplants”. Editorial
Enero. 1998.

Patience, C. Et al., (1997): "Our retroviral heritage". Trends Genet. 13: 116-120.
Peng, J. Et al. (1999): "Green revolution genes encode mutant gibberellin reponse
modulators". Nature 400, 256-259.

PNUMA, (Programa de las Naciones Unidas para el Medio Ambiente) (2000):


"Perspectivas del medio ambiente mundial". Ediciones Mundi-Prensa. Madrid.
Barcelona. México.

Rose, M.R. (1999): “Darwin’s Spectre. Evolutionary Biology in the Modern World”.
Pricenton University Press.

Sandín, M. (1997): “Teoría Sintética: Crisis y Revolución”. Arbor. Nº 623-624. Pp.


269-303.

Sandín, M. (1998): "La función de los virus en la evolución". Bol. R. Soc. Hist. Nat.
(actas) 95: 17-22.

Sandín, M. (2000): "Sobre una redundancia: El darwinismo social". Asclepio. Vol.


LII, 2: 27-50.

Sandín, M. (2002): "Hacia una nueva Biología". Arbor. Nº 677. Pp. 167-218.

Shankar, N. et al. (2002): “Modulation of virulence within a pathogenicity island in


vancomycin-resistant Enterococcus faecalis”. Nature 417: 746-750.

San Pedro, J.L. (2002): "El mercado y la globalización". Destino. Madrid.


Samuelson, P. http://www.eumed.net/cursecon/economistas/samuelson.htm

Spencer, H. (1851): “Social Statics: the conditions essential to human happiness


specified, and the first of them devoloped”. Chapman. Londres.

Steinbrecher, R. (1997): "Cotton Picking Blues". The New Internationalist, Nº 293:


22.

Stoye, J.P. (1997): “Proviruses pose potential problems". Nature, 386: 126-127.

Strathern, P. (1999): “Darwin y la Evolución”. Siglo XXI de España Editores.


Madrid.

Ter-Grigorov, S.V. et al., (1997): "A new transmissible AIDS-like disease in mice
induced by alloinmune stimuli". Nature Medicine, 3 (1): 37-41.

The Ecologist. (1998): “The Monsanto Files. Can We Survive Genetic


Engineering?”. Vol. 28. Nº 5. Sept./Oct., 98 (Número censurado en el Reino Unido, y
editado en España mediante el apoyo de distintas instituciones, organizaciones no
gubernamentales y editoriales independientes).

The Peel Web. http://dspace.dial.pipex.com/town/terrace/adw03/peel/malthus.htm

Thuillier, P. (1990): “De Arquímedes a Einstein. Las caras ocultas de la


investigación científica”. Alianza Editorial. Madrid.

Tudge, C. (1993): "The engineer in the Garden". Jonathan Cape. Londres.


Wan-Ho, M. (2001): "Ingeniería genética: ¿Sueño o pesadilla”. Gedisa. Barcelona.

Weber, M. (1994): "La ética protestante y el espíritu del capitalismo". Península.


Barcelona.

Weikart, R. (1995) “A recently discovered Darwin letter on social Darwinism”.


ISIS, Nº 86, pp. 609-611.

Wilke, C.O. et al. (2001): “Digital organisms: survival of the flattest". Nature 412,
331-333.

Wilson, E.O. (1975): “Sociobiology: The new Synthesis”. Harvard University Press.
Cambridge, Mass. Versión Española Ed. Omega. 1982. Barcelona.

Whitelaw, E. y Martin, D.I.K. (2001): "Retrotransposons as epigenetic mediators of


phenotipic variation in mammals". Nature Genetics, 27: 361-365.

Woodward, U. (1982): “Cociente intelectual y racismo científico”. En: “La biología


como arma social”. The Ann Arbor Science for the People (Editorial Collecive).
Alhambra. Madrid.
Escuela Técnica Superior de Ingenieros de
Telecomunicación
Universitat Politècnica de València

Automatización del análisis de la imagen de una


gota de sangre coagulada

Proyecto Final de Carrera

Ingeniería técnica superior en telecomunicación

Autor: Jordi Siscar Escivá

Director: Valery Naranjo Ornedo

Valencia, septiembre de 2014


Automatización del análisis de la imagen de una gota de sangre coagulada

Resumen

En el presente proyecto se analizan imágenes de gotas de sangre coaguladas. Las


gotas se obtienen realizando una incisión en el dedo. Se aplica la gota sobre un cristal
portaobjetos creando varias marcas en el cristal. La muestra se visualiza en un
microscopio con cámara acoplada que captura las imágenes. Los artículos estudiados
sobre el análisis indican que la gota ideal debería ser roja en su totalidad. En aquellas
personas con una grave enfermedad se observa la aparición de manchas blancas en la
gota de sangre. Se calcula la cantidad de color blanco que presenta la gota y se compara
con una gota ideal. El rendimiento del método propuesto es analizado para distintas
imágenes de entrada. La finalidad es determinar si las muestras de sangre seca pueden
resultar útiles en la determinación de estados de salud, o la evolución de un tratamiento
médico.

Palabras clave: Sangre, gota, salud, microscopio, coagulada, tratamiento, marcador,


enfermedad.

2
3
Automatización del análisis de la imagen de una gota de sangre coagulada

Agradecimientos

A Valery Naranjo Ornedo por ayudarme en un proyecto nuevo y por atenderme


siempre con una sonrisa. Le agradezco que me transmitiese su pasión por el tratamiento
digital de imágenes.

A Ana Jiménez Belenguer del departamento de Biotecnología en el Área Microbiología,


por permitirme analizar muestras en el laboratorio y enseñarme el funcionamiento del
microscopio.

A Rosa María López Monís por facilitarme imágenes de muestras de gotas de sangre
coagulada.

A mi familia por su apoyo incondicional. Ellos me han facilitado la oportunidad de


obtener unos estudios superiores.

A mis compañeros y profesores. Con ellos descubrí la pasión por aprender.

A Àngela Bertomeu Pi por mostrarme mis errores y fomentar mi desarrollo personal.

4
Índice general

Índice general ................................................................................................................... 5

Índice de figuras ............................................................................................................... 7

1. Introducción ................................................................................................................ 10

1.1 Motivación ............................................................................................................ 11

1.1.1 La sangre ........................................................................................................ 11

1.1.2 Material necesario y toma de muestras .......................................................... 12

1.1.3 Manchas blancas ............................................................................................ 16

1.1.4 Normal vs anormal ......................................................................................... 17

1.2 Estado del arte en análisis de imágenes de gotas de sangre. ................................. 19

1.2.1 Historia ........................................................................................................... 19

1.2.2 Situación actual. ............................................................................................. 22

1.3 Objetivos ............................................................................................................... 23

1.3.1 Región de interés ............................................................................................ 24

1.3.2 Segmentación ................................................................................................. 26

1.3.3 Obtención de características ........................................................................... 27

1.3.4 Exportar a Excel. ............................................................................................ 28

1.3.5 Proceso transparente al usuario. ..................................................................... 28

2. Metodología ................................................................................................................ 29

2.1 Espacios de color .................................................................................................. 30

2.1.1Espacio RGB ................................................................................................... 30

2.1.2 Espacio Lab .................................................................................................... 31

2.1.3 Obtención de una imagen de grises mediante el análisis de componentes


principales ............................................................................................................... 33

2.2 Métodos utilizados ................................................................................................ 35

2.2.1 Método del valor umbral. Otsu ...................................................................... 35

5
Automatización del análisis de la imagen de una gota de sangre coagulada

2.3 Operaciones morfológicas .................................................................................... 38

2.3.1 Apertura de imágenes. .................................................................................... 39

2.4 Separar gota y fondo. ........................................................................................... 41

2.5 Detección de manchas blancas ............................................................................. 43

2.5.1 Procesado de la imagen mediante interfaz gráfica ......................................... 44

3. Resultados................................................................................................................... 46

3.1 Comparación normal vs anormal. ......................................................................... 49

3.1.1 Imágenes en campo oscuro. ........................................................................... 49

3.1.1 Imágenes en campo claro. .............................................................................. 52

3.2 Puntos débiles ....................................................................................................... 59

3.3 Exportar a Excel.................................................................................................... 60

3.4 Análisis mediante una interfaz gráfica .................................................................. 61

4. Líneas futuras ............................................................................................................. 64

4.1 Análisis de la mancha blanca con mayor área ...................................................... 65

4.2 Análisis de las redes de fibrina e interconexión de las manchas .......................... 66

4.3 Determinar la posición de las zonas blancas......................................................... 67

4.4 Patrones de coagulación........................................................................................ 68

5. Conclusiones............................................................................................................... 69

6. Bibliografía y referencias ........................................................................................... 70

6
Índice de figuras

1. Introducción

1.1 Imagen del microscopio utilizado (a) y un ejemplo del autor visualizando
muestras (b)

1.2 Resultado de aplicar la gota de sangre sobre un cristal portaobjetos

1.3 Muestra visualizada en toda su extensión (a) y con un acercamiento mayor


(b)

1.4 Imagen de una gota de sangre con un patrón normal (a) y anormal (b)
tomada mediante un microscopio de campo oscuro

1.5 Imagen de una gota de sangre con un patrón normal o sano (a) y con un
patrón anormal o enfermo (b) tomada con un microscopio de campo claro

1.6 Progresión de la evolución de una gota de sangre desde un patrón normal(a)


hacia un patrón anormal (c) pasando por un punto intermedio (b).

1.7 Toda la gota coagulada sobre un fondo blanco

1.8 Detalle de una región de la gota sin fondo

1.9 Detalle de una región de la gota con fondo

1.10 Una región de la gota enventanada, dentro de un círculo negro.

1.11 Posibles patrones particulares que pueden darse en una gota de sangre
coagulada

2. Método

2.1 Representación tridimensional del espacio RGB

2.2 Imagen de una gota de sangre (a) descompuesta en sus componentes del
espacio RGB: la componente roja (b), la componente verde (c) y la componente
azul (d)

7
Automatización del análisis de la imagen de una gota de sangre coagulada

2.3 Imagen de una gota de sangre (a) descompuesta en sus componentes del
espacio CIE LAB: la luminancia (b), el eje rojo verde (c) y el eje azul-amarillo
(d)

2.4 Imagen en escala de gises con su histograma a la derecha.

2.5 Máscara obtenida con el método de otsu (a) y el resultado de aplicar una
operación de apertura de valor mil (b)

2.6 Resultado de aplicar una operación de apertura de valor mil (a) y el efecto
que se produce al realizar un cierre de valor mil (b)

2.7 Primer paso en el proceso de separar gota y fondo.

2.8 Segundo paso en el proceso de separar gota y fondo

2.9 Tercer paso en el proceso de separar gota y fondo

2.10 Imagen de una gota de sangre (a) y la máscara que marca en color blanco
las manchas de la gota (b)

2.11 Entorno de desarrollo de interfaces gráficas de usuario (GUI)

2.12 Ejemplo del aspecto de la interfaz gráfica (GUI) diseñada

3. Resultados

3.1 Imagen de una gota de sangre coagulada (a) y sus manchas marcadas en
color verde (b)

3.2 Imagen de una gota de sangre coagulada (a) y el eje rojo-verde del espacio
Lab (b)

3.3 Máscara que marca con color blanco la gota (a) y la superposición de dicha
máscara sobre la imagen original (b)

3.4 Gota con un patrón normal (a) y otra gota con patrón anormal (b). Muestras
tomadas en campo oscuro

3.5 Máscara del patrón normal (a) y del patrón anormal (b)

3.6 Máscara transpuesta del patrón normal (a) y máscara del patrón anormal (b).

8
3.7 Gota con un patrón normal (a) y otra gota con patrón anormal (b). Muestras
tomadas en campo claro

3.8 Se toma la luminancia como entrada y se marcan las manchas blancas para el
patrón normal (a) y el patrón anormal (b)

3.9 Se toma la componente roja como entrada y se marcan las manchas blancas
para el patrón normal (a) y el patrón anormal (b)

3.10 Se toma la componente verde como entrada y se marcan las manchas


blancas para el patrón normal (a) y el patrón anormal (b)

3.11 Se toma la componente azul como entrada y se marcan las manchas blancas
para el patrón normal (a) y el patrón anormal (b)

3.12 Se toma el eje “a” como entrada y se marcan las manchas blancas para el
patrón normal (a) y el patrón anormal (b)

3.13 Se toma el eje “b” como entrada y se marcan las manchas blancas para el
patrón normal (a) y el patrón anormal (b)

3.14 Detalle de la pérdida de información cuando se obtiene la máscara (b) que


marca toda la gota de sangre (a)

3.15 Hoja de cálculo en la que se almacenan los resultados obtenidos

3.16 Gráfico de barras comparando los ratios para diferentes imágenes de


entrada

3.17 Interfaz gráfica para el procesado automático de las imágenes

3.18 Interfaz gráfica después de haber procesado una imagen

4. Líneas Futuras

4.1 Objetos de mayor área que han sido detectados en las imágenes de campo
oscuro para un patrón normal (a) y anormal (b)

4.2 Ejemplo de una gota donde se aprecia la red de fibrina (a). Ejemplo de una
gota con la red de fibrina rota (b)

9
Automatización del análisis de la imagen de una gota de sangre coagulada

1. Introducción

El presente proyecto final de carrera (PFC) tiene como finalidad estudiar y procesar
imágenes de gotas de sangre seca. El estudio de este tipo de imágenes resulta novedoso
y establece el inicio para poder desarrollar futuras investigaciones, a fin de determinar si
el estudio de gotas de sangre seca puede ser útil en el ámbito médico. Para llevar a cabo
una investigación en este campo, se ve necesario disponer de un grupo multidisciplinar
de profesionales y la colaboración de otros laboratorios de la Universitat Politécnica de
València. El punto de partida es la motivación que lleva al autor a desarrollar el
proyecto. Posteriormente el estado del arte es necesario para fijar los objetivos. La parte
central del proyecto es la metodología empleada y los resultados obtenidos. Se finaliza
delimitando una línea a seguir para el desarrollo de futuros proyectos y las conclusiones
obtenidas.

En este capítulo introductorio se desarrollan tres puntos:

 Punto 1: Identificar los factores que han influido para querer desarrollar el
proyecto.
 Punto 2: Historia y situación actual del análisis de gotas de sangre coaguladas.
 Punto 3: Objetivos del proyecto e hipótesis que se desean validar.

10
1.1 Motivación

La principal motivación del autor es la de extraer características de imágenes obtenidas


con un microscopio y seguir una línea de investigación tratando de determinar si este
análisis simple, barato y rápido puede aportar información sobre el estado de salud de
una persona, o las distintas patologías que se padecen. El análisis de gotas de sangre
seca toma el nombre de test Bolen o test H.L.B.O (Aguirre, 2011), es inespecífico y no
sirve aún para diagnosticar enfermedades. Al ser un test inespecífico las gotas de sangre
seca informan del estado de salud global del paciente. Los profesionales en esta técnica
la utilizan para validar si el tratamiento aplicado al paciente es correcto y conduce la
coagulación de la gota de sangre hacia el estado deseado. Idealmente la gota debe ser
roja en su totalidad y no presentar manchas blancas, por lo tanto si ante un tratamiento
las manchas blancas disminuyen o desaparecen se considera el tratamiento favorable.
En investigaciones posteriores se puede hacer un estudio de este análisis cualitativo de
la sangre, estudiar cómo coagula la sangre, si se presentan patrones, la cohesión de la
gota, la aparición de manchas blancas, la uniformidad del contorno. En este proyecto se
proporcionarán herramientas para la realización de dicho estudio en el futuro.

1.1.1 La sangre

La sangre es un tipo de tejido conjuntivo, sirve de sostén (Arenas, 2010), cohesión o


separación de los elementos que componen los órganos. Es un tejido especializado que
contiene componentes de fase líquida y componentes de fase sólida. La parte líquida se
llama plasma, contiene agua, sales minerales, hormonas, azúcares, grasas y proteínas.
Corresponde con un 55% del volumen total. Su parte sólida contiene glóbulos rojos,
glóbulos blancos y plaquetas. Los glóbulos rojos transportan oxígeno a cualquier tejido
y órgano. Además llevan el dióxido de carbono de vuelta a los pulmones para ser
espirado. Los glóbulos blancos forman parte del sistema inmunológico y actúan como
defensa del cuerpo. Las arterias llevan la sangre oxigenada la que ha pasado por los
pulmones. Las venas levan la sangre desde el resto del cuerpo hasta el corazón y los
pulmones para que vuelva a ser oxigenada. La médula ósea es un material esponjoso
que tenemos dentro de los huesos y es la que se encarga de producir nuevas células

11
Automatización del análisis de la imagen de una gota de sangre coagulada

sanguíneas. Toda la sangre está compuesta por los mismos elementos básicos aunque no
toda es igual. La presencia o ausencia de ciertos antígenos determina el grupo
sanguíneo.

Resulta de gran interés para la medicina realizar análisis cuantitativos de la sangre. Se


mide la cantidad de glóbulos blancos, glóbulos rojos, proteínas, grasas, hormonas,
enzimas. En la sangre pueden presentarse alteraciones celulares, sean morfológicas,
funcionales o bioquímicas que alteren la coagulación de la misma. Puede darse el caso
que dos individuos tengan la misma cantidad de elementos básicos y que en cambio la
coagulación de la sangre en ambos sea distinta por la calidad de esos elementos básicos.
Los factores que pueden afectar a la coagulación son: la contaminación por
macromoléculas y péptidos, carencia o exceso de nutrientes, o acumulación de radicales
libres. Este estudio puede ayudar a determinar si un tratamiento presenta una mejoría
notable, normal o leve viendo si la calidad de la sangre ha sufrido alguna degradación.
La degradación de la calidad de la sangre lleva a la aparición de manchas blancas, al
aumento de su tamaño, a la conexión de las mismas, a la pérdida de la forma circular de
la gota y a la aparición de patrones.

1.1.2 Material necesario y toma de muestras

Las imágenes que se analizan han de ser obtenidas con un microscopio. El microscopio
ha de cumplir las siguientes características: (Aguirre, 2011)

- Cabeza Binocular.
- Instalación de luz transparente.
- Factores de ampliación de 40X, 100X, 200X.
- Posibilidad de incorporar una cámara.
- Campo claro y/o campo oscuro.

A fin de profundizar en la toma de las muestras, se realizaron pruebas en el laboratorio


de microbiología de la escuela de ingenieros agrónomos (E.T.S.I.A.M.N.), de la
Universitat Politécnica de valencia bajo la supervisión de Ana Jiménez Belenguer. En el
laboratorio se disponía de un microscopio Olympus BX41 con una cámara acoplada
(figura 1.1). La cámara acoplada al microscopio, con la que se han obtenido las

12
primeras muestras, es una cámara de 2 Mpx que guarda las imágenes en una tarjeta de
memoria, con formato propietario.

(a) (b)

Figura 1.1 Imagen del microscopio utilizado (a) y un ejemplo del autor visualizando muestras (b)

El procedimiento para la obtención de unas muestras correctas es el siguiente:

- Presionar la yema del dedo durante 3 segundos, y realizar un pinchazo con una
lanceta. Las lancetas se usan para evaluar la glucemia en diabéticos.

- Dejar la sangre unos 15 segundos y a continuación presionar hasta obtener una gota.

- Tomar el cristal porta y dejarlo caer sobre la gota. Esperar dos segundos y retirar. A
continuación dejar caer de nuevo el cristal porta, en una nueva posición sobre el
pinchazo. Así se crean los círculos de menor tamaño (figura 1.2).

13
Automatización del análisis de la imagen de una gota de sangre coagulada

Figura 1.2 Resultado de aplicar la gota de sangre sobre un cristal portaobjetos

Esta técnica resulta de interés porque, es muy poco invasiva para el paciente, ya que tan
solo tiene que someterse a un pinchazo en su dedo índice. Otro punto a destacar es el
hecho de que, una vez se ha tomado la muestra y se ha coagulado la sangre, esta
muestra puede ser almacenada durante más de un año. Así en la próxima visita del
paciente, se obtiene una nueva muestra, y se compara la gota nueva con la de la última
visita, obteniendo marcadores objetivos del estado de salud del paciente. Cabe destacar
que una vez secas las muestras, pueden ser enviadas a otros lugares para llevar a cabo su
estudio. Las muestras no necesitan refrigeración, tan solo deben ser tratadas con la
delicadeza que supone transportar un trozo de vidrio. Puede darse el caso que, las tomas
no se obtengan de la manera más correcta. Por esta razón se definen:

Errores en las tomas


Existen errores comunes que se cometen cuando se toman las muestras

1. Si se ejerce demasiada presión del cristal porta sobre la gota se observa en el


borde una gran doble costa, como si se tratasen de dos bordes.
2. Si no se ejerce la presión correcta del cristal porta sobre la gota entonces se
observará una muestra hiper coagulada y agrietada.
3. Cuando se ejerce la presión del cristal porta, con un cierto ángulo, aparecerán
distintos patrones en cada capa.

14
Una vez definido el método para obtener las muestras y los posibles errores que se
pueden cometer, se tomaron cuatro muestras a cuatro voluntarios y se analizaron con el
microscopio obteniendo un total de 36 imágenes (figura 1.3). El microscopio Olympus
BX41 (figura 1.1) incluye la posibilidad de visualizar las muestras en campo claro,
campo oscuro, polarización y contraste de fases. En este caso las primeras muestras
fueron tomadas en campo claro. A continuación se muestran dos ejemplos de muestras
obtenidas.

(a) (b)

Figura 1.3 Muestra visualizada en toda su extensión (a) y con un acercamiento mayor (b)

Se deposita la gota sobre el cristal porta objetos tocando el cristal seis u ocho veces
hasta que la sangre depositada en el cristal sea mínima (figura 1.2). Como resultado
obtendremos de seis a ocho imágenes o capas de cada cristal, todas de forma circular y
con tamaño decreciente. La resolución de la cámara, presenta un sesgo importante
cuando se pretenden analizar las muestras, ya que la visualización de la muestra con
cierto alejamiento provoca la pérdida de la información del color.

En resumen, el material necesario para desarrollar la investigación es:

- Microscopio con cámara acoplada.


- Cristales porta.
- Lancetas para realizar la incisión.
- Ordenador con el programa Matlab para procesar las muestras.

15
Automatización del análisis de la imagen de una gota de sangre coagulada

1.1.3 Manchas blancas

En toda la bibliografía (Hawk, Thoma, & Inkley, 1951), (Aguirre, 2011), (Vaughn,
Metzner, & Annan, 1952), (Bolen H. L., 1952) se converge hacia la premisa que, más
blanco es peor. Este punto lleva a que se centren todos los esfuerzos en hallar las
manchas blancas y en la necesidad de cuantificar cuánto de blanco hay en la gota.
Mediante el método que se introduce en el proyecto, se obtiene una imagen en blanco y
negro en la que los objetos blancos, tienen valor uno (blanco) y el resto tiene valor cero
(negro). Analizando esta imagen obtendremos las características de la gota, por lo que la
obtención de ésta primera imagen es crucial para el correcto funcionamiento del
método.

En el análisis de las escasas imágenes disponibles, se encontró un punto conflictivo ya


que el borde de la gota también tiende a ser blanco. La primera solución fue umbralizar
una componente de color, usando un valor relativamente bajo. Ante irregularidades en
los bordes esta solución se planteaba poco robusta. En el apartado de metodología, se
explica la solución que se adoptó finalmente para separar la gota del fondo.

Una vez se obtiene la máscara en la que se delimitan las manchas blancas, el siguiente
paso consiste en extraer características. MATLAB®, el programa con el que se ha
realizado el proyecto, cuenta con herramientas muy robustas y librerías dedicadas única
y exclusivamente al tratamiento digital de imagen. Como resultan importantes todas y
cada una de las manchas, el primer parámetro que se calculó fue el número de manchas
blancas. Existe una gran diferencia si tenemos pocas manchas pero de gran tamaño o
muchas manchas de muy poco tamaño. Así que el segundo parámetro que se prevé
interesante es el tamaño o el área de las manchas blancas.

Con estos dos parámetros ya se podría estudiar la evolución de una misma gota de
sangre a través del tiempo. Es posible que una gota vaya aumentando el número de
manchas blancas y en cambio vaya reduciendo paulatinamente el área de las mismas.
Cabe destacar que la distribución de las manchas blancas en la gota de sangre es un
punto de interés. Se debe estudiar si las gotas se encuentran por toda la gota de sangre o
si por el contrario, se encuentran concentradas en el centro de la gota. En este punto
surgen varias dificultades:

16
 Dificultad tecnológica
o Las muestras de las gotas se han tomado haciendo uso de un microscopio
de alta potencia y de una cámara especial acoplada al microscopio de 2
MPx. Si se quiere analizar toda la gota de sangre se pierde resolución y
resulta casi imposible analizar las manchas blancas.
 Dificultad analítica
o La poca cantidad de imágenes que se dispone hace difícil evaluar el
modo más idóneo de evaluar las manchas blancas.

1.1.4 Normal vs anormal

De nuevo en la bibliografía consultada existe un punto en común:

“Se identifica una gota como normal o sana cuando su coloración es roja, brillante,
uniforme, y sin la existencia o una presencia mínima de manchas blancas.”

El instituto (Onairos) nos facilita la siguiente definición:

“La gota de sangre, en un estado normal, se presenta en forma circular, de color rojo
compacto, sin decoloraciones, masas blancas, ni lagunas, y con una red oscura de
fibrina fina que la cubre en forma de velo perfectamente adaptado al tejido sanguíneo.”

Del mismo modo:

“El empeoramiento de la salud de la persona conlleva una rotura de la red de fibrina y


la aparición de manchas blancas. Cuanto mayor sea el tamaño de las manchas, peor
será el estado de salud. La unión de manchas las hace más grandes y en consecuencia
empeora el estado de salud. “

A continuación, en las figuras 1.4 y 1.5 se presentan varios ejemplos de patrones


normales o sanos frente a patrones anormales o de pacientes enfermos. La imagen de la
figura 1.4 ha sido tomada con un microscopio de campo oscuro y en la figura 1.5 se ha
utilizado un microscopio de campo claro.

17
Automatización del análisis de la imagen de una gota de sangre coagulada

(a) (b)

Figura 1.4 Imagen de una gota de sangre con un patrón normal (a) y anormal (b) tomada mediante un
microscopio de campo oscuro

(a) (b)

Figura 1.5 Imagen de una gota de sangre con un patrón normal o sano (a) y con un patrón anormal o
enfermo (b) tomada con un microscopio de campo claro

Con estas imágenes se pretende ilustrar la importancia de la aparición de una mancha


blanca. Resultaría interesante caracterizar todas y cada una de ellas. El presente
proyecto se centrará en determinar el ratio rojo blanco de la gota y el número de
manchas que aparecen. La principal motivación es la de poder determinar el estado de
salud de una persona visualizando su sangre. Además existe la posibilidad de evaluar el
estado de salud de un paciente mediante la transición de un patrón a otro.

18
1.2 Estado del arte en análisis de imágenes de gotas de
sangre.

La medicina actual realiza análisis cuantitativos de la sangre. A las muestras que se le


extraen al paciente se le aplican anticoagulantes, tintes y distintos productos químicos
con el fin de determinar la cantidad o concentración de ciertos elementos presentes en la
sangre. En la técnica del análisis de la gota coagulada, la sangre no se ve alterada por
ningún agente externo, se analiza en el microscopio y se intenta interpretar lo que se
observa. Existen dos grandes obstáculos a los que se enfrenta la técnica del análisis de la
gota coagulada. Se dispone de poca documentación científica y no existen grupos de
imágenes que puedan ser relacionadas con pacientes que presenten la misma patología.
A continuación se presenta la historia de este análisis y el estado actual del mismo.

1.2.1 Historia

La técnica del análisis de la gota coagulada se llama test H.L.B. o también test Bolen.
Las siglas corresponden a los nombres de tres doctores: Dr Henri Heitan, Dr Philippe de
LaGarde y el Dr H Leonard Bolen.

En 1942 el médico H. Leonard Bolen presenta esta técnica (Bolen H. L., November
1950). Se busca determinar si los individuos afectados con leucemia, enfermedad
cardiovascular y enfermedad tiroidea presentan una coagulación de la sangre normal.
De este modo aparece lo que se denomina como “Bolen blood test” o test de Bolen.

En el 1951 desde el departamento de cirugía y medicina de la universidad de St. Louis


se presenta un artículo llamado “An Evaluation of the Bolen Test as a Screening Test
for Malignancy” (Hawk, Thoma, & Inkley, 1951). En este artículo, se explica que el
estudio de la coagulación de la sangre resulta acertado en el 91.4% de los casos de
cáncer. Además en el estudio se observa que cuanto más avanzado está el cáncer, más
manchas blancas aparecen sobre la gota de sangre roja. Parece razonable pensar en una
reducción de las manchas blancas ante una mejoría del paciente. Por consiguiente, un
tratamiento eficaz contra el cáncer debería reducir el número y el área de las manchas
bancas.

19
Automatización del análisis de la imagen de una gota de sangre coagulada

Ese éxito lleva al investigador a estudiar a 857 individuos. Se define como un patrón
normal una gota densa y oscura. En el patrón canceroso se rompe el diseño compacto
cerca del área central de la gota. Cuando se encuentra el cáncer en un estado avanzado,
la rotura del diseño se extiende hasta casi el borde de la gota. En todos los 195 pacientes
sanos se observaba un patrón normal o negativo. En el 87% de los 157 pacientes con
cáncer, se observaba un patrón anormal o positivo. Es decir, existe una alta probabilidad
que la coagulación de la gota de sangre en pacientes con cáncer siga un patrón anormal.
Este gran hallazgo hizo que después se introdujesen 505 nuevos pacientes con variedad
de diagnósticos. De todos ellos 439 presentaban un patrón normal o negativo y 66 un
patrón anormal o positivo. Al añadir el diagnóstico clínico se obtiene la siguiente tabla:

Tabla 1.1 Aparición de patrones normales o anormales según el diagnóstico de algunas enfermedades

Diagnóstico Número total Patrón anormal Patrón normal


Enfermedad cardiovascular 29 2 27
Enfermedad gastro-intestinal 42 2 40
Artritis 13 2 11
Arterioesclerosis 28 0 28
Diabetes Mellitus 3 0 3
Sífilis 20 1 19
Dermatitis 14 2 12
Enfermedad tiroidea 12 0 12
Hipertensión 10 0 10

No existe correlación entre las enfermedades estudiadas y la presencia de un patrón


anormal o positivo.

En la tabla se observa como el hecho de padecer una enfermedad grave no condiciona


necesariamente la degradación de la gota de sangre hacia un patrón anormal. Esto quiere
decir que un paciente enfermo, puede presentar un patrón aparentemente normal en la
coagulación de su sangre. De todos modos otros investigadores como el Dr. Oswald
Young indican que en el caso de las enfermedades, la degradación no es tan fácilmente
observable a simple vista como en el caso del cáncer, sino que en el caso de las
enfermedades ha de hacerse un estudio de la gota con más detalle.

20
El estudio (Hawk, Thoma, & Inkley, 1951) concluye que un patrón anormal no indica
necesariamente la presencia de una enfermedad, aunque la probabilidad de la presencia
de cáncer es bastante alta. Se muestra (figura 1.6) la progresión de una gota de sangre
con un patrón normal (a) hacia un patrón anormal (c).

(a) (b)

(c)

Figura 1.6 Progresión de la evolución de una gota de sangre desde un patrón normal(a) hacia un patrón
anormal (c) pasando por un punto intermedio (b)

Más tarde H. Leonard Bolen publica un artículo llamado “The blood pattern in pre-
symptomatic malignancy of the gastrointestinal tract” (Bolen H. L., 1952). Un cáncer en
el sistema digestivo tiene tendencia a permanecer oculto o asintomático, hasta que se ha
extendido y se vuelve difícil de extirpar. Se pretende reducir el tiempo que tarda el
paciente entre que presenta síntomas y una posible intervención quirúrgica.

Este test puede ser realizado en una pequeña consulta y resulta inocuo para el paciente,
además es barato y puede llevarse a cabo durante las inspecciones rutinarias. El test
debe ser repetido frecuentemente, para evaluar los resultados de la terapia. En el artículo

21
Automatización del análisis de la imagen de una gota de sangre coagulada

se indica cómo otros autores han estudiado este test y se ha visto eficaz determinando la
presencia del cáncer en cerca del 90% de los casos.

Posteriormente el dr Heitan y el dr Lagarde continúan investigando esta técnica para la


detección del cáncer. En los años 1970 el científico Robert W. Bradford profundizó en
el estudio de este análisis y sentó la base teórica y científica de este método. En sus
investigaciones determina que no solo el cáncer altera la forma en la que una gota de
sangre coagula, sino que otras patologías pueden producir alteraciones en la misma.
Publica el libro: Oxidology the Study of Reactive Oxygen Species (Ros) and Their
Metabolism in Health and Disease (Bradford & Allen, 1997) en el que se describen más
de 35 alteraciones en la morfología de una gota de sangre coagulada. Bradford
puntualiza que el test no diagnostica enfermedades sino que ofrece información sobre
factores de riesgo. El análisis descubre y analiza las configuraciones morfológicas vistas
microscópicamente en gotas de sangre coagulada. Desafortunadamente no se ha podido
consultar la bibliografía citada.

1.2.2 Situación actual.

Esta técnica no es aceptada, estudiada o utilizada por los organismos médicos oficiales.
En España existen pocos profesionales que investiguen esta técnica, Fernando Guirado,
Rosa López Monís, D. Jorge Ollandel, Onairos Business Health S.L y Carlos Cid Cruz.
En la biblioteca nacional de medicina de los Estados Unidos (Pubmed) no se encuentran
más de los cuatro estudios citados (Bolen H. L., November 1950) (Bolen H. L., 1952)
(Hawk, Thoma, & Inkley, 1951) (Vaughn, Metzner, & Annan, 1952). Del mismo modo
que se necesitan estudios para determinar que un análisis médico funciona, también se
deben estudios para considerarlo ineficaz. En el presente proyecto se presenta un
método de diagnóstico poco estudiado, y que hace uso de imágenes obtenidas con
microscopio. Estas imágenes resultan interesantes y se pueden extraer muchas
características de las mismas.

22
1.3 Objetivos

El principal objetivo es desarrollar una aplicación que permita estudiar imágenes de


gotas de sangre coagulada, segmentarlas y extraer características de las regiones de
interés. Para ello se obtendrá, al final del proceso, una imagen en binaria que contiene
las manchas blancas y un archivo Excel .xls, donde se exportan los datos obtenidos en la
extracción de características.

Al inicio del proyecto, se pretendían abarcar unos objetivos ambiciosos, ya que del
estudio de las imágenes se pueden obtener muchos datos. A raíz de determinar cuál era
el estado del arte, gran parte de los objetivos iniciales se trasladan al apartado de líneas
futuras del proyecto. Sobre dichos objetivos, se pueden desarrollar nuevos proyectos y
futuras investigaciones, tomando como base el estudio de las gotas de sangre secas
coaguladas sobre un cristal porta objetos.

Al margen de las características que se pueden obtener de las imágenes, se plantean los
siguientes objetivos:

- Definir la región de interés.


- Segmentar la región a fin de detectar las manchas blancas.
- Obtener las características más relevantes de las manchas blancas.
- Exportar los datos obtenidos a un fichero Excel.
- Realizar todo este proceso con una herramienta en la que el usuario tenga
una interacción mínima.

Inicialmente, se pensó en caracterizar todos y cada uno de los objetos presentes en el


interior de la gota y extraer características de cada uno de ellas. Extrayendo
características de cada mancha, se generaba un volumen muy grande de datos que a
priori, no se tenía constancia que fuesen a ser de utilidad. Por esa razón se pasó a un
estudio más general, a estudiar todas las manchas de la gota y establecer un valor para el
ratio blanco rojo de la gota. Se escogió esta característica porque ya había sido
estudiada y resultaba efectiva en un gran porcentaje de los casos de cáncer. La nueva
visión requería redefinir los objetivos.

23
Automatización del análisis de la imagen de una gota de sangre coagulada

- Establecer y familiarizarse con un protocolo de captura de imágenes.


- Obtener imágenes para definir el método de procesado y extracción de
características.
- Separar la gota del fondo.
- Calcular el ratio blanco rojo que presenta la gota sin considerar el fondo.
- Exportar las imágenes calculadas que definen la posición de las manchas
blancas.
- Exportar los valores de los ratios a un fichero Excel.
- Realizar todo este proceso sin requerir mucha interacción por parte del
usuario.

Idealmente y después del estudio de muestras tomadas a pacientes, se busca definir un


umbral a partir del cual, si se está por encima se pueda considerar una gota como
cancerosa o enferma. Del mismo modo cuando se esté por debajo del umbral podría
considerarse una gota como sana.

1.3.1 Región de interés

Con la finalidad de centrar los esfuerzos en aquello que puede resultar útil, se opta por
centrar la región de interés en toda la gota de sangre. Por este motivo, un punto crucial
del proyecto es el de determinar con la suficiente exactitud la separación entre la gota y
el fondo. Esta elección no es fruto del azar, se centra el estudio en toda la gota de sangre
debido a los estudios científicos aportados en el apartado del estado del arte. Se
analizarán imágenes similares a las que analizó el Dr. Bolen (Hawk, Thoma, & Inkley,
1951). En los estudios citados, el análisis de la gota de sangre coagulada se presenta
como un buen marcador cuando se trata de determinar si el paciente tiene cáncer. Lo
que se analiza en la gota es la presencia de muchas manchas blancas. El ratio rojo
blanco, puede resultar interesante en el diagnóstico de estados graves de salud.

Las imágenes de gotas coaguladas se presentan en distintos formatos (figuras 1.7-1.10),


por lo que se hace difícil definir una región de interés válida para todos los casos.

24
Figura 1.7 Toda la gota coagulada sobre un fondo blanco

En la figura 1.7 la zona roja es la zona de interés. La determinación de la zona de interés


es sencilla, pero como contrapartida no se observan las manchas blancas con detalle.

Figura 1.8 Detalle de una región de la gota sin fondo

En la figura 1.8 se observa una región de la gota, en este caso todo resulta de interés y
se determinan las características de las manchas blancas, con el método descrito en el
proyecto.

Figura 1.9 Detalle de una región de la gota con fondo

La figura 1.9 es similar a la figura 1.7 pero se aprecian mejor las manchas blancas ya
que se ha producido un acercamiento sobre la gota.

25
Automatización del análisis de la imagen de una gota de sangre coagulada

Figura 1.10 Una región de la gota enventanada, dentro de un círculo negro

En la figura 1.10 la muestra ha sido tomada con un microscopio de campo oscuro y la


gota aparece dentro de un halo negro.

Estas diferencias pueden venir por distintos factores:

- Uso de microscopios diferentes.


- Visualización mediante técnicas de campo claro o campo oscuro.
- Uso de distintas cámaras en la captación de las imágenes del microscopio.

Se analizará la zona roja y se busca determinar si presenta manchas blancas. Una


dificultad añadida es saber diferenciar entre mancha blanca y el fondo sobre el que está
la gota. El fondo presenta un color muy similar al de una mancha blanca. Cabe destacar
que una incorrecta toma de las muestras puede hacer que en la coagulación se formen
huecos y sean confundidos con manchas.

La situación ideal será aquella en la que tengamos imágenes como las de la figura 1.7 y
1.9. En el presente proyecto es importante ver la gota en su totalidad y que se aprecie el
fondo de la misma. De todos modos el método desarrollado debe ser robusto y
funcionar con independencia del formato de las imágenes que se le presenten. Es
problemático el hecho que en la región de interés haya una iluminación no uniforme. En
el apartado 3.2 se entra con más detalle en los puntos débiles que presenta el proyecto.

1.3.2 Segmentación

Debido a la naturaleza de las imágenes, el método utilizado para segmentar será el


método del valor umbral o método de Otsu, ya que este método se aplica para imágenes
en que la diferencia de color sea notable. En el apartado de metodología del proyecto se

26
explica con profundidad el funcionamiento del método de Otsu. Este tipo de
segmentación es utilizada en imágenes en las que los objetos que forman la imagen y el
fondo están claramente diferenciados, como es el caso de separar un texto de una
fotografía o el escaneado de un libro o un documento. Los objetos que se analizan son
grandes objetos rojos sobre un fondo claro, así que la segmentación por el método de
Otsu ofrece un procesamiento rápido y preciso de las imágenes.

Se pretende separar los distintos objetos que aparecen en la imagen del fondo de la
misma. Las técnicas y herramientas de las que se dispone son muy variadas. Se decide
optar por una u otra técnica según el tipo de imágenes y el objetivo que se persigue. Se
distingue entre:

 Método del valor umbral: los píxeles se clasifican atendiendo únicamente a su


nivel de gris.
 Detección de regiones: los píxeles con características similares se agrupan en
regiones, siendo cada región un objeto diferente.
 Detección de fronteras: se realiza una búsqueda de los píxeles que corresponden
a fronteras que separan dos objetos diferentes. Una vez detectados, la
segmentación es sencilla.

1.3.3 Obtención de características

El planteamiento es obtener características de las manchas blancas. Las características


obtenidas deben ayudar a la determinación de si se trata de una gota normal o sana o si
por el contrario se está analizando una gota enferma o anormal. Otro punto que se
quiere abarcar es que las características extraídas permitan ayudar en el estudio de la
evolución de un tratamiento. El estudio de muchas gotas puede llevar a establecer unas
características base que se refieran a un patrón normal. Saber si una serie de imágenes
que se corresponden con un mismo paciente, se van acercando a las características base
del patrón normal o si por el contrario, se acerca a un patrón de alguna patología. Se
estudian las siguientes características de las manchas blancas.

- Número.
- Área.
- Perímetro.

27
Automatización del análisis de la imagen de una gota de sangre coagulada

- Excentricidad.
- Distancia al centro de la imagen.
- Ratio Blanco/Rojo de toda la región de interés.

Estas características se obtienen en base a las máscaras obtenidas durante el proceso de


segmentación de la imagen.

1.3.4 Exportar a Excel.

Las imágenes que se analizan en el proyecto son imágenes obtenidas con un


microscopio y por consiguiente, los resultados obtenidos serán estudiados por
profesionales médicos o profesionales no técnicos. La información ha de ser presentada
en un formato conocido y fácil de manejar. Muchos profesionales médicos desconocen
el programa MATLAB® pero en cambio sí que están familiarizados con programas
ofimáticos. Esta es la razón por la cual los resultados que se obtengan se exportan en un
documento Excel (.xls). MATLAB® ofrece potentes funciones que facilitan la tarea de
exportación. Una vez exportado el profesional puede hacer otro estudio paralelo,
haciendo uso de las herramientas que incorpora el propio programa de Microsoft®.

1.3.5 Proceso transparente al usuario.

Es latente el hecho que los resultados han de ser fáciles de entender para profesionales
médicos. Otro punto muy importante es que para obtener los resultados, el proceso que
haya de llevarse a cabo, no cuente con complicados comandos que hayan de ser
ejecutados en consola, ni interfaces en otros idiomas. El modo en el que se ha encarado
el proceso, es un modo transparente al usuario, esto significa que el proceso se ejecuta
sin que el usuario tenga que introducir ningún parámetro, tan solo especificar la carpeta
de la que se leerán las imágenes. Otro modo de hacer al usuario transparente al proceso
es mediante una interfaz de usuario. En el punto 2.5.1 del proyecto se explica cómo se
ha realizado la interfaz para que el usuario pueda procesar las imágenes. Más adelante
en el punto 3.4 del proyecto se detalla el funcionamiento de la interfaz y se muestra un
ejemplo.

28
2. Metodología

Para realizar el PFC, se han desarrollado los objetivos mencionados y se ha recopilado


el resultado en la presente memoria. El desarrollo de la metodología se divide en 5
puntos.

 Punto 1: Explicación teórica de los espacios de color que servirán después como
imágenes de entrada para el método utilizado.
 Punto 2: Explicación teórica sobre los métodos y técnicas que han sido
utilizadas, a fin de llevar a cabo la detección de manchas blancas.
 Punto 3: Explicación teórica de las operaciones morfológicas que utiliza el
método.
 Punto 4: Método utilizado para la delimitación del fondo.
 Punto 5: Método utilizado para marcar las manchas blancas.

29
Automatización del análisis de la imagen de una gota de sangre coagulada

2.1 Espacios de color

A continuación se explican dos espacios de color, que son los que van a proporcionar
las imágenes de entrada para el desarrollo del método. El primer paso es entender que
información aporta cada espacio de color. En el punto 3 de resultados, se estudiará qué
espacio de color responde mejor al método utilizado en la detección de manchas blancas
y la separación del fondo de la gota.

2.1.1Espacio RGB

Una imagen en el espacio RGB es una matriz de píxeles M x N x 3 o lo que es lo


mismo, tres matrices M x N donde M x N es el tamaño de la imagen. La primera de
esas tres matrices corresponde con la componente roja (R), la segunda de ellas con la
componente verde (G) y la tercera la componente azul (B). Una imagen RGB son tres
imágenes en escala de grises, en las que cada pixel de la imagen, puede ser representado
con un número de bits. Cada pixel tendrá entonces tres valores. Si cada componente del
espacio RGB, es una imagen de 8 bits entonces la imagen RGB tendría una profundidad
de 24 bits, y una cantidad de posibles colores de (28)3=16777.216 (Gonzalez, Woods, &
Eddins, 2009).

El espacio RGB se basa en la mezcla aditiva de luces y gráficamente se representa el


espacio RGB como un cubo de color (figura 2.1), donde los vértices del cubo son los
colores primarios y secundarios. Cada componente del espacio indica la luz que emite
dicho color en la imagen.

Figura 2.1 Representación tridimensional del espacio RGB

30
Para ilustrar cómo es el espacio RGB de la imagen de una gota de sangre se propone
transformar la imagen (a) de la figura 2.2 al espacio RGB. Dicha figura contiene las tres
componentes del espacio RGB.

(a) (b)

(c) (d)

Figura 2.2 Imagen de una gota de sangre (a) descompuesta en sus componentes del espacio RGB: la
componente roja (b), la componente verde (c) y la componente azul (d)

2.1.2 Espacio CIE LAB

Es un espacio de color, definido por una comisión internacional conocida como CIE que
se encarga de fijar estándares para aspectos relacionados con la iluminación,
colorimetría y fotometría. En 1976 se define el espacio CIE LAB. Es un espacio
formado por tres componentes, la luminancia (L), el eje rojo-verde (a) y el eje azul-
amarillo (b). Para definir las tres componentes del espacio Lab se debe fijar el punto de
blanco de referencia (Xn, Yn, Zn). La conversión del espacio RGB al espacio Lab resulta
complicado de definir ya que el modelo de color en el espacio RGB depende del

31
Automatización del análisis de la imagen de una gota de sangre coagulada

dispositivo utilizado. En cambio sí que se puede definir la conversión del espacio XYZ
al espacio Lab. Las transformaciones se realizan sobre el punto de blanco de referencia
(Xn, Yn, Zn) y las tres componentes toman los valores.

L  116* f (Y/ Yn )  16 (2.5)

a  500[ f (X/ X n )  f (Y/ Yn )] (2.6)

b  200[ f (Y/ Yn )  f (Z/ Zn )] (2.7)

Donde la función está definida por partes para evitar una asíntota en t=0

 t1/3 t  (6 / 29)3

f (t)  1 4 (2.8)
 * (29 / 6) 2
* t  Re sto
3 29

Es considerado como uno de los modelos de color más precisos, porque comprende
todo el espectro de color incluso colores fuera del rango de la visión humana. Es un
espacio muy utilizado en programas de edición de imágenes, o cuando surge la
necesidad de especificar un color con mucha precisión. Para pasar de un espacio de
color al espacio CIE LAB es necesario el uso de una transformada de color. En
MATLAB® se encuentran funciones que calculan la transformada de color como
“makecform” y posteriormente se aplica dicha transformación a la imagen con la
función “aplycform” (mathworks).

32
Para ilustrar cómo es el espacio CIE LAB de la imagen de una gota de sangre se
propone transformar la imagen (a) de la figura 2.3 al espacio CIE LAB. Dicha figura
contiene las tres componentes del espacio CIE LAB.

(a) (b)

(c) (d)

Figura 2.3 Imagen de una gota de sangre (a) descompuesta en sus componentes del espacio CIE LAB: la
luminancia (b), el eje rojo verde (c) y el eje azul-amarillo (d)

2.1.3 Obtención de una imagen de grises mediante el análisis


de componentes principales

Cuando se utiliza una sola componente de color en el procesado de la imagen original se


está perdiendo información, ya que solo se utiliza una componente de las tres
disponibles. Para considerar todas las características disponibles, se requiere de una
combinación lineal de todas las componentes de color.

C   R R   G G   B B (2.1)

33
Automatización del análisis de la imagen de una gota de sangre coagulada

El valor de los pesos αR, αG, αB determinará la combinación óptima. El proceso para
obtener dichos pesos óptimos empieza con considerar un píxel “i” arbitrario. Cada píxel
se considera como un vector de tres componentes (Ri, Gi, Bi). El siguiente paso es
calcular los valores medios de cada componente.

1 1 1
R
N
R
i
i G
N
G i
i B
N
B
i
i
(2.2)

Se calcularán todas covarianzas y autocovarianzas para construir la matriz


tridimensional de covarianzas. La matriz de covarianza también se llama matriz de
dispersión.

  B  B  R  R 
1
Cbr  i i (2.3)
N i 1

 crr crg crb 


 
 c gr c gg c gb 
c cbg cbb 
 br (2.4)

Para obtener las características más importantes de la matriz de covarianza se calculan


los autovectores y los autovalores de dicha matriz. La tarea posterior al cálculo es la de
tomar el autovalor más grande y ver el autovector asociado. Dicho autovector consta de
tres componentes que serán los valores de los pesos αR, αG, αB. Usando dichos pesos se
combinan linealmente las componentes de color y se obtiene una imagen en escala de
grises, que contiene información de todo el espacio de color.

34
2.2 Métodos utilizados

2.2.1 Método del valor umbral. Otsu

Una herramienta central en aplicaciones de segmentación de imágenes es el método del


valor umbral (Gonzalez, Woods, & Eddins, 2009). Es simple de implementar y rápido.
El objetivo del método de Otsu es el de separar o extraer objetos y fondo. El resultado
es una imagen binaria en la que cada píxel vale o cero o uno. Como punto de partida se
toma el histograma de la imagen. El histograma indica la distribución de la intensidad
de los píxeles en la imagen. Si en la imagen se diferencias dos zonas, una clara y otra
oscura, esto se traduce en un histograma donde se aprecian también dos regiones. Los
picos del histograma indican la presencia de zonas homogéneas, los valles establecen
los umbrales de separación. Idealmente la imagen presentaría un valle profundo entre
dos picos, cada pico representaría el fondo y los objetos respectivamente. En la realidad
se pueden encontrar valles planos y/o enmascarados por ruido, consecuentemente,
resulta más difícil para el método determinar una separación entre picos de manera
automática. En el proyecto se trabaja con imágenes en las que la separación entre
objetos y fondo es bastante clara como ilustra la figura 2.4. El que el umbral se
denomina t y el nivel de gris i.

Figura 2.4 Imagen en escala de gises con su histograma a la derecha.

35
Automatización del análisis de la imagen de una gota de sangre coagulada

Consideremos que la imagen que se presenta en la figura 2.4 presenta L niveles de gris.
Ahora se supone que se separan los pixeles en dos clases, la clase 1 y la clase 2. Una
clase para objetos y otra para el fondo (IEEE, 1979). Se fija el umbral en el nivel t. El
primer paso es el cálculo de las probabilidades de cada clase y sus respectivos valores
medios.
t
1 t
q1 (t )   P(l ) (2.9) 1 (t )   l P(l )
q1 (t ) l 0
(2.11)
l 0
L 1
(2.10) 1 L 1 (2.12)
q2 (t )   P(l )
l t 1
 2 (t )   l P(l )
q2 (t ) l t 1

Se calculan las varianzas de ambas clases

1 t
 12 (t )   (l  1 (t ))2 P(l )
q1 (t ) l 0
(2.13)

1 L 1 (2.14)
 22 (t )   (l  2 (t ))2 P(l )
q2 (t ) l t 1

Para evaluar el rendimiento del método se debe definir un discriminante lineal, en este
caso la separabilidad entre clases (λ) que es el cociente (2.15) entre la varianza de clases
(σB2) y la varianza interna (σw2).

 B2 (t ) q1 (t )(1 (t )  T ) 2  q2 (t )( 2 (t )  T ) 2 (2.15)


 
 W2 (t ) q1 (t ) 12 (t )  q2 (t ) 22 (t )

Ahora se debe resolver un problema de optimización y tratar de encontrar un valor para


el umbral (t) tal que maximice la separabilidad entre clases (λ). El umbral óptimo que
maximiza λ es el mismo que maximiza σB2. Además siempre se cumple que la varianza
total (σT2= σw2+ σB2) se mantiene constante.

 B2 (t * )  max  B2 (t ) (2.16)
1t  L 1

 B2 (t )  q1 (t )(1 (t )  T ) 2  q2 (t )(2 (t )  T ) 2  (2.17)

 q1 (t )q2 (t )(1 (t )   2 (t ))2

36
La selección del umbral automático en un histograma de niveles de gris se ha abordado
desde el punto de vista del análisis discriminante. De hecho el umbral óptimo (t) es el
que maximiza el discriminante lineal. Los pixeles por encima del nivel t se
corresponderán con la gota y los pixeles por debajo se corresponderán con el fondo. Los
principales problemas de este método, suelen ser la presencia de un fondo no uniforme
o el ruido en la imagen. En las imágenes que se obtienen con un microscopio no suelen
ser imágenes ruidosas, pero si puede haber cambios de iluminación en el fondo, lo cual
conduzca a tener un fondo no uniforme.

El método de Otsu, trata al histograma normalizado como una función densidad de


probabilidad discreta. Se divide el histograma en dos partes, se calcula media y varianza
para cada parte de manera iterativa. La iteración se detiene cuando se maximiza el valor
de la varianza que hay entre las dos clases o zonas. Como el histograma está
normalizado, se obtiene un valor del umbral entre 0 y 1. Si se pretende utilizar este
umbral, en una imagen en escala de grises se deberá multiplicar por 255.

En el presente proyecto se exploraron varias posibilidades, entre ellas la de escoger a


priori un umbral global. Los umbrales globales escogidos a priori, solamente son útiles
cuando en el histograma se ven dos zonas claramente diferenciadas y además dichas
zonas se repiten en todas las imágenes. De todos modos si se diferencian dos zonas, el
programa decidirá correctamente un umbral que separe las dos zonas de manera
automática, no sería necesario que lo introdujese el usuario. Otra posible opción en la
que se trabajó fue implementar un entorno gráfico, como una “guide” de MATLAB®.
En la “guide” se implementó una barra deslizante, mediante la cual poder escoger el
umbral, de manera manual. Finalmente se optó por hacer uso de una de las funciones
que proporciona la librería de MATLAB®. La función “graythresh” fija un umbral sobre
el histograma de la imagen aplicando el método de Otsu de manera automática.

37
Automatización del análisis de la imagen de una gota de sangre coagulada

2.3 Operaciones morfológicas

Las operaciones de dilatación y erosión son fundamentales en el procesado morfológico


de imágenes. Muchos algoritmos están basados en estas operaciones. En una operación
morfológica, se toma un pixel y alrededor de éste se hace un procesado no lineal basado
en operaciones de máximos y mínimos.

La dilatación es una operación que hace crecer o engorda los objetos presentes en una
imagen binaria. El modo en que estos objetos engordan es controlado por un elemento
estructurante. Se suelen emplear elementos estructurantes que sean simétricos. La
dilatación además de engordar los objetos, si hay objetos cercanos puede unirlos, reduce
y elimina agujeros además los entrantes estrechos son rellenados. En el cálculo de la
dilatación se desplaza el elemento estructurante transpuesto y se calcula el supremo de
los píxeles bajo el mismo.

Y   B (X)  sup{ X b , b  B}  {Bx , x  X } (2.18)

 B (X)  X  B (2.19)

La erosión es una operación que encoge o adelgaza los objetos presentes en una imagen
binaria. Es la operación dual a la dilatación. El modo en que estos objetos adelgazan es
controlado por un elemento estructurante. La erosión además de adelgazar los objetos si
hay objetos pequeños pueden desaparecer y los salientes estrechos son eliminados. En el
cálculo de la erosión se desplaza el elemento estructurante y se calcula el ínfimo de los
píxeles bajo el mismo.

Y   B (X)  inf{X b , b  B*}  {z, Bz  X } (2.20)

 b (X)  X  B (2.21)

Los elementos estructurantes son matrices de ceros y unos que pueden adoptar forma de
diamante, disco, línea o rectángulo. Según la forma del elemento estructurante la
operación morfológica tiene un efecto u otro. En MATLAB® se pueden construir los
elementos estructurantes haciendo uso de la función “strel”, que recibe como parámetro
la forma deseada del elemento estructurante. Las posibles formas van desde el cuadrado
(square) hasta el disco (disk).

38
2.3.1 Apertura de imágenes.

La operación de apertura es una combinación de las operaciones de dilatación y erosión


(Gonzalez, Woods, & Eddins, 2009). Para realizar una apertura primero se realiza una
erosión y a continuación una dilatación. Se puede decir que la apertura es la dilatación
de una erosión (2.22).

B (X)   B  B  X  (2.22)

La apertura elimina salientes estrechos y objetos más pequeños que el elemento


estructurante, también suaviza contornos, rompe pequeñas uniones y elimina pequeñas
protuberancias. Es una operación útil para simplificar detalles y eliminar huecos.

La librería de MATLAB® contiene funciones ya programadas que realizan operaciones


morfológicas, no obstante, estas operaciones se realizan sobre imágenes en blanco y
negro, imágenes binarias que solo tienen valor cero o uno. En el presente proyecto se
aplica la apertura sobre una imagen en escala de grises, perteneciente a un espacio de
color. La imagen que se obtiene será umbralizada mediante Otsu. Cabe recordar que el
método de Otsu ofrece como resultado una imagen en blanco y negro. MATLAB®
cuenta con funciones que realizan operaciones morfológicas de apertura pero sobre
imágenes binarias, que son las que se obtienen después de umbralizar con Otsu. Estas
funciones se incluyen en MATLAB® y son fácilmente reconocibles porque empiezan
por “bw”, que es la abreviatura de imagen en blanco y negro. En concreto resulta de
interés el uso de la función “bwareaopen”.

Para mostrar el efecto de realizar operaciones de apertura sobre imágenes binarias, se


utilizará como ejemplo una imagen de una gota de sangre coagulada. Se presenta en la
figura 2.5 el resultado de aplicar una operación de apertura sobre una máscara obtenida
con el método del valor umbral. El valor mil de la apertura es elevado para que se
conserven los objetos grandes. Nótese que se ha actuado sobre el fondo de la imagen
eliminando los objetos pequeños del mismo.

39
Automatización del análisis de la imagen de una gota de sangre coagulada

(a) (b)

Figura 2.5 Máscara obtenida con el método de otsu (a) y el resultado de aplicar una operación de apertura
de valor mil (b)

Apertura de la imagen complementaria.

Realizar una apertura sobre la imagen complementaria permitirá rellenar los huecos que
hayan podido quedar en el interior de la gota (figura 2.6). La apertura de la imagen
complementaria es un cierre de la misma.

(a) (b)

Figura 2.6 Resultado de aplicar una operación de apertura de valor mil (a) y el efecto que se produce al
realizar un cierre de valor mil (b)

40
2.4 Separar gota y fondo.

No se puede pretender detectar las manchas blancas presentes en la gota si antes no se


ha separado correctamente el fondo y la gota. Se ha experimentado con diferentes
métodos, diferentes entradas y se han analizado los resultados obtenidos. Existen
distintos obstáculos cuando se procede a la separación del borde y gota, el obstáculo
principal es la iluminación no uniforme. Además otro punto a tener en cuenta, es el
hecho que las manchas que buscamos detectar y el borde tienen el mismo color, similar
al blanco. Si no se separa correctamente el borde se puede llegar a la confusión de
considerar el fondo como una mancha blanca. No es admisible considerar el fondo en el
cómputo del ratio blanco rojo de la gota de sangre. De manera intuitiva, si se pierden
todas las manchas blancas se obtiene una imagen de la que de manera automática, se
puede separar gota y fondo. El procedimiento que se aplicará será: realizar una apertura
a la imagen con la finalidad de abrir las manchas y que se fusionen con la gota. La
apertura de la imagen implica el uso de una operación morfológica de erosión, seguida
por una dilatación. La apertura está pensada para la eliminación de pequeños huecos.
Parece que la gota presente huecos en su interior. Mediante esta abstracción, se pretende
abarcar el problema de cómo identificar toda la gota. El operador morfológico de
apertura de imágenes resulta interesante si lo que se pretende es rellenar dichos huecos.
Si se pretende obtener un procesado rápido y eficiente, resulta inadmisible realizar esta
operación morfológica a todas las componentes de todos los espacios de color
estudiados, que son más de cinco. Con determinar la separación fondo gota en una de
las imágenes en escala de grises, serviría para todas las demás.

Para ilustrar el procedimiento se hará uso de tres diagramas que mediante tres pasos
explican el método para separar gota y fondo. En el primer paso (figura 2.7) del proceso
se parte de la imagen en color de la gota de sangre. La imagen en color se transforma al
espacio CIE LAB obteniéndose tres imágenes en escala de grises. En el proceso descrito
tan solo se escoge el eje rojo verde del espacio CIE LAB y se le aplica el método de
Otsu.

41
Automatización del análisis de la imagen de una gota de sangre coagulada

Eje rojo-
verde “a”
Imagen de la gota Transformación al Método del valor Imagen
Imagen en
de sangre en color espacio CIE LAB umbral. Otsu binaria
escala de
grises

Figura 2.7 Primer paso en el proceso de separar gota y fondo

En el segundo paso del proceso a la imagen binaria se le realizan dos operaciones


morfológicas, una apertura seguida de un cierre.

Imagen Imagen
Imagen Apertura de valor Cierre de valor
resultado de resultado
binaria 1000 1000
la apertura del cierre

Figura 2.8 Segundo paso en el proceso de separar gota y fondo

El tercer y último paso del proceso (figura 2.9) empieza con la imagen resultado del
cierre a la cual se le rellenan los huecos. Una vez rellenados los huecos ya se tiene una
imagen que se denomina máscara gota-fondo porque marca con blanco o valor uno la
gota de sangre.

Imagen
Rellenado de Máscara Imagen de la gota
resultado
huecos gota-fondo de sangre en color
del cierre

Figura 2.9 Tercer paso en el proceso de separar gota y fondo

42
2.5 Detección de manchas blancas

Una vez se ha definido con exactitud la gota, es decir la región de interés, el paso
ulterior es la detección de las manchas blancas presentes en la gota. En el punto
anterior, el punto 2.4, se explica el proceso para obtener la máscara que separa gota y
fondo. La detección de manchas blancas se resume a aplicar el método del valor umbral
a la imagen, pero solamente sobre el interior de la gota de sangre dejando fuera el fondo
de la misma. Para aplicar el método de Otsu (Gonzalez, Woods, & Eddins, 2009) basta
con llamar a la función de MATLAB® “graythresh”. Se obtiene un nivel umbral que es
el que se usará para pasar la imagen de entrada en escala de grises, a una imagen de
blanco y negro. La imagen en blanco y negro, también llamada imagen binaria, marcará
con valor uno o color blanco un pico del histograma y con valor cero o negro el otro
pico del histograma. En las imágenes que se analizan en el PFC, el resultado de aplicar
el valor umbral es una imagen, donde las manchas blancas tienen valor uno o color
blanco y el resto de la imagen valor cero o uno. En la figura 2.10 se halla la máscara que
marca las manchas blancas de la imagen analizada.

(a) (b)

Figura 2.10 Imagen de una gota de sangre (a) y la máscara que marca en color blanco las manchas de la
gota (b)

A partir de la máscara obtener el área que existe de blanco consiste en sumar todos los
píxeles de esta máscara (figura 2.10). La máscara solo puede tener valor o cero o uno,
así que si al valor máximo, que es uno, se le resta el valor de la máscara, el resultado

43
Automatización del análisis de la imagen de una gota de sangre coagulada

será la obtención de una máscara que marca todo aquello de color rojo en la gota. Esta
nueva imagen binaria obtenida, permite calcular la cantidad de rojo presente en la gota
sumando todos los pixeles con valor uno. La relación entre la cantidad de blanco y de
rojo es lo que en los resultados se llamará ratio. En la representación de las imágenes
resultado, se hará uso de la función “imoverlay” (Eddins, 2012) que permite solapar la
máscara sobre la imagen original. En este solape la máscara adopta un color, por
ejemplo verde y de este modo se puede determinar visualmente si dicha máscara está
detectando correctamente las manchas blancas.

2.5.1 Procesado de la imagen mediante interfaz gráfica

El programa MATLAB® dispone de una herramienta llamada GUI Builder (Graphical


user inteface builder), que ayuda en la tarea de la creación e implementación de
interfaces gráficas (GUI). Mediante esta herramienta, se puede elegir dónde situar los
menús desplegables, botones, barras deslizantes, así como zonas dónde dibujar
resultados. Para abrir esta herramienta, basta con teclear “guide” en la línea de
comandos de MATLAB® y aparecerá una ventana como la de la figura 2.11.

Figura 2.11 Entorno de desarrollo de interfaces gráficas de usuario (GUI)

44
Una vez creada la interfaz, se generan dos archivos. Un archivo .fig que contiene la
información de los objetos de la interfaz. Un segundo archivo .m, que contiene el
código con las variables y acciones que realizará la interfaz. Cuando se añade un nuevo
botón en la interfaz (GUI), automáticamente en el archivo .m se crea la función
“callback” asociada a dicho botón. Al pulsar el botón, se ejecutará aquello que indique
su “callback”. Existe una estructura llamada “handles”, que es dónde se guardan los
datos de los objetos. En las listas o menús existen variables almacenadas dentro de la
estructura “handles”, que informan al programador la opción de la lista o del menú que
está seleccionada.

La interfaz diseñada en el presente proyecto, cuenta con un botón cargar (figura 2.12),
el cual al ser pulsado, permite al usuario seleccionar una imagen que será dibujada en la
parte izquierda de la interfaz. La parte inferior cuenta con dos listas, una para indicar
cálculos a realizar y la otra lista para realizar operaciones con la imagen. Una vez
seleccionada en la lista la opción deseada, la operación será realizada al pulsar los
botones correspondientes. El resultado de la operación indicada será dibujado en la
parte derecha de la interfaz (figura 2.12). También se ha implementado una barra
deslizante para poder seleccionar un umbral global sobre la imagen cargada.

Figura 2.12 Ejemplo del aspecto de la interfaz gráfica (GUI) diseñada

45
Automatización del análisis de la imagen de una gota de sangre coagulada

3. Resultados

Después de describir los métodos que se han utilizado en el PFC, se han recopilado los
resultados desglosados de la presente memoria en los siguientes puntos:

 Punto 1: Comparación en la detección automática de manchas blancas, para un


patrón normal y para un patrón anormal.
 Punto 2: Puntos débiles del método.
 Punto 3: Exportación de los resultados a una hoja de cálculo.
 Punto 4: Implementación de una interfaz gráfica para la detección automática de
manchas blancas.

En el apartado de resultados, se presenta cómo se han tratado de alcanzar los objetivos


propuestos y el nivel de eficacia obtenido. Según los objetivos del proyecto, el resultado
esperado de procesar la imagen de la gota de sangre, es la obtención de una imagen que
marque en color blanco las manchas presentes en la gota. Para que resulte más gráfica la
representación de los resultados, se ha decidido pintar en color verde la máscara que se
ha obtenido, sobre la imagen original (Eddins, 2012). Haciendo uso de la máscara que
marca las manchas blancas, se obtiene la relación blanco rojo. Se busca estudiar si se
puede definir un umbral, de este ratio, a partir del cual considerar un patrón presente en
la gota como normal. Este ratio también puede resultar interesante en la determinación
de la evolución de un tratamiento. Queda por determinar si el hecho que entre dos
muestras a un mismo paciente, el ratio disminuya o aumente, tiene correlación con el
estado de salud.

46
(a) (b)

Figura 3.1 Imagen de una gota de sangre coagulada (a) y sus manchas marcadas en color verde (b)

La máscara resultado ha sido dibujada en verde sobre la imagen original. En este caso,
se observa que objetivamente se han alcanzado los objetivos que se pretendía. La
imagen presenta una cantidad importante de manchas blancas. Las manchas que tengan
un solo pixel, también computarán como objeto. El ratio blanco rojo de la gota y el
número de objetos o manchas que tiene la gota es:

Ratio= 20.88 Número de objetos= 3291

El resultado que se muestra (figura 3.1), es el resultado final. Para separar la gota del
fondo se precisa de resultados intermedios, como son la máscara que delimita la gota. El
procedimiento para obtener estas máscaras, se encuentra detallado en el punto 2.4. Para
ilustrar la separación entre gota y fondo, se pasará a procesar la imagen de la figura 3.2.

47
Automatización del análisis de la imagen de una gota de sangre coagulada

(a) (b)

Figura 3.2 Imagen de una gota de sangre coagulada (a) y el eje rojo-verde del espacio Lab (b)

El procesado de esta imagen, mediante operaciones de apertura, nos lleva a obtener la


máscara de la gota. La máscara (figura 3.3) delimita lo que es gota en color blanco y
marca en color negro lo que es fondo. Al solaparse con la imagen original se aprecia
mejor como prácticamente, se ha seleccionado toda la gota.

(a) (b)

Figura 3.3 Máscara que marca con color blanco la gota (a) y la superposición de dicha máscara sobre la
imagen original (b)

48
3.1 Comparación normal vs anormal.

En el punto 1.2 se habla del estado del arte del análisis de gotas de sangre donde se
reconocen patrones normales o sanos y patrones anormales o enfermos. Se analizarán
parejas de imágenes de gotas coaguladas. Como referencia, se toman dos tipos de
imágenes:

 Imagen con poca cantidad de rojo, la cual se cree que corresponde con un patrón
normal.
 Imagen con una cantidad apreciable de blanco, la cual se cree que corresponde
con un patrón anormal o positivo.

Cuanta más cantidad de manchas blancas y de mayor tamaño, se considerará que la gota
se corresponde con un patrón anormal.

3.1.1 Imágenes en campo oscuro.

Para la comparación, resulta importante que ambas imágenes sean similares. Ambas
están enventanadas por un círculo de color negro. El círculo ha sido eliminado en el
análisis mediante un umbral fijo. La aparición de este halo negro, es debido al uso de
una especie de diafragma en la captura de imágenes usando el microscopio en su opción
de campo oscuro. En la figura 3.4 se presentan las dos imágenes a comparar. A la
izquierda, en la figura 3.4 la gota coagulada con un patrón normal y a la derecha, una
gota coagulada con un patrón anormal.

49
Automatización del análisis de la imagen de una gota de sangre coagulada

(a) (b)

Figura 3.4 Gota con un patrón normal (a) y otra gota con patrón anormal (b). Muestras tomadas en campo
oscuro

Se analizará solamente lo que haya contenido dentro del círculo negro. A la luminancia
de la imagen se le aplica un umbral automático mediante el método de Otsu. Se obtiene
una imagen (figura 3.5) con dos posibles valores: Valor uno para aquello blanco y valor
cero para aquello rojo.

(a) (b)

Figura 3.5 Máscara del patrón normal (a) y del patrón anormal (b)

50
Después de aplicar el método, se ve que en la primera imagen, la de la izquierda (figura
3.5), el programa ha decidido asignar el valor uno a aquello que presenta color rojo.
Como se quiere que lo blanco, tenga valor uno, tomamos la imagen complementaria
(figura 3.6).

(a) (b)

Figura 3.6 Máscara transpuesta del patrón normal (a) y máscara del patrón anormal (b)

Tanto de la primera como de la segunda máscara (figura 3.6), se suman todos sus
valores para obtener el área de la máscara. El área de la máscara, se corresponderá con
el área de las manchas blancas de la imagen. El resultado obtenido se relaciona con el
área del color rojo y se obtienen los siguientes ratios.

Ratio Normal= 15.8488 Ratio Anormal= 39.0235

Se destaca el hecho que en el patrón normal no aparecen manchas blancas y en cambio


se tiene un ratio blanco rojo del 15%. El análisis de este tipo de imágenes ha resultado
sencillo, por el hecho de estar enventanadas dentro de un círculo negro y no presentan
fondo. Al ya haber una delimitación clara de la gota en sí no es necesario realizar las
operaciones morfológicas de apertura. De todos modos, es posible que dentro de la
ventana se observe parte del fondo. En ese caso, la manera de proceder sería eliminar el
halo negro y posteriormente con operaciones de apertura, eliminar el fondo. El caso
mencionado es un caso particular y no ha sido estudiado, debido a las pocas imágenes
que se disponían de gotas de sangre tomadas en campo oscuro.

51
Automatización del análisis de la imagen de una gota de sangre coagulada

3.1.1 Imágenes en campo claro.

La mayor parte de las imágenes con las que se ha trabajado y las de mayor resolución
eran las imágenes tomadas en campo claro. En el análisis de los resultados se estudia la
eficacia en determinar las manchas blancas de la gota, bajo diferentes imágenes de
entrada. Se analizará la pareja de imágenes de la figura 3.7, considerando que la imagen
de la izquierda se corresponde con un patrón normal o negativo y la imagen de la
derecha con un patrón anormal o positivo.

(a) (b)

Figura 3.7 Gota con un patrón normal (a) y otra gota con patrón anormal (b). Muestras tomadas en campo
claro

Ambas imágenes serán transformadas a los dos espacios de color bajo estudio,
posteriormente se aplicará la metodología explicada en el punto 2. Debajo de cada
imagen se indican los resultados obtenidos tanto para el ratio blanco rojo como para el
número de objetos. Se comentan los resultados y con qué imágenes de entrada se
obtiene mayor precisión.

52
3.1.1.1 Luminancia

El ojo humano presenta superficies fotosensibles especializadas en detectar la luz de una


imagen. La luminancia de una imagen trae consigo mucha información. El ojo humano
es más sensible a los detalles de luminosidad que a los de color. En los resultados
(figura 3.8) se aprecia que cuando se utiliza la luminancia como entrada se detecta hasta
el más mínimo punto blanco. El ratio obtenido para el patrón normal es elevado. Se está
detectando como blanco la decoloración de la gota, cuando se acerca al borde.

Ratio= 9.367 Ratio= 25,458

Numero de objetos= 1970 Numero de objetos= 4170

(a) (b)

Figura 3.8 Se toma la luminancia como entrada y se marcan las manchas blancas para el patrón normal (a)
y el patrón anormal (b)

53
Automatización del análisis de la imagen de una gota de sangre coagulada

3.1.1.2 Componente roja

La mayor parte de la imagen es roja, así que se prevé que la componente roja del
espacio RGB, no será una imagen de entrada correcta. A partir de los resultados
obtenidos, se descarta esta entrada. A priori, se observa en la figura 3.9, que ambas
imágenes tienen una cantidad de blanco muy dispar, y en cambio, el método interpreta
que son similares. Los ratios entre ambas imágenes son similares, el método del valor
umbral no proporciona los resultados deseados cuando la entrada es la componente roja.

Ratio= 22.731 Ratio= 20.483

Numero de objetos= 1306 Numero de objetos= 1789

(a) (b)

Figura 3.9 Se toma la componente roja como entrada y se marcan las manchas blancas para el patrón
normal (a) y el patrón anormal (b)

54
3.1.1.3 Componente verde

La naturaleza de las imágenes sugiere que la componente verde será una buena entrada.
¿Por qué resulta interesante la componente verde en una imagen que es prácticamente
roja y blanca? Porque este hecho, condiciona que los objetos se hallen muy
diferenciados, y al método del valor umbral le resulte fácil separar en el histograma los
dos picos de máxima varianza. Efectivamente, la componente verde es una entrada
correcta, para detectar las manchas blancas presentes en la gota. En la figura 3.10 se ve
como la detección que aparece en el borde es menor que en la luminancia.

Ratio= 1.838 Ratio= 11.438

Numero de objetos= 654 Numero de objetos= 2774

(a) (b)

Figura 3.10 Se toma la componente verde como entrada y se marcan las manchas blancas para el patrón
normal (a) y el patrón anormal (b)

55
Automatización del análisis de la imagen de una gota de sangre coagulada

3.1.1.4 Componente azul

Siguiendo con el razonamiento del punto anterior, la componente azul es también una
imagen de entrada de notable interés. Es mucho más conservadora y detecta manchas
blancas fácilmente observables. Las manchas de la parte inferior izquierda de la imagen
(b) en la figura 3.11 no han sido detectadas. Este fallo se comete en la separación de la
gota y el fondo produciendo una exclusión de ciertas manchas blancas. Dicho fallo se
comenta en el punto 2 de los resultados. Que se detecten pocos objetos, es un modo de
cometer pocos errores cuando se extraigan características posteriormente. Parece que el
análisis de la componente azul, sea con la que se obtiene una mayor precisión.

Ratio= 0.105 Ratio= 5.300

Numero de objetos= 149 Numero de objetos= 889

(a) (b)

Figura 3.11 Se toma la componente azul como entrada y se marcan las manchas blancas para el patrón
normal (a) y el patrón anormal (b)

56
3.1.1.5 Eje “a”

El eje “a” indica la posición de la luminancia entre el rojo y el verde. Como la imagen
presenta poco verde y mucho rojo, el resultado obtenido es bastante detallado aunque no
del todo satisfactorio. En algunos casos resulta incluso excesivo. La diferencia entre el
ratio del patrón normal y el anormal es notable (figura 3.12) aunque el número de
objetos sea similar. De nuevo, en el patrón normal se detectan más de dos mil objetos, y
en cambio la imagen no presenta manchas.

Ratio= 7.047 Ratio= 25.165

Numero de objetos= 2270 Numero de objetos= 2442

(a) (b)

Figura 3.12 Se toma el eje “a” como entrada y se marcan las manchas blancas para el patrón normal (a) y
el patrón anormal (b)

57
Automatización del análisis de la imagen de una gota de sangre coagulada

3.1.1.6 Eje b

El eje “a” indica la posición de la luminancia entre el azul y el amarillo. Las imágenes
analizadas no presentan tonalidades ni azules ni amarillas, aplicar el método sobre este
eje se prevé de poca utilidad. El resultado obtenido no es satisfactorio, porque en el caso
del patrón normal, se detectan muchas manchas blancas (figura 3.13) y no se
corresponde con la realidad. Se puede rechazar esta entrada como una fuente fiable.

Ratio= 17.423 Ratio= 32.895

Numero de objetos= 2180 Numero de objetos= 2299

(a) (b)

Figura 3.13 Se toma el eje “b” como entrada y se marcan las manchas blancas para el patrón normal (a) y
el patrón anormal (b)

58
3.2 Puntos débiles

En la obtención de la máscara de la gota, es posible que haya una pérdida de


información. En las imágenes en las que no se observa fondo, si intenta separar el fondo
de la gota, el resultado no es el esperado. El punto débil, el punto crítico del método es
la obtención de la máscara de la gota o lo que es lo mismo, la separación de la gota y el
fondo. En el caso de encontrarnos con imágenes que no presentan fondo, el método
resultaría aún más sencillo ya que se debería omitir el paso de obtención la máscara de
la gota y se procedería directamente, a aplicar el método del valor umbral. La posible
solución de esta debilidad, puede ser abordada mediante el uso de dos métodos
diferentes para cada caso.

(a) (b)

Figura 3.14 Detalle de la pérdida de información cuando se obtiene la máscara (b) que marca toda la gota
de sangre (a)

Se observa claramente como la pérdida de información ha tenido lugar en la parte


inferior izquierda de la gota (figura 3.14). Este hecho es debido a la iluminación no
uniforme de la imagen y provoca que no se tengan en cuenta una cantidad notable de
manchas blancas.

59
Automatización del análisis de la imagen de una gota de sangre coagulada

3.3 Exportar a Excel

Nombre Ratio lumi Ratio R Ratio G Ratio B Ratio LAB(a) aRatio LAB(b) Objetos LumiObjetos Red Objetos Green
Objetos BlueObjetos LAB(a)
Objetos LAB(b)
gota_005 21,1402324 8,81047482 9,48405638 1,66476045 27,2067729 19,9700201 1973 1839 1037 310 1682 2279
gota_006 25,4577247 20,482835 11,4382029 5,3001053 25,1646097 32,8950593 4170 1789 2774 889 2442 2299
gota_008 17,6559984 21,5122196 7,78426978 4,5102714 20,884264 45,6627666 5836 3699 2204 950 3291 3256
gota_009 11,2997023 12,7822199 2,38296347 0,20479355 9,6179682 17,5785523 5433 2776 2189 359 3520 3457
gota_011 9,36656254 22,731387 1,83796307 0,10531914 7,04657862 17,4227858 1970 1306 654 149 2270 2180

Figura 3.15 Hoja de cálculo en la que se almacenan los resultados obtenidos

Cuando se procesan todas las imágenes de una carpeta, se guardan todos los resultados
en una hoja de cálculo (figura 3.15). En las primeras columnas, se encuentran los
valores obtenidos del ratio blanco rojo para el método tomando diferentes imágenes de
entrada. En las columnas posteriores, se indican los valores del número de objetos que
tiene cada gota. Con estos datos puede hacerse un procesado posterior y establecer por
ejemplo, un ratio medio a partir de las dos entradas que hayan resultado más veraces.
De las dos entradas que se han considerado mejores, se puede establecer una
comparación (figura 3.16) de los ratios que se obtienen con cada una de las entradas.

14

12

10

8
Ratio G
6 Ratio B

0
gota_005 gota_006 gota_008 gota_009 gota_011

Figura 3.16 Gráfico de barras comparando los ratios para diferentes imágenes de entrada

60
3.4 Análisis mediante una interfaz gráfica

Al inicio de la ejecución, la interfaz presenta el aspecto que se muestra en la figura 3.17.


El primer paso es pulsar el botón cargar para leer imágenes en formato .jpg. Al pulsar
aparece una ventana de diálogo para seleccionar una imagen. Las imágenes pueden
presentar distintas resoluciones.

Figura 3.17 Interfaz gráfica para el procesado automático de las imágenes

61
Automatización del análisis de la imagen de una gota de sangre coagulada

Una vez cargada la imagen (figura 3.18), se muestra en la parte izquierda de la pantalla.
Ahora ya se pueden realizar los cálculos que fije el usuario.

Figura 3.18 Interfaz gráfica después de haber procesado una imagen

La interfaz fue la primera opción barajada para la automatización del análisis las
imágenes de gotas de sangre. Posteriormente se opta por ofrecer una solución más
automática y con una intervención mínima por parte del usuario. Cuando se implementa
la interfaz aún no se ha avanzado en la separación de gota y fondo. Esta es la razón por
la que en la parte derecha de la figura 3.18, se observa cómo se está detectando el fondo
de la imagen y se está interpretando como mancha blanca.

En la lista de la izquierda (figura 3.18) se definen cálculos como como el porcentaje de


área blanca o el número de zonas blancas. En la lista de la derecha (figura 3.18) se
pueden seleccionar las siguientes opciones que se activarán al pulsar el botón dibujar:

62
 Histograma
o Dibuja el histograma de una componente fijada a priori.
 Histograma Mascara
o Representa el histograma de la componente roja multiplicada por un
umbral global.
 Marcar blanco fijo
o Mediante un umbral global fijado a priori, calcula una máscara y la
marca en rojo sobre la imagen original.
 Dibujar centro
o Calcula el centro de la imagen y dibuja un rombo verde en el mismo.
 Marca zonas slider
o Selección del umbral global mediante un slider, que permite 20 posibles
valores.
 Marca blanco automático
o Obtiene la máscara que definen las manchas blancas y se marca lo
calculado en color rojo, sobre la imagen original.
 Marca blanco optimizado
o Obtiene la máscara que definen las manchas blancas, mediante un
método optimizado y se marca lo calculado en color rojo sobre la imagen
original.

La interfaz se encuentra aún en desarrollo y puede ser ampliada en futuros proyectos.

63
Automatización del análisis de la imagen de una gota de sangre coagulada

4. Líneas futuras

A continuación se van a definir características que resulten interesantes para futuras


investigaciones. La ausencia de imágenes variadas y de calidad es el punto más
conflictivo. Establecer una base de datos ayudaría a evaluar la fiabilidad del método.
Cabe destacar que la colaboración con el departamento de microbiología de la facultad
de agrónomos es un nexo fundamental para el desarrollo del proyecto.

Es posible que este análisis de la coagulación de una gota pueda resultar importante en
la determinación de factores de riesgo, o si existe alguna relación con algunas
enfermedades. Resultaría atractivo tomar muchas muestras de pacientes con las mismas
patologías. Después de la toma de muestras, otro punto crucial es la adquisición de las
imágenes. Ver toda la gota en una imagen es lo que se busca en el presente proyecto.
Aunque es posible que en un futuro se vea que existen otros puntos a estudiar, y se haga
necesario el análisis de imágenes en detalle. Por ello, si se pretende establecer una
buena base de datos, se cree conveniente tomar imágenes de toda la gota y también de
regiones en detalle.

El presente proyecto, se centra en el análisis de dos características de las manchas


blancas. Otras características susceptibles de ser analizadas son:

 Determinar si hay manchas concentradas en regiones o esparcidas por toda la


gota.
 Coloración de los bordes.
 Formas irregulares.
 Manchas unidas tomando forma de rama de árbol.

De una gota de sangre se obtiene una muestra, esa muestra a su vez consta de cinco a
ocho gotas de tamaño decreciente que se denominan capas. Se propone calcular si en las
últimas capas encontramos manchas blancas y las siguientes características.

 Tamaño y circularidad.
 Gran número de manchas pequeñas y su posición.

64
4.1 Análisis de la mancha blanca con mayor área

Analizar la mancha blanca más grande presente en la gota de sangre puede resultar
efectivo si se busca simplificar en análisis. Una imagen puede llegar a tener dos mil
manchas blancas. Muchas de ellas pueden tratarse de ruido, manchas pequeñas o
manchas que resultan de interés. Se pretende pasar de analizar todas las manchas
blancas, a analizar sólo la de mayor tamaño. Cuando lo que se procura es determinar el
estado de salud o la evolución del tratamiento de un paciente, resulta vital que se
cometan el menor número posible de errores. Se eligen las imágenes de la figura 3.4. Se
procesa la máscara para obtener los objetos que tienen un tamaño igual al área máxima
o difieran en cien píxels.

(a) (b)

Figura 4.1 Objetos de mayor área que han sido detectados en las imágenes de campo oscuro para un
patrón normal (a) y anormal (b)

En el caso de la imagen izquierda (figura 4.1), se corresponde con un patrón normal en


el que las manchas blancas son ausentes y en cambio, el método del valor umbral
detecta la zona negra que hay en el interior de la gota. Puede dar lugar a
malinterpretación ya que en realidad no se trata de una mancha blanca.

65
Automatización del análisis de la imagen de una gota de sangre coagulada

4.2 Análisis de las redes de fibrina e interconexión de


las manchas

La red de fibrina es la red que cohesiona y une las áreas rojas. A la izquierda, en la
figura 4.2, se observa como desde el centro hasta los bordes se va desarrollando una
especie de red, de un color rojo más oscuro. Es importante determinar si existe dicha red
y su grosor. En la imagen de la derecha (figura 4.2) se ha roto dicha red y empiezan a
aparecer las manchas blancas.

(a) (b)

Figura 4.2 Ejemplo de una gota donde se aprecia la red de fibrina (a). Ejemplo de una gota con la red de
fibrina rota (b)

Una vez se ha roto la red de fibrina, la gota empieza paulatinamente a perder cohesión.
La rotura de esa cohesión hace que las manchas blancas se vayan uniendo y haciéndose
más grandes. Es posible que ante una mejoría, las manchas se hagan más pequeñas y
pierdan la conexión de las unas con las otras. Es importante saber si en la gota tenemos
manchas blancas interconectadas entre sí que tengan valores de área elevados, o si por
el contrario, las manchas son pequeñas y están diseminadas por toda la gota.

66
4.3 Determinar la posición de las zonas blancas

La posición en la que se halle la mancha también podría resultar de interés. Inicialmente


se planteó abordar la determinación de la posición, midiendo directamente la distancia
del objeto al centro de la imagen. La medida que se hubiera obtenido serían una
cantidad de píxeles. La misma imagen, con menos resolución, tendría otra distancia
referenciando el mismo objeto. Así que surgió la necesidad de establecer una medida
relativa, una medida que no dependiese de la resolución de la imagen, que fuese relativa
a la misma.

Se establece que la distancia desde el borde al centro de la imagen se fija como el cien
por cien de la distancia. A continuación, se mide la distancia desde cada mancha blanca
hasta el centro. El cálculo de la distancia mancha blanca respecto distancia al borde de
la imagen es inmediato. Cabe destacar que esta medida se realiza sobre los centroides de
las manchas blancas. Finalmente se descartó este cálculo en los resultados, porque
aunque no requiere un alto grado de dificultad, sí se genera un gran volumen de datos.
Se incluye en las líneas futuras para ser implementado en nuevos proyectos.

67
Automatización del análisis de la imagen de una gota de sangre coagulada

4.4 Patrones de coagulación.

La documentación existente es mínima o casi nula. Atendiendo a la bibliografía


aportada por Rosa Lopez Monís, existen una serie de patrones que pueden aparecer en
la gota de sangre coagulada:

- Manchas blancas circulares en el centro de la gota sobre un fondo negro.


- Borde de la gota irregular se asemeja a la forma de una medusa.
- Rayas blancas finas que confluyen hacia el centro.
- Anillos concéntricos muy marcados.
- Falta de circularidad de la gota.

Figura 1.11 Posibles patrones particulares que pueden darse en una gota de sangre coagulada

Falta por precisar si existe una relación entre la aparición de estos patrones y la
incidencia de enfermedades o factores de riesgo. Por ejemplo, estudiamos un patrón y
obtenemos:

- Manchas blancas de baja excentricidad.


- Distancias relativas al borde similares.
- Zonas blancas de poca área y mucho perímetro.

Se deduce que se estaría estudiando un patrón del tipo rayas blancas finas que confluyen
hacia el centro. El establecer una base de datos de imágenes que presenten este patrón
mencionado, resulta clave si se quiere fijar las características que presenta un patrón
determinado.

68
5. Conclusiones

Las imágenes de gotas de sangre coaguladas no son unas imágenes fáciles de conseguir.
Se requiere de un microscopio y de una técnica específica para la obtención de las
muestras. Afortunadamente, la Universitat Politécnica cuenta con laboratorios donde es
posible obtener imágenes en un microscopio. Todas las imágenes presentan una
naturaleza similar, el fondo es blanco, la gota es roja y las mancha en el interior de la
gota son blancas. A su vez cada imagen tiene unas características singulares, haciendo
que el análisis de las imágenes, sea un instrumento didáctico donde se aplican conceptos
de tratamiento digital de imágenes. En el proyecto se abordan conceptos como la
segmentación de imágenes, los espacios de color y las operaciones morfológicas, sin
duda pilares básicos del tratamiento digital de imágenes. Una vez separada la gota del
fondo, se detectan las gotas blancas de la gota de sangre. Este análisis puede llevarse a
cabo de forma paralela junto con una investigación. Es ambicioso llevar a cabo la
investigación con pacientes enfermos y mediante el método científico, tratar de
determinar si existen patrones que se repiten entre los pacientes de una misma
enfermedad. Otro punto clave en la utilidad del análisis, es el hecho de poder establecer
una correlación entre la coagulación de la sangre y la evolución de un tratamiento. El
presente proyecto ha expuesto la automatización del análisis de unas imágenes poco
estudiadas y ha establecido una línea de investigación, para el desarrollo de futuros
proyectos.

69
Automatización del análisis de la imagen de una gota de sangre coagulada

6. Bibliografía y referencias

 Aguirre, F. G. (2011). TEST H.L.B.O. EDICIONES ALBORES.

 Arenas, C. E. (2010). Biologia celular e histología médica tejido conjuntivo.


Obtenido de facmed.unam.mx:
http://www.facmed.unam.mx/deptos/biocetis/PDF/Portal%20de%20Recursos%2
0en%20Linea/Apuntes/tejido_conjuntivo.pdf

 Bolen, H. L. (1952). The blood pattern in pre-symptomatic malignancy of the


gastrointestinal tract. The American Journal of Digestive Diseases.

 Bolen, H. L. (November 1950). Diagnostic value of the blood pattern in cancer.


The American Journal of Surgery, Volume 80 Issue 5 Pages 505–513.

 Bradford, R. W., & Allen, H. W. (1997). Oxidology the Study of Reactive


Oxygen Species (Ros) and Their Metabolism in Health and Disease. Bradford
Foundation.

 Eddins, S. (2012). mathworks.com. Retrieved from


http://www.mathworks.com/matlabcentral/fileexchange/10502-image-
overlay/content/imoverlay.m

 Gonzalez, R. C., Woods, R. E., & Eddins, S. L. (2009). Digital Image


Processing Using MATLAB, 2nd ed. Gatesmark Publishing.

 Hawk, B. O., Thoma, G. E., & Inkley, J. J. (1951). An Evaluation of the Bolen
Test as a Screening Test for Malignancy. American Association for Cancer
Research.

 Health, U. N. (n.d.). Pubmed. Retrieved from


http://www.ncbi.nlm.nih.gov/pubmed/?term=blood+pattern+bolen

 IEEE. (1979). IEEE TRANSACTIONS ON SYSTEMS, MAN, AND


CYBERNETICS, VOL. SMC-9, NO. 1. Retrieved from ieeexplore.ieee.org:
http://web-ext.u-aizu.ac.jp/course/bmclass/documents/otsu1979.pdf

70
 mathworks. (n.d.). www.mathworks.es. Retrieved from
http://www.mathworks.es/es/help/images/converting-color-data-between-color-
spaces.html

 Onairos. (s.f.). Onairos.es. Obtenido de


https://www.google.es/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&ved=0
CCMQFjAA&url=http%3A%2F%2Fwww.onairos.eu%2Fmodules%2Fplblog%
2Ffrontent%2Farticulos%2FInvestigacion_Interpretacion_del_estudio_microsco
pico_de_la_sangre_Trino_Soriano.doc&ei=l4P_U_37CsPA0Q

 Vaughn, A. M., Metzner, W. R., & Annan, C. M. (1952). An evaluation of the


bolen blood pattern test for detecting cancer. The American Journal of Surgery.

71
http://articlesofhealth.blogspot.mx/2008/08/que-es-el-pleomorfismo-y-la-
nueva_30.html

Saturday, August 30, 2008


QUE ES EL PLEOMORFISMO Y LA NUEVA BIOLOGIA BY FEDERICO
ITUARTE

QUE ES EL PLEOMORFISMO Y LA NUEVA BIOLOGIA

AUTOR: Federico Ituarte, Microscopista Asociado de la Nueva Biología del Dr.


Robert O. Young ©

La teoría de Günther Enderlein dice que la base de toda enfermedad se deriva del
pleomorfísmo, teoría en la que específicos tipos de bacteria y hongos pueden cambiar y tomar
formas múltiples en su ciclo de vida. Una analogía sería el ciclo de vida de una mariposa o su
metamorfosis que va en etapas de larva a pupa y a mego.

Claude Bernard, fisiólogo francés, también creía que el germen no es nada y el terreno lo es
todo, de ahí que la bacteria o hongo externa o pleomorfica, puede llegar a causar enfermedades
únicamente si se les permite crecer en un terreno no sano (ácido).

Técnicamente el término “terreno” describe el ambiente interno del cuerpo, como lo es ácido,
alcalino o con baja oxigenación conocido como “rouleaux” una palabra francesa que significa
rollo, o también se le conoce como sangre pegajosa. (la sangre tiene un ph de 7.365, eso es
ligeramente alcalino, cuando ese nivel comienza a bajar, volviéndose más ácida, la carga
negativa de la membrana celular en los glóbulos rojos “electrones”, se neutraliza, haciendo que
los glóbulos rojos se peguen formando rollos de cinco o más glóbulos rojos, o agregaciones de
eritrocitos).

En contraste la medicina tradicional occidental, enseña y practica las doctrinas de Louis Pasteur,
la teoría de Pasteur puso los cimientos de la microbiología médica occidental, una doctrina
científica basada en el monomorfismo, eso quiere decir que todas las enfermedades o malestares
son causadas por microbios externos, no cambiantes, con una sola forma, monomórficos que
invaden el cuerpo. La idea de tipos normales de bacteria, o tipos específicos de bacteria que
causan especificas enfermedades fue aceptada ampliamente por la medicina occidental a
principios de 1900 y esa misma idea fue adoptada por el complejo americano de la industria
médica, como la columna de la medicina moderna. Un negocio de trillones de dólares anuales, en
donde entran las compañías farmacéuticas, la American Medical Asociation, compañías de
seguros, la FDA, hospitales y centros de investigación.

Esta teoría dio lugar al desarrollo del primer antibiótico (penicilina) en 1940, durante 40 años la
mayoría de las infecciones bacterianas han sido tratables, pero ciertos tipos no comunes de
bacterias ya han desarrollado suficiente fuerza al grado de que son intratables, es decir son
pleomorficas. La bacteria común que causa neumonía, infecciones en los oídos a los niños y
muchas otras enfermedades están evolucionando o cambiando a formas intratables por ningún
medicamento conocido, amenazando con entrar a una fría era postantibióticos, la cual se traduce
en un desastre médico.

En febrero 20 de 1994 se publicó un artículo en un periódico de Salt Lake “The Desert News”, el
encabezado decía “Antibióticos perdiendo terreno contra la bacteria”, una fuerte resistencia se
esta desarrollando rápidamente, amenazando con un desastre en el área de la medicina” por Paul
Raeburn un editor de ciencias. En este artículo Alexander Tomasz, de la universidad Rockefeller
en NY, dijo “en el mundo postantibioticos, las infecciones más simples podrán escalar
rápidamente hacia enfermedades fatales, mucha gente se pregunta que va a pasar, es
impredecible cuando, y las consecuencias nadie las conoce, pero el número de muertes es
considerablemente alto”.

El Dr. Mitchell Cohan, del centro de control de enfermedades dijo “es potencialmente un
problema serio y extremadamente fuerte, ciertas bacterias como los enterococcus que causa
infecciones en las heridas han desarrollado fuerza, ya son resistentes al medicamento
vancomiosin y a cualquier tipo de antibiótico conocido. La epidemia se ha esparcido rápidamente
con la forma no tratable enterococcus en la ciudad de NY, esta fuerza intratable no estaba
presente en 1989, pero en 1992 fue la responsable del 59% de las infecciones. Según Alexander
Tomasz, si llegas a tener la infección, quedas en las manos del todo poderoso.

Usando mi microscopio de contrastes de fase, analizando las células vivas (como el Dr.
Robert Young lo hace quien me capacitó y enseño la técnica), he visto en la sangre, a nivel
celular, estas formas de bacteria y hongos pleomorficos evolucionando y cambiando, he visto por
días estos microbios anaeróbicos (organismos que viven y sobreviven en azúcar) alargarse y
volverse patogénicos, y en algunos casos cambian de forma, de bacteria a hongo dependiendo
completamente del terreno.

Enderlein también observo a nivel celular estos cambios pleomorficos de bacteria y hongos en
la sangre, el notó que cuando las bacterias eran pequeñas estaban sanas, en este estado el las
llamo simbions, que quiere decir saludable para el cuerpo, como simbions, estas bacterias
trabajan y ayudan al cuerpo, pero cuando crecen y se alargan debido al terreno también se
vuelven patógenas, cambiando a bacteria y en algunos casos a hongo. En esta etapa Enderline se
refiere a ellas como endions. Su descubrimiento más profundo, fue que ciertas leyes biológicas
gobiernan el crecimiento de microorganismos patológicos dentro del cuerpo humano y que existe
una forma sana y una no sana de cada germen, probando así la variabilidad de las bacterias y
hongos, y el concepto del pleomorfismo.
Esto me ayuda a entender como es que en la sociedad de hoy en día vemos bacterias y hongos
con una amplia resistencia, que las hace intratables por ningún medicamento o antibiótico
moderno.

Tengo la fuerte impresión de que las enfermedeades no se derivan únicamente de “ataques”


exteriores de bacterias, como Pasteur, la American Medical Asociation, las compañías
farmaceuticas y otros creen, más bien son el resultado de que el cuerpo huésped cambia de un
estado sano de balance y neutralidad, hacia un estado de enfermedad (ácido).

Douglas Hume, hace una observación muy buena en su libro Bechamp or Pasteur?A Lost
Chapter in the History of Biology citando una observación de Florence Nightingale, “no existen
enfermedades específicas, sino condiciones específicas de una enfermedad”. No me
sorprende que muchas de las grandes ciudades se hayan convertido en “albercas” de epidemias y
enfermedades. Los verdaderos predecesores de Enderline fueron los fisiólogos Claude Bernard,
ya mencionados, y el brillante doctor, químico y farmacólogo Antoine Bechamp. Bechamp
estaba en desacuerdo con Pasteur por su doctrina científica basada en el monorfismo, 30 años
antes del auge del monorfismo, Bechamp había descubierto pequeños gránulos moleculares en
las células del cuerpo de animales que cambiaban forma y tamaño, estos podían desarrollarse en
bacteria y hongos que producen enfermedades, y finalmente en efermedades crónicas. El llamo a
estos gránulos fermentos pequeños o microzymas, la microzyma es un fermento, un ser vivo
organizado capaz de multiplicarse, transformarse en enfermedad y comunicar enfermedad. En un
estado neutro de salud, las microzymas del organismo actúan en armonía, y las cosas suceden en
una forma natural de un proceso de fermentación, pero en la condición de enfermedad los
microzymas no actúan en armonía, la fermentación es alterada, y la microzyma cambia su
función o se vuelve anormal debido a la modificación del terreno. Bechamp por lo tanto
soportaba el concepto del pleomorfismo (muchas formas), teoría científica que dice que
específicos tipos de bacteria y hongos pueden cambiar y tomar formas múltiples durante su ciclo
de vida. Estas bacterias y hongos han estado en nosotros desde hace muchísimo tiempo, de hecho
los egipcios entendían los efectos devastadores de las bacterias y hongos en el cuerpo, por eso
sacaban los órganos internos incluyendo el cerebro, antes de momificar y guardar en sus tumbas
los cadáveres.

La Dra. Virginia Livingston-Wheeler (quién estudió con Enderline), llamó a estas bacterias y
hongos Progenitor cryptocides, haciendo referencia a las mismas bacterias y hongos que los
científicos han encontrado en las tumbas egipcias. Gaston Naessens lo llamo el “ciclo del
somatid”, el Dr. Robert Young lo llama “enfermedad de la pelota de ping-pong”, pues visto
con el microscopio en la fase de contrastes, parecen pelotas blancas de ping-pong, en la mayoría
de las veces rodeadas de un halo negro de bacteria y simbions (cuando vengas a México te lo
muestro en vivo, y comparamos con sangre alcalina, por ejemplo la mía), todos están
describiendo la misma cosa, bacteria y hongos, sólo que cada quién le puso un nombre distinto,
sin embargo todos están confirmando la doctrina científica del pleomorfismo que Bechamp
observó cien años atrás.

El Dr. Robert Young adoptó el punto de vista médico de Bechamp y Enderlein, la doctrina
científica del pleomorfismo es real. Somos un cuerpo de bacteria y hongos, cuerpos
anaeróbicos que viven, crecen y sobreviven en azúcar. Viven en armonía con nosotros cuando
estamos comiendo y viviendo saludablemente, sin embargo existe un potencial de que las
bacterias se conviertan en dañinas cuando el terreno donde viven se altera, esta alteración en el
terreno es fomentada por dietas altas en carbohidratos complejos, dietas altas en azúcares, frutas,
jugos de fruta, sucrosa, miel, endulzantes como maple y extracto de maíz, agua contaminada,
aire contaminado, la destrucción y el estrés de una flora intestinal sana e intestinos delgado y
grueso por antibióticos y otros medicamentos.

Al entender la doctrina del pleomorfismo y el terreno del cuerpo, entiendes porqué estamos
enfermos y cansados, una vez que entendemos porque estamos enfermos y cansados, es cuando
podemos comenzar a hacer los cambios necesarios en nuestros estilos de vida, de esta manera
regresamos nuestros cuerpos a un estado de armonía y balance.

Al observar la sangre bajo la fase de contrastes, he visto lo que Becham y Enderlein describieron,
este tipo de análisis de células vivas también es usado en biología marina para observar vida
marina con membranas frágiles, este microscopio de contrastes de alta potencia puede
magnificar los objetos hasta 20,000 veces su tamaño normal, permitiendo a uno ver clara y
exactamente, virus, bacteriales a detalle, formas de parásitos y hongos en la sangre. El
espécimen de sangre es iluminado por un condensador especial de fase de contrastes, los objetos
en el campo de visión se muestran como cuerpos iluminados en un fondo negro o gris, dando una
calidad de imagen superior. De esta forma puedo ver también los glóbulos rojos y blancos, así
como su condición, colesterol, protoplasma, metales, trombosis, deficiencia de oxígeno, fibrosis,
lípidos no digeridos y parásitos en una gota de sangre viva.

La medicina tradicional, no analiza la sangre viva, al manchar la sangre con químicos la están
matando, el químico es levantado por la célula y el citoplasma, enfatizando la membrana celular
y el núcleo, pero esto mata a todos los microorganismos que viven, se mueven, se alimentan y
están presentes en la sangre, volviéndose invisibles. En consecuencia quienes observan la sangre
muerta se refieren a estas formas como artefactos, microsomas y no ponen atención alguna al
importante rol que juegan en el desarrollo de enfermedades y malestar. Probablemente una de las
cosas más impactantes que he visto, es el crecimiento de bacteria y hongos en una gota de sangre
fresca; si la sangre muere en el porta objetos en dos horas, el donador está muy enfermo, si la
sangre vive en el porta objetos por varios días el donante está sano. Al observar la sangre viva,
directamente del portaobjetos, proyectada en video, uno puede realmente ver la bacteria y
hongos, y algunas veces parásitos alimentándose y creciendo mientras la sangre pierde sus
nutrientes y oxígeno.

Como sabes las bacterias y los hongos son anaeróbicos, viven del cuerpo, gracias a la glucosa en
la sangre, hemoglobina rica en hierro, tejidos, órganos, productos de desperdicio y mueren en la
presencia de oxígeno. Una de las experiencias más satisfactorias para mi, es cuando observo la
sangre del mismo donador que estaba lleno de bacteria y hongos bajo el microscopio con fase de
contrastes, y ver que las bacterias patógenas y hongos se han reducido en gran número, o han
sido completamente erradicadas.

El pleomorfismo también es esencial para entender el cáncer y su cura. ¿Cómo es que comienza
el cáncer? La mayoría de nosotros iniciamos nuestras vidas como seres sanos, pequeños bebes
normales, conforme envejecemos comenzamos a estresarnos por nuestras dietas, nuestras
emociones, lesiones físicas, el aire que respiramos, el agua que bebemos, estilos de vida,
matamos nuestra flora intestinal saludable en el intestino delgado y grueso con el uso de
antibióticos y otros medicamentos. Dejamos de respirar correctamente, causando depravación de
oxígeno, nos aceleramos, volvemos más agresivos y con el paso de los años la bacteria y los
hongos se acumula constantemente. Las bacterias y hongos se alimentan de la glucosa en la
sangre, y arrojan sus productos de desperdicio que básicamente es ácido aldehído (formol),
etanol, alcohol, gas de dióxido de carbono, metanol y ácido láctico que va directo al flujo
sanguíneo causando envenenamiento de la sangre, lo cual nos hace sentir enfermos y cansados. A
esta altura el terreno de la sangre se compromete, o está fuera de balance, dejamos de tener la luz
interna, si el proceso continua sin ponérsele atención, el estado de envenenamiento empeora, y
pasa dentro de los tejidos, órganos, sistema nervioso central, estructura ósea, sistema linfático y
médula ósea, hasta que las bacterias se convierten en hongos, y los hongos se convierten en
moho tomando parte o todo el cuerpo.

Si le preguntas a tu médico que te explique el cáncer en una palabra, ¿que te diría?

Déjame explicarte el cáncer como lo ve el Dr. Young, “es mi punto de vista personal, que el
cáncer no es nada más que moho. Imagina tu cuerpo como si fuera una barra de queso crema,
deja el queso crema por un día fuera del refrigerador, comenzarás a ver moho verde formándose
en las esquinas, puedes quitar el moho verde rebanando una sección, pero al siguiente día
volverá a salir más moho verde, a lo mejor manchas verdes. El moho no se encuentra en un
estado de metástasis, el queso crema no tiene arterias y venas, tampoco hay sistema linfático,
simplemente se está enmoheciendo. El queso crema se está pudriendo, echándose a perder,
muriendo por llamarlo de alguna forma. El moho está viviendo de las toxinas y productos de
desperdicio en el queso. Entonces como es que la bacteria y los hongos, y luego el moho crecen
hasta tomar el cuerpo. Conforme las bacterias y hongos entran al cuerpo a través de la boca, por
el aire, la comida o el agua, comienzan a buscar un lugar para establecerse y crecer. Si estas
bacterias y hongos no son destruidos por las bacterias buenas en el intestino delgado y grueso, se
pegarán al las paredes intestinales y comenzarán a crecer y reproducirse hasta encontrar su
camino hacia el torrente sanguíneo. Los hongos se encuentran en forma natural también en los
intestinos, y tienen el propósito de suavizar el bolo alimenticio que llega ahí, si la flora saludable
de los intestinos delgado y grueso se han destruido debido a antibióticos de amplio espectro y a
una dieta pobre, los hongos se moverán agresivamente hacia el tracto intestinal penetrando en el
flujo sanguíneo y de ahí hacia todas las partes del cuerpo. Conforme esto sucede, las bacterias y
hongos producen desperdicios y substancias tóxicos.

Se han aislado 79 tipos conocidos de substancias tóxicas que las bacterias y hongos
desechan en la sangre, y algunos investigadores creen que hay más de 100 diferentes
toxinas producidas. El principal producto de desperdicio de las bacterias es metano, mientras
que el mayor producto de desperdicio de los hongos es el ácido aldehído. Las bacterias y hongos
son muy agresivos y pueden multiplicarse bastante rápido, después de muchos años de
crecimiento las cantidades de toxinas de metano y de ácido aldehído llegan a ser abrumadoras
para los tejidos del cuerpo. El ácido aldehído es un veneno que se genera en etanol, y el hígado
lo convierte en alcohol, esto agota al cuerpo de sus fuentes de potasio y magnesio lo cual reduce
la energía celular. Entre menos oxígeno hay en el cuerpo, más alcohol se produce y puedes
llegar a tener los síntomas de estar borracho, desorientado, sentirte mareado o
radicales
mentalmente confundido, hasta ataques de pánico, sentimientos de ansiedad, depresión,
libres = irritabilidad y dolores de cabeza son los resultados de un sobre crecimiento de bacteria, hongos
iones de y moho en el cuerpo. El ácido aldehído puede causar fatiga en exceso, reducir la fuerza, stamina,
oxígeno la claridad de pensamiento y quita la ambición; destruye encimas necesarias para la producción
inestables de energía celular y causa la liberación de radicales libres (moléculas de oxígeno a las que les
falta un electrón) los cuales coadyuvan al proceso de envejecimiento.

Cuando las bacterias y hongos entran al flujo sanguíneo por los intestinos, pueden viajar
rápidamente e invadir los tejidos, causando dolores en las articulaciones, inflamación en vías
respiratorias y sinusitis, estrés glandular y problemas menstruales. Las bacterias y hongos
envenenan, estresan y debilitan el sistema inmunológico las 24 horas del día, la mayoría de las
enfermedades inmunológicas y condiciones infecciosas, son causadas o empeoradas por la
presencia de bacterias y hongos, y las numerables toxinas constantemente están siendo
neutralizadas por las defensas inmunológicas. Si esta fuente constante de contaminación al
cuerpo se genera todo el tiempo, llega el momento en que la operación inmunológica queda
afectada, entonces la bacteria y hongos se convertirán en moho, cáncer, y el cuerpo comenzará a
pudrirse, echarse a perder, morir por ponerlo así…justo como el queso crema.

Rouleaux=
pila de
monedas;
apilamiento
de
eritrocitos

Conceptos de
Enderlein
conocidos ya
desde fines
del siglo XIX.

Desde
entonces se
sabía que la
sangre no es
estéril, sino
que conviven
simbiontes
El descubrimiento del Dr. Royal Rife Cura Cánceres
Y la simplicidad es sublime; la tecnología de Rife parece ser la cura de la mayoría de las
enfermedades mediante la destrucción de patógenos

HE APENAS ESCUCHADO, EN LA SEMANA PASADA, ALREDEDOR de 35 historia notables


de los descubrimientos del Dr. Royal Rife. (Hay miles más disponibles.) Varias historias son de
enfermeras de vida larga, una de las cuales sufrió por años de una increíble variedad de
enfermedades. Una enfermera era tan escéptica que tomó una persistencia continua de un colega
para que ella se decidiera a por lo menos mirar a esta tecnología. Ella ahora afirma (enfáticamente):
“Funciona. Tiene que hacerlo para verlo por usted mismo. Funciona, pero usted aún tiene que
mantener su propio sistema inmune activo.” En otras palabras, no puede solo usarlo y luego
continuar haciendo las mismas cosas que lo enfermaron. Cuando un lector nos envió un libro sobre
la cura del Dr. Rife hace 10 años, yo también me encontraba escéptica. No tuve tiempo de leer el
libro.
Quizás estaba bien que yo era escéptica y que no he investigado y escrito sobre el trabajo de Rife
hasta ahora. La tecnología que entrega las frecuencias bioactivas asociadas con el trabajo de Rife
han sido refinadas y avanzadas notablemente durante estos años; dentro del último año un artefacto
nuevo ha sido desarrollado de tal manera que es simple en uso para cualquiera. Un lector nos envió
información sobre este artefacto hace unos cuatro meses atrás, y desde entonces yo he investigado
esta belleza tecnológica y la he usado en mí misma. Ahora, después de escuchar la evidencia de
miles de curaciones atribuidas a el uso de estas frecuencias bioactivas, y viendo resultados
científicos, me siento obligada a pasar esta información hacia los lectores. Yo creo que esta
tecnología es una parte significativa del futuro de la medicina (y esta aquí ahora). Espero encontrar
estudios clínicos y reportarlos en estos.
Las historias de curación que he escuchado (vea abajo para entrar con más profundidad) son
numerosas para imprimirlas aquí, pero ellas relatan cada tipo de cáncer, incluyendo linfoma
“Terminal”, hepático, ovárico y muchos más, así como aquellos asociados con tumores más
grandes; también hay curaciones de artritis, hepatitis C, MS, Epstein-Barr, SIDA, síndrome de
fatiga crónica, artritis reumatoide, enfermedad de Lyme, bronquitis, TMJ (articulación
temporomandibular), fibroides, desórdenes de presión sanguínea, diabetes, enfermedades
relacionadas con vacunas y dolores de todos tipos. De hecho, un investigador instrumental (Janet
Fleming N.D.) sostiene que solo hay tres categorías de enfermedad que no se pueden tratar con
estas tecnología de frecuencias bioactivas: 1. Síntomas causados por toxinas industriales o
patológicas; 2. Síntomas causados por trauma o daño a un órgano; 3. Desórdenes metabólicos
causados por daño al código genético. Cómo, quizá se pregunte, puede tal vasto número de
enfermedades fuera de esta categoría ser tratado tan efectivamente por los descubrimientos del Dr.
Rife? La respuesta es muy sencilla, de hecho. Es esta:
El Dr. Rife descubrió una manera de destruir las membranas de las células de bacterias patógenas,
los virus más pequeños y otros microbios más grandes, incluyendo parásitos, hongos y lombrices.
Se convierte rápidamente en conocimiento común hoy en día que los virus, bacterias, parásitos y
otros patógenos son primarios, observables, factores causales de cáncer, enfermedad de corazón,
artritis y la mayoría de las enfermedades mayores. La lógica por lo tanto informa a la mente
racional que si los doctores, fármacos o vitaminas, hierbas, suplementos y otros remedios –incluso
rezar, por razones espirituales diversas- no ayudan a sanar ciertas condiciones, el sistema inmune
del cuerpo puede estar extenuado, comprometido por una sobreabundancia de patógenos. Esos
patógenos que no pueden ser limpiados fuera del cuerpo se alojan a sí mismos en los tejidos,
órganos, huesos, articulaciones, intestinos o sistema cardiovascular y comienzan el proceso de
enfermedad.
¡Porque esta tecnología no es parte del sistema de cuidado de salud alrededor del mundo? Antes de
cualquier nota sobre esto, permitámonos examinar brevemente lo que un investigador precoz Dr.
Charles Tully, tiene que decir.
Charles F. Tully, M.D., trabajó con la tempranera tecnología Rife a mediados de los 50’s y lo usó
por muchos años. El declara, “Mi primer investigación definitiva fue en un caso propio de
prostatitis. Intenté con medicinas. Un urólogo calificado me administró gastrisina, penicilina,
aureomicina, cloromicetín, terramicina, con resultados varios, pero los fármacos no hicieron su
trabajo. El instrumento de frecuencia curó mi caso rápidamente. Yo luego utilicé el instrumento de
frecuencia en un amigo mío quien estaba en camino precipitadamente al hospital para una operación
de próstata. Hoy en día el está perfectamente bien (aproximadamente quince años más tarde) sin
ninguna operación o ayuda médica posterior.
“Tuve un caso de lupus mariposa enviado hacia mí por un amigo doctor, y a pesar de que había sido
tratado extensivamente por especialistas, la condición era grande y en progreso. Después de tres
meses de tratamiento con el instrumento de frecuencia, el lupus mariposa desapareció. Otro caso de
cáncer (carcinoma)me fue enviado para tratamiento con el instrumento de frecuencia por otro amigo
M.D. El tenía una condición imposible, pero el instrumento de frecuencia lo sanó en seis semanas.
He (en adición) encontrado al instrumento de frecuencia muy efectivo después de cirugía. Lo usé
solo en vez de antibióticos y no he tenido un caso de infección. He curado casos extremadamente
malos de boca partida y piorrea en pocos tratamientos con el instrumento de frecuencia.
“En conclusión, debo aseverar que siento que el instrumento de frecuencia vale una investigación
más profunda y que el uso e investigación subsecuente será de gran beneficio para toda la
humanidad.”
UNA PEQUEÑA HISTORIA Y LA TECNOLOGÍA DEL DR. RIFE
La temprana “tecnología Rife” produjo un rango limitado de frecuencias armónicas a través de
señales de radio y un tubo de rayos de luz lleno con gas inerte, y fue muy efectivo para matar
patógenos. Rife estudió las frecuencias de la bacterias, hongos y parásitos, así como algunos virus
(el fue el primer humano de hecho en ver un virus), y luego programo su artefacto generador de
frecuencia para crear los patrones de resonancia (tales como e una cuerda de guitarra a otra) que
comprensivamente oscilan en la pared celular de un microorganismo causante de enfermedad, como
la de un virus, hasta que este fuera desvitalizado (la membrana de la célula se destruye como el
vidrio se destruye durante un a ola de sonido chillante de una voz humana). Así es precisamente
como la tecnología generadora de frecuencia de Rife es efectiva matando células con virus de
cáncer, pero no células sanas, tejidos y órganos. Toma menos de tres minutos de envío de
frecuencia para un microorganismo patógeno dado dentro del organismo humano para morir. (Las
células no son afectadas ya que comienzan a resonar solamente a niveles de al menos 10 veces que
aquellas de baja frecuencias, células patógenas).
Rife, un científico de San Diego –genio, dicen muchos- fue visto frecuentemente pasando doce
horas al día en su microscopio estudiando varios tipos de patógenos (se enfocó en las enfermedades
como cáncer, cólera, ántrax y tifoidea) y sus membranas celulares. Realizó cerca de 20,000 intentos
antes de que aislara el delgado virus asociado con el cáncer. Radiaría al microbio con su artefacto
generador de frecuencia (tal como una bacteria en particular) en la diapositiva de su microscopio.
Experimentaría con frecuencias diferentes hasta que encontró la que hacía que la membrana celular
del microbio comenzara a vibrar. Entonces, elevaría la amplitud y observaría que la pared celular se
destruía. Grabó cada una de estas frecuencias para todas las bacterias, virus y otros patógenos que
pudo estudiar.
La razón por la cual Rife fue el primero en ver a un virus bajo un microscopio es que el había
desarrollado previamente el microscopio más poderoso conocido, con un poder visual de
magnificación de 17,000 veces. Era difícil de utilizar (Rife había desarrollado un modo para
polarizar la luz pasando a través de cristales que detenían todas las frecuencias de los rayos excepto
aquellas vibrando en un plano en particular. El microcopio tenía unas 5,682 partes), pero Rife era
dedicado. Los investigadores han usado otros microscopios desde ese entonces, agregando
generadores de frecuencia a las transparencias para ayudar a observar la resonancia celular. Los
diminutos virus son muy difíciles de observar, así que la mayoría del trabajo se ha realizado con
bacterias, hongos y parásitos.
El instrumento de Rife comenzó a ser comúnmente llamado “Generador de frecuencia de Rife,” y el
San Diego evening tribune describió su función: “las frecuencias letales para varios organismos son
ondas de sonido, coordenadas de frecuencias existentes en los mismos organismos..la (tecnología)
Rife…causa que los organismos de enfermedad se desintegren…Una breve exposición a las
frecuencias sintonizada acarrea reacciones fatales.” Los reportes de laboratorio mostraron que
después de que los organismos eran tratados morían (desvitalizados); ya no propagaban su especie y
no producían enfermedad cuando se introducían a cuerpos de animales experimentales.
El interés más grande de Rife era el de encontrar la causa viral y la cura del cáncer. El registró el
“rango oscilatorio mortal para varios organismos” y los destruyó. Curó alrededor de 400 casos de
animales con cáncer, y luego lo hizo con humanos. De su trabajo afirmó: “Con el tratamiento con el
instrumento de frecuencia, no se destruye ningún tejido, no se siente ningún dolor, y ninguna
sensación se percibe. (Con la temprana tecnología) un tubo se ilumina y 3 minutos más tarde el
tratamiento se completa. El virus o bacteria es destruida y el cuerpo entonces se recupera por sí
mismo naturalmente del efecto tóxico del virus o bacteria. Muchas enfermedades pueden ser
tratadas simultáneamente.”
El primer trabajo clínico en cáncer con humanos fue completado bajo la supervisión de Milbank
Johnson, M.D., y fue preparado con un comité de investigación especial de la Universidad Southern
California. De 16 casos de cáncer desahuciados (“desahuciados” para los oncólogos quienes se
limitaban a sí mismos a tratar el cáncer con radiación, cirugía o quimioterapia) tratados por Rife, 14
fueron declarados oficialmente como curados (por un equipo de cinco doctores médicos) tres meses
después del tratamiento. De hecho, después de las observaciones oficiales, los dos pacientes
restantes “no curados” continuaron usando la tecnología de Rife, y dos meses después también se
curaron del cáncer. (Barry Lynes, La cura del cáncer que funcionó (Marcus Books).

¡QUE OCURRIÓ A LA TECNOLOGÍA DE RIFE DESPUÉS DE SUS


DESCUBRIMIENTOS PROMETEDORES EN LA CURA DEL CÁNCER Y OTRAS
ENFERMEDADES?

Barr lynes sostiene que cuando ciertos amigos quienes invirtieron en el negocio de oncología
(cáncer) y -fármacos especialmente, quimioterapia, cirugía, radiación, cadenas de hospitales,
equipo- aprendieron de la cura de Rife, y decidieron detenerlo.
Los argumentos son que ciertos individuos auto nombrados determinaron suprimir esta tecnología.
Parece que el descubrimiento de Rife habría eliminado las ganancias de cerca de un billón de
dólares a la semana para la industria farmacéutica (quimioterapia y otros fármacos). Los hospitales
cobran alrededor de $500 o más al día solo por una cama, y pueden facturar a una compañía de
seguros de un paciente de cáncer sobre $200,000 por tratamiento “convencional” si el paciente está
asegurado. Quien poseía los hospitales? Accionistas. ¿Quién tenía grandes cantidades de acciones
en farmacéuticas y hospitales? Supuestamente la gente detrás de la destrucción del laboratorio de
Rife (su laboratorio, equipo y el volumen de sus papeles de investigación fueron quemados por
incendiarios). La tecnología de Rife cuesta solamente centavos para usarse –para pagar por la
electricidad para poner a funcionar sus máquinas-.
Hoy en día hay mas apertura y comunicación entre la gente en el campo médico, y cientos de miles
ahora voltean a alternativas para curación. La supresión de estas tecnología ya no es posible dado la
apertura de nuestra sociedad comparada con la de cincuenta años atrás. También, como dice el
sabio, “La verdad tiene un extraño modo de llegar para enterrar a sus sepultureros.”

“CURÓ A CADA PACIENTE CON CÁNCER TERMINAL”

No quiero residir en lo negativo, de cualquier modo, es importante para el escéptico, como yo,
entender que tan perversamente celosa era la industria médica en el pasado y como cierto
pensamiento negativo en el área económico-político-médica llevó a la supresión antigua de esta
información simple, barata, proveedora de salud. Así que, una nota más sobre este asunto:
Milbank Johnson M.D., cuando trabajaba con Royal Rife, era presidente de la Asociación Médica
Americana del Sur de California. El murió justo horas antes de una conferencia de prensa agendaza
donde el iba a anunciar que la tecnología de Rife había curado a cada paciente con cáncer Terminal
en un estudió que el supervisó en el Centro Médico de la Universidad del Sur de California.
Después se supo que había sido fatalmente envenenado. Su discurso escrito y los documentos de su
estudio fueron robados al momento de su muerte.
El Dr. Nemes. Quien duplicó algo del trabajo de Rife apenas a cuarenta millas del laboratorio de
Rife, fue asesinado en un incendio misterioso que destruyó su laboratorio. Rife, de cualquier modo,
continuó su propio trabajo por décadas, a pesar de amenazas, difamación y sabotaje. Antes de su
muerte por una dosis letal de Valium en el Hospital Grassmont, el había registrado cientos de
frecuencias para bacterias, virus, mohos, hongos, levaduras y parásitos. El probó que sometiendo al
virus del cáncer o a cualquier otro microbio a la misma frecuencia a la cual este resonaba lo
destruiría –rápidamente y completamente inocuo, sin efectos colaterales y sin dañar a los tejidos
circundantes-. Los descubrimientos de la frecuencia de Rife son del dominio público, y, desde su
muerte en 1971, los investigadores han estado exitosamente utilizando y perfeccionando su
tecnología (determinando índices para otros microorganismos).

CÁNCER, DIABETES Y OTROS DETALLES INTERESANTES

L máquina original de Rife fue un instrumento marcado con un contador de frecuencia y un tubo de
luz de “rayo luminoso”. John Crane, un ingeniero quien trabajó con Rife, y Rife juntos usaron
muchas de mas mismas frecuencias en muchas secuencias de enfermedad diferentes. Se debe
mencionar que, las mismas frecuencias pueden ser usadas en el tratamiento de diabetes así como en
dolencias de hígado o páncreas. La Diabetes ha sido atribuida a páncreas fortuito, la cual es muy
fácil de ver bajo el microscopio. Una vez que el patógeno es destruido por el generador de
frecuencia, aquellos que sufren de diabetes han alcanzado un estado de salud y dejado la insulina.
Algunos pocos ejemplos de las frecuencias letales para muchos de los diferentes microorganismos
que Rife descubrió son: Staphylococcus, 725-730 Hz; Streptococcus, 875-885 Hz; Virus del
carcinoma, 2120-2130 Hz; Virus del sarcoma, 2000-2100 Hz.
Rife aisló el virus del cáncer en 1932 y repitió su procedimiento 104 veces consecutivas con
resultados exitosos idénticos.
Las cuatro distintas formas de microorganismos de cáncer que Rife demostró fueron: 1. BX
carcinoma; 2. BY sarcoma; 3. Forma monococoide, la cual está presente en los monolitos de la
sangre en un 90% de los pacientes con cáncer (cuando se tiñe correctamente, esta forma puede ser
vista fácilmente con un microscopio estándar); 4. Hongo pleomorfo Criptomices, el cual tiene
morfología idéntica a aquella de la orquídea y setas.
Rife escribió en us mnuscrito de 1953: “Cualquiera de estas formas puede ser modificada de nuevo
a BX dentro de un periodo de 36 horas y producirá en el animal experimental un tumor típico con
toda la patología del verdadero tejido neoplásico, del cual podemos de nuevo recobrar el
microorganismos BX.”
Respecto a las cuatro formas distintas de los microorganismos de cáncer, Rife, como aifrmó, notó
que cualquiera de estas formas podía cambiar hacia cáncer en 36 horas, cuando el medio en el cual
crecía se alteraba. El podía replicar esta conversión 300 veces con resultados idénticos. Rife dijo,
“En realidad, no es la bacteria por sí misma la que produce la enfermedad, pero los constituyentes
químicos de estos microorganismos actuando sobre el metabolismo desbalanceado de la célula del
cuerpo humano que de hecho producen la enfermedad. También creemos que si el metabolismos del
cuerpo humano está perfectamente balanceado o equilibrado, no es susceptible de ninguna
enfermedad.”
La efectividad de la tecnología de Rife con el cáncer es dramática, como se puede ver (arriba) a
partir de la investigación llevada a cabo bajo la supervisión de Milbank Johnson. M.D. (los casos
consistían en muchos tipos de malignidad). Estos pacientes fueron clínicamente anunciados como
curados por un equipo médico de cinco doctores médicos así como el Dr. Alvin G. Foor, M.D.,
patólogo del grupo. Rife: “Los tratamiento consistieron en 3 minutos de duración usando el
instrumento de frecuencia, el cual fue ajustado al índice oscilatorio mortal para el cáncer BX
(tratamiento hecho en intervalos de tres días). Se encontró que el tiempo transcurrido entre
tratamientos logró mejores resultados que en los casos tratados diariamente (quizá debido a que el
cuerpo entonces tenía un día o varios días para expulsar las toxinas de la enfermedad antes del
tratamiento siguiente, vea las historias actuales, abajo.) no se vio incremento de la temperatura en
ninguno de estos casos arriba de lo normal, durante o después del tratamiento con el instrumento de
frecuencia. No se usaron dietas especiales en este trabajo clínico, pero nosotros sinceramente
creemos que una dieta apropiada compuesto para cada individuo sería de beneficio.”

TECNOLOGIA DE HOY EN DÍA

Como la evidencia indica, debido a la supresión del trabajo de Rife (comenzando a la mitad de los
50’s), lo que ahora es comúnmente llamado “tecnología de frecuencia de Rife” se mantuvo bajo
tierra. Los investigadores y terapeutas se encontraban temerosos de sus vidas. Una vez 30 doctores
médicos fueron fotografiados elogiando a Rife en un banquete. Después del incendio y amenazas,
todos negaron haberlo conocido. (Lynes). Hoy, los descubrimientos de Rife están siendo
confirmados por por muchos doctores por sí mismos, tal como E. C. Rosenow, Sr. (jefe de
bacteriología, Clínica Mayo), Cameron Gruner (Universidad McGill) e Irene Diller (Instituto de
investigación del cáncer, Filadelfia). Hoy hay muchos instrumentos efectivos disponibles gracias a
que unos pocos dedicados, científicos audaces, doctores e ingenieros trabajaron juntos para
reconstruir las notas e investigación sobrevivientes de Rife a lo largo de los años. John Crane, el
ingeniero quien trabajó con Rife y su antigua tecnología de rayo luminoso de radio frecuencia era
instrumental. Crane, de cualquier modo, posteriormente propuso la teoría de que, ya que el cuerpo
humano esta hecho de por lo menos 70% de agua, y por lo tanto es un conductor magnífico de
electricidad, la tecnología de radio ondas en masa era innecesaria.
Crane, trabajando con Rife, diseñó una máquina que trabajaría sin tubos de luz/gas inerte, pero con
contacto directo con el cuerpo para mandar frecuencias más directa y acertadamente. Janet Fleming,
N. D., aprendió de Crane, y comenzó a usar la tecnología, como otros investigadores, conduciendo
experimentos similares usando las conocidas frecuencias de Rife/Crane. Ella experimentó en
primeros años con animales, luego en voluntarios humanos. Los artefactos que encontró en el
mercado en la época no fueron tan precisos como ella deseaba. Fue a Alemania, y entonces,
trabajando con otros ingenieros, desarrolló una precisa tecnología avanzada dentro de 10,000 de un
Hz. Ella entonces patentó el artefacto (Bio Solutions).
Fleming recibió tres patentes en E.U.a. por sus dispositivos en los 90’s (ella dona todos los
procedimientos de su licencia de las patentes a causas de vida salvaje y medio ambiente). Lanzó una
evolución nueva total de aparatos de frecuencia, los cuales se convirtieron en un estándar en las
frecuencias bioactivas. Dichas frecuentas generadas son muy precisas y son certeras dentro de 0.001
Hz. Las frecuencias son usadas para los avances en aplicaciones en la ciencia de la salud tales como
la muerte de los microorganismos y virus y el incremento de la regeneración tisular y puede ser
usada en varias aplicaciones industriales y comerciales, tales como el procesamiento de comida.”
El interés de Fleming en la longevidad a través del uso de frecuencias le ha preocupado también por
años. Ha visto vivir a ratones 150% más tiempo de lo normal a través de la exposición a frecuencias
específicas. ¿Aplicaría esto en humanos? Fleming utilizó muchas de las frecuencias establecidas
investigadas por Rife por casi 40 años en su estudio. Hay alrededor de 200 tipos de condiciones
médicas donde las frecuencias bioactivas son usadas. Los investigadores dicen que en cada caso
esas condiciones fueron eliminadas.
Aunque la mayoría de los éxitos atribuidos a la “tecnología de frecuencia Rife” son anecdóticas,
los volúmenes crecen continuamente. Debido a consideraciones de espacio, aquí están solo unas
pocas historias de miles disponibles (vea la siguiente edición para más historias).
CASOS DE CURACIÓN, HISTORIAS ACTUALES

Ed Peck, un psicólogo y terapeta respiratorio por casi veinte años, y antiguo director de terapia
respiratoria en el Centro Médico Regional High Point en High Point, Carolina del Norte, ha hablado
personalmente con casi un ciento de personas en los últimos dos años quienes han experimentado la
curación a partir del uso de los generadores de frecuencia de Rife. Peck primero se interesó en la
historia de Rife hace cinco o seis años, luego hace dos años compró un generador de frecuencia
bioactiva. Los casos que el mencionó incluían la curación de cáncer esofágico, diabetes, ciática,
dolor de espalda, ojos y desórdenes de la visión. (el mismo Peck ya no usa lentes después de usar el
programa de tratamiento para el “ojo”), desórdenes de seno nasal y muchas otras condiciones.
El mismo Peck, ahora de 51, sufrió de alergias y sinusitis toda su vida. Desde la niñez, cuando se le
administró Benadryl (a el entonces le dieron una prescripción de fármacos para el resto de su vida),
no tenía remedio. El sintió que sus senos nasales se abrieron durante el primer tratamiento con los
generadores de frecuencia hace dos años. “Se abrieron y desahogaron”, dijo. “Antes del tratamiento
se encontraban muy congestionados, y tenía muchos dolores de cabeza diariamente.” Los dolores de
cabeza se disiparon inmediatamente y desaparecieron completamente después de dos semanas de
uso del aparato aproximadamente cinco días a la semana. Ahora él lo usa una vez al mes para
mantener los senos nasales sanos. Peck también hablo de gente quienes fueron diabéticos,
dependientes de insulina, quienes no son más dependientes de insulina después de haber sido
tratados con el aparato.
Erland (Jake) Jacobson tuvo un TRUP (Recesión transuretral de la próstata) en 1987, siendo que un
día encontró que no podía orinar para nada. ( un TURP es un procedimiento para agrandar la uretra,
comúnmente hecho en casos de una próstata agrandada que bloquea la uretra,). Su doctor le
recomendó buscar una prueba de un antígeno específico para la próstata (PSA) en el hospital VA. (
los PSAs en sangre son indicadores de cáncer de próstata –mientras más alto el nivel, más probable
es que sea cáncer-.) El PSA de Jake fue 15, que es alto (0-4 es normal). Los doctores hicieron una
biopsia de “seis agujas”, para probar posteriormente para cáncer. Nada se encontró. Esto fue en
1994.
Su doctor sugirió a ese punto que “miramos y observamos”. Jake esperó. Alrededor de un año
después Jake tuvo otra prueba de PSA. La prueba nuevamente mostró que el PSA era de
aproximadamente 15. Jake estaba de alguna manera preocupado durante este tiempo, pero no tuvo
más problemas de salud, así que continuó mirando. Comenzó a tomar algunas hierbas limpiadoras
(Essiac) y vio el palmito, el cual es efectivo en ayudar a disminuir la próstata agrandada.

En algún momento alrededor de 1998 Jake se sometió a una prueba de exploración de hueso, como
una medida de rutina, la cual resultó negativa para cáncer. Luego, en junio, 1999 se sometió a otro
PSA, el cual fue muy alto en 63. El estaba más preocupado. Al siguiente mes, julio, encontró un día
que nuevamente el no podía orinar, y los doctores le introdujeron un catéter temporal, y luego otr
procedimiento TURP se llevó a cabo. El reporte del laboratorio de la biopsia después del TURP
regresó indicando cáncer, y el PSA era ahora de alrededor de 86.
Los doctores querían que Jake se sometiera a radiación o a una remoción de sus testículos. Él dijo,
“los doctores asustan a la gente.” Decidió no hacer ninguno porque se sentía bien, a la edad de 74, y
no quería que se hicieran aquellas cosas. Dijo que conocía a otros hombres, quienes ahora estaban
muertos, que habían hecho esas cosas y quienes tampoco se habían sentido bien después.
“En algún lugar en mi lectura”, dijo, “había visto información sobre la tecnología de Rife,” y
entonces había llamado sobre un anuncio que había visto. Sintió que era muy caro, alrededor de
$2,000, y comenzó a tomar otros suplementos a parte vio el palmito t el té de Essiac.
Sus reportes de laboratorio, los cuales tengo frente a mi, comienzan con la prueba de junio, 1999
mencionada anteriormente. Los reportes demuestran sus niveles de PSA sobre un periodo de un año
y medio. Como se mencionó, la primer prueba de PSA en esos reportes fue en junio de 1999 y
mostró un nivel de 63. las siguientes cuatro pruebas (Agosto, 1999; Febrero, 2000; Mayo, 2000; y
Agosto, 2000), todos mostraron fluctuaciones pero incrementaron los niveles de PSA (86, 76, 96 y
88 respectivamente). La prueba resulta en Noviembre 14, 2000, de cualquier modo, mostró que su
PSA se había incrementado a 171.
Jake se preocupó bastante, y poco después de este último año, decidió comprar un generador de
frecuencia bioactiva de la tecnología Rife para tratar su condición. Cuando la máquina llegó a fines
de diciembre, el comenzó inmediatamente a usarla, en casa, para sí mismo. Utilizó los programas
preestablecidos para cáncer, tumor de próstata y próstata/vejiga. Uso el artefacto diariamente hasta
Enero 29, 2001. En enero 30 de nuevo fue al hospital VA para otra prueba.
La prueba en Enero 30 demostró que sus niveles de PSA habían disminuido a 128, una disminución
de 43 pntos. (A parte, en otro caso de próstata, un caballero se negó a la quimioterapia para su
tumor canceroso de próstata y comenzó a tratarse con el artefacto, después de un mes su PSA cayó
de 28 a 4. Su tumor ahora se ha ido y espera que su PSA caiga hasta 1) Jake Jacobson asocia la
caída a sus cuatro semanas de uso del instrumento de Rife, ya que no había cambiado nada en su
dieta o programa de suplementos; el solo había adicionado los tratamientos de Rife. El continua con
el mismo régimen ahora. Su siguiente visita al Hospital VA para una prueba de PSA está agendaza
para el final de Marzo, 2001. (Jake lo reportó en 28-02-01 que él ahora está usando el tratamiento
de Rife solamente cada tercer día, como Rife recomendó originalmente. Dijo que había usado el
tratamiento diariamente durante el primer mes porque el “solo tenía un mes” antes de la prueba de
PSA, y quería “disminuir el PSA”.. Durante este tiempo tomó 14 vasos de agua al día para
asegurarse de drenar las bacterias muertas o patógenos fuera de su cuerpo. Jake ha aceptado darnos
sus resultados de PSA al final de Marzo. Vea la siguiente edición de esta Diario para ponerse al día
de esta y otras historias).

INVESTIGACIÓN MODERNA Y OTRA HISTORIA

Los investigadores están desdoblando más y más evidencia de que las bacterias y virus son causales
inmediatos de úlceras, artritis, cáncer, enfermedad cardiaca y mucho más. Cuando el cuerpo se pone
a prueba contra cosas tales como estrés, contaminación ambiental o elecciones pobres
nutricionalmente (alcohol, comida chatarra) este puede convertirse en un depósito de toxinas que
abruman al sistema inmune, una condición que provee un huésped maduro en el cual bacterias no
benéficas, virus y oros microorganismos pueden proliferar y propagarse. Sobre el papel de la
infección bacterial y viral y enfermedad cardiaca, el investigador Garry F. Gordon, M.D., un
experto en enfermedad cardiovascular reconocido internacionalmente y medicina integral afirma,
“está ahora probado que 89 por ciento de los vasos sanguíneos removidos en una cirugía de corazón
muestran infección con chlamydia pneumonia y que 80 por ciento..están infectados con
citomegalovirus (CMV).” El después menciona, “Aquellos con las infecciones más
activas…tendrán tanto como 8.5 veces más el riego de ataque al corazón y ataque fulminante..Esto
es excitante porque sugiere que controlar estas infecciones con medios naturales (tales como la
tecnología del generador de frecuencia bioactiva de Rife)..pueden eliminar la necesidad de cirugía
de corazón para muchos.”
Denham Bohart Crafton II, D.M.D., menciona que los investigadores han encontrado que las
bacterias de la boca son un riesgo mayor para el sistema cardiovascular por lo menos. La boca tiene
billones de bacterias. El dice que ha visto un reporte donde la mayoría de las compañías
aseguradoras están compartiendo datos de pacientes con enfermedad periodontal para determinar
las primas del seguro de vida. Así de seria es la amenaza que las bacterias de la boca, y patógenos
en general, representan. Las bacterias de la placa dental entran al flujo sanguíneo y se alojan en los
vasos sanguíneos. Las más dañinas son B. forsythus, P. gingivalus, y C. recta. El Dr. Robert Genco,
de la universidad de Búffalo, Escuela de Medicina Dental de Nueva Cork, encontró que el riesgo
incrementado de problemas de corazón por si solos en gente con una o más de estas bacterias era
desde 200-300%. Este estudio fue presentado en Marzo 13, 1999 en el encuentro combinado de la
Asociación americana de investigación dental y la Asociación internacional de investigación dental
de Vancouver. Las bacterias dentales pueden también estar ligadas a el desbalance de azúcar en la
sangre, infecciones sistémicas severas de todo tipo, enfermedades respiratorias, problemas
gastrointestinales, artritis y más. La importancia de un sistema inmune fuerte no se puede sobre
enfatizar.
Los generadores de frecuencia bioactiva matan a la bacteria pero no tienen efectos adversos en la
salud de las células o del cuerpo como un todo (en casi cuatro décadas no hay ni un reporte de
efectos adversos colaterales). De hecho, debido a que los generadores de frecuencia están
programados para matar 100 diferentes tipos de bacterias, hongos y parásitos, cuando los patógenos
más grandes, como candida fungus, aspergillus, lombrices, tales como tenias, y parásitos están
destruidos, el sistema inmune puede incluso más rápidamente librar al cuerpo de las bacterias más
pequeñas que se pasaban por alto por tratar de ocuparse de los microorganismos más grandes.
(Muchos parásitos y otros patógenos, como lombrices, pueden ser vistos con el ojo desnudo, y
viven en órganos y tejidos del cuerpo así como en la sangre y sistema vascular.)
La razón por la cual los generadores de frecuencia bioactiva que uso no matan a las células sanas es
que las células sanas, vivientes resuenan a frecuencias arriba de 1 megahz (100,000Hz); mientras
que los patógenos hasta ahora descubiertos resuenen a un nivel más bajo que 10,000 Hz. Los
aparatos de frecuencia solo trabajan de un nivel de 10,000 o menos y por lo tanto no se acercan en
nada a la resonancia para alterar o destruir a las membranas celulares de las células vivas, y sanas.
Hablé con Christine Achterberg, edad 45, de Salinas, California en Marzo 6. acababa de comprar el
aparato Bio Solutions de Janet Fleming modelo E dos semanas antes, después de que su hermana
amablemente investigó los aparatos disponibles en Internet. Ella ha sufrido de dolor por casi tres
años con cistitis intersticial, una infección de la vejiga. Los doctores médicos convencionales
llamaron a la condición “incurable”. Christine me dijo que ha tenido que tomar fármacos
analgésicos constantemente para controlar l dolor. Ella también trata de sanar la condición mediante
el consumo de hierbas, vitaminas y otros suplementos nutricios. Ella había buscado tratamientos
con un ginecólogo, un quiropráctico, un médico naturista y un acupunturista, todos sin éxito.
Ella notó, después de dos tratamientos con el modelo E del generador de frecuencia bioactiva que la
circulación de su sangre mejoraba. Dijo que ella siempre tenía las manos heladas y con dolor,
constantemente tenía que usar ropa abrigadora, y durante los inviernos, usaba almohadillas
calentadoras para sus pies. Remarcó que ahora sus manos están tibias y sus pies, y también ha
experimentado un incremento en sus niveles de energía. “esto es un tratamiento del cuerpo en su
totalidad.”
Continuó, “Yo solo llevaba a cabo el programa de vejiga en la máquina, pero seguro que la
circulación mejoró. Debe haber matado a los patógenos que afectaban mi circulación.”
Notó que la condición de su vejiga se mantenía sin mejora, pero ella piensa que la causa del
problema de su vejiga está el algún lado fuera de la vejiga, y, con el uso continuo de las frecuencias
varias para diferentes patógenos, pronto la causa será eliminada. Ella también dijo, “Sabes, otra
cosa sucedió que yo no esperaba; mis alergias se fueron, vivía con Astelin (un spray nasal médico),
pero mis alergias desaparecieron después del primer tratamiento.”

CURACIÓN DE HEPATITIS C Y RESUMEN

He inspeccionado, hasta ahora, diferentes aparatos con tecnología de Rife. Uno era un aparato
basado en la primer máquina Rife usada que proyecta las ondas luminosas de radio para mandar
frecuencias al cuerpo. La ventaja de este sistema es que a cuarto lleno de gente puede ser tratado al
mismo tiempo. Las desventajas (para mí y otros usuarios domésticos) son que es aparatoso y
costoso (sobre $5,000). Funciona mediante una computadora las teclas del usuario en programas en
el teclado de la computadora. El manual es impresionante, representativo de tratamientos, así como
el Bio Solutions modelo E, para miles de enfermedades.
De cualquier modo, se debe hacer notar, que el artefacto de rayo luminoso también es efectivo.
Hablé con Alison Dunagan, edad 40, en Marzo 7. Ella usa la misma máquina de rayo luminoso con
la cual fui tratado durante mis investigaciones. Alison, después de un mes de tratamiento, se liberó
de infección crónica de Hepatitis C. Ella había estado tomando una forma de quimioterapia,
interferón y ribovirón, y fármacos antivirales, por seis meses, pero, dijo, “todo lo que hice fue
destruir mi sistema inmune.” Ella conoció al hombre que me introdujo al generador de frecuencia
de rayo luminoso de Rife en Enero, 2001, y el le explicó como funcionaba esta tecnología. Ella dijo
que lo entendió, “así que detuve mi tratamiento con fármacos. Estaba a punto de recibir una
transfusión de sangre ya que mi cuenta era muy baja, 2.5. Tenía miedo, y debido a que mi doctor
me lo recomendó, estaba tomando fármacos venenosos. Mi cabello se cayó, desearía no haber
hecho eso, ahora que me he sanado utilizando el aparato de Rife.”
Por mediados de Febrero, 2001, un més después de comenzar con el tratamiento de Rife, usándolo
dos veces al día, la hepatitis C de Alison estaba completamente limpia. No había rastros de ella. Su
doctor estaba sorprendido. “Ella no lo podía creer,” dijo Alison, la primera prueba, así que se hizo
otra prueba elaborada. Seguía sin rastro.” Alison todavía lleva a cabo el tratamiento de Rife, pero
dijo “tenía una dieta terrible anteriormente, tan solo no sabía. Ahora he aprendido a comer comida
madurada orgánicamente, eliminé las carnes rojas, azúcar y alimentos procesados y mantengo mi
cuerpo alcalino. Necesitas mantener tu sistema inmune arriba.”
El color de la piel de Alison y ojos ahora están completamente claros. Antes del largo mes de
tratamiento Rife ella se encontraba casi postrada en cama. Ella no había notado tanto su condición,
pero otros la vieron con color de piel ictérica y ojos amarillos. “Desearía poder hacer saber a todos
sobre esta tecnología.” Dijo. “Le diré a todo el que pueda.” Ella escribirá su historia completa, con
reportes de laboratorio y pruebas de sangre al día y enviándonoslas para una edición futura de este
diario.
La evidencia muestra que una multitud de enfermedades son tratadas efectivamente con los precisos
aparatos generadores de frecuencia bioactivos de Rife; de cualquier modo, si los factores causales
para la enfermedad no son eliminados del estilo de vida, ya sean partes de factores de dieta, estrés o
patógenos ambientales, los tratamientos probablemente se tornarán como curitas y serán necesarios
continuamente. No hay sustituto para una vida saludable, y limpia. No obstante, recibo las noticias
de que estudios clínicos sobre la tecnología de Rife comenzarán.

EPÍLOGO: GENERADORSE DE FRECUENCIA BIOACTIVOS

Como se mencionó anteriormente, encontré y utilicé varios generadores de frecuencia bioactivos


basado en el trabajo de Rife mientras investigaba y escribía esta historia. Me traté a mi mismo con
los artefactos. El que utilicé más extensivamente fue el aparato de Fleming, y, como con las
historias que mencioné anteriormente, noté efectos de curación inmediatamente. Y recientemente
compré el aparato modelo E Bio Solutions de Fleming debido a su calidad y facilidad superior para
el uso en casa para mi esposa y yo mismo, para amigos, o mientras viajamos. Ahora estoy a la
espera de su llegada expectante. Un número de médicos usan este modelo en escenarios de
investigación en sus clínicas también, debido a que automáticamente establece el tiempo de cada
sesión y una señal suena cuando la sesión termina. Es más pequeña y liviana que una computadora
de portafolio, y está preprogramada (y programable). Los usuarios se pueden referir a la guía
impresa para las frecuencias asociadas con la condición que quieren sanar, como cáncer, parásitos,
lombrices, abscesos de dentadura o encías, problemas de próstata, enfermedad de vejiga y
literalmente cientos de otras, y usar el teclado parecido al de teléfono para ingresar los números.
Sea precavido si está considerando comprar cualquiera de los aparatos de tecnología de generación
de frecuencia de Rife. Hay aparatos de buena fe, pero muchos otros son de “ingeniería inversa” o
copias fraudulentas que no solo violan la ley de patente pero que también son inferiores e
imprecisas. Janet Fleming y otros investigadores han descubierto muchas frecuencias nuevas para
destruir a las membranas celulares de patógenos en años recientes. Las frecuencias fueron probadas
en campo, o clínicamente, y ahora están programadas dentro del aparato modelo E junto con las
frecuencias que Rife había descubierto. Su patente afirma (cito de nuevo desde la patente abstracta
de una carta mandada por su abogado): “Un sintetizados de frecuencia de precisión específica es
controlado por un control programable que instruye al sintetizados para generar una frecuencia
precisa específica o una serie de frecuencias precisas. Un teclado se encuentra para el usuario para
seleccionar una frecuencia específica o secuencia de frecuencias o una serie de frecuencias
preprogramadas.”
Un médico amiga mía me mostró su aparato de frecuencia, el cual no es tan fácil de usar, ya sea
para auto tratamientos o para un clínicos, como el artefacto Bio Solutions; tiene alrededor de cuatro
perillas de ajustes que el usuario debe reiniciar para cada frecuencia y el aparato e placa de metal no
es amigable o flexible para el usuario. A pesar de la necesidad de atenderle constantemente, mi
amiga médica ha visto resultados para los pacientes utilizando su aparato, tales como la
desintoxicación del cuerpo de acumulaciones de metales pesados con mercurio y aluminio. El
modelo E Bio Solutions también tiene los programas para desintoxicación por metales pesados.
Los cuatro aparatos que he visto hasta ahora varían en precio desde $5000 hasta $2000. Una, la más
cara, es la de tipo de rayo luminoso, y dos son generadores de frecuencia que, como el modelo E,
usan el contacto directo, almohadillas de metal o electrodermales para la transmisión de frecuencias
hacia el cuerpo, pero la más sofisticada y más simple de usar de todas –que cualquiera puede
operar- con sus 537 secuencias automáticas, es la Bio Solutions. Como un resultado de mis propias
entrevistas, algunas mencionadas arriba, y experiencias personales usándola, yo ampliamente
recomiendo el Bio Solutions modelo E para el usuario domestico y clínico.

EL PUNTO DE VISTA DE UN FÍSICO DEL TRATAMIENTO SIN FÁRMACOS DEL DR.


RIFE Y LA CURA DE LAS ENFERMEDADES ASOCIADAS A MICROBIOS

Por Gary WAde

Durante los 20’s y 30’s, el Dr. Royal Raymond Rife produjo algunos más que asombrosos logros en
medicina y biología.
Primer, inventó un nuevo tipo de microscopio óptico. Este microscopio podía ser usado para
observar virus en células vivas y tejido cultivado. Rife construyó cinco de estos microscopios. Rife
nunca publicó los esquemas de sus microscopios y hasta este día aquellas en el ámbito científico no
familiares al trabajo de Rife equivocadamente argumentan que es generalmente imposible observar
o identificar un virus con ningún microscopio óptico.
El segundo gran logro de Rife fue inventar una fuente de luz destellante de frecuencia variable la
cual podía matar bacterias, rickettsias, protozoarios, hongos, y virus. Para 1939, el Dr. Rife había
identificado los microbios y el rango de luz destellante (frecuencia) para matar a estos microbios,
los cuales se asociaban con cincuenta y dos enfermedades principales, incluyendo los cánceres
carcinoma y sarcoma.
En este artículo describiremos lo que era el instrumento de frecuencia de Rife y como podía destruir
un microbio sin dañar al huésped/paciente.
En la figura 1 muestra una vista esquemática del instrumento de frecuencia de Rife en operación
tratando a un paciente. El instrumento de frecuencia consistía en un tubo de antiguo estilo de rayos
x, el cual había sido llenado con gas helio a muy baja presión y tenía un flujo de corriente a través
del tubo manejado por un seno aritmético oscilador de voltaje de ondas. Cuando la polaridad del
voltaje a través del tubo de rayos X era tal que el cátodo de tungsteno caliente se encontraba con
voltaje negativo comparado con el ánodo de placa de metal, una corriente de electrones fluiría desde
el cátodo hacia el ánodo. Esta corriente de electrones colapsaría con los átomos de helio
excitándolos y por lo tanto generando luz. Ya que las condiciones de polaridad para la corriente
fluyen a través de tubo e rayos x se encontraban solo en una mitad del seno del ciclo de voltaje de
onda había un pulso de luz producido por cada seno de oscilación de voltaje de onda (vea figuras 2
y 3). Otra manera de decir esto es, que si un millón de ciclos por segundo del seno de voltaje de
ondas se aplica a través del tubo de rayos x, el tubo de rayos x producirá un millón de pulses de luz
por segundo. Como un ejemplo práctico, Rife encontró que el carcinoma común cáncer de mama,
(el cual ahora está alcanzando proporciones epidémicas entre las mujeres), era destruido por un
rango de pulso de luz de 11,780,000 pulsos de luz por segundo.
Para el actualmente capacitado biólogo e investigador médico, todos los enunciados anteriores
sobre el trabajo de Rife y sus logros son sospechosos totalmente. La razón para esto es que ellos
tienen un conocimiento muy limitado de física y no tienen conocimiento de los resultados de la
investigación de Rife. Por ejemplo, no saben que Rife aisló una forma motil del tamaño de un virus,
parecido a una espora de la bacteria E. Coli que cuando era expuesta a luz ultravioleta prologada se
convertía en un carcinógeno virulento, el cual invariablemente causaba cáncer carcinoma cuando se
inyectaba en animales de laboratorio. La clave para introducir el trabajo y logros de Rife en la
medicina general y el uso biológico es poner fin a esta ignorancia sobre como y porque el
instrumento de frecuencia de Rife funcionó para matar microbios.
Para ese fin, ahora yo describiré e ilustraré como el instrumento de frecuencia de Rife puede
destruir un virus. Ilustraré como un virus específico puede ser destruido por una frecuencia
específica o ultrasonido. Este ultrasonido es generado por el instrumento de frecuencia de Rife.
Note que la luz acarreas momentos lineares y que cuando el pulso de luz del instrumento de
frecuencia de Rife es absorbido por la capa de piel del paciente esa capa de piel debe recibir el
impacto en la dirección del flujo de luz para conversar el momento linear. Cuando el pulso de luz ha
terminado, la piel se relaja de nuevo a.C. su posición de no exposición al pulso de luz. En otras
palabras, los pulsos de luz periódicos generan pulsos de presión periódica en la capa de piel del
paciente los cuales viajan hacia el cuerpo del paciente. El instrumento de frecuencia de Rife
convierte la superficie de la piel del paciente totalmente expuesta en un transductor de ultrasonido
para la generación de ultra sonido. Incluso aunque la eficiencia de la producción del ultrasonido sea
exageradamente baja por este método, todavía es adecuada para matar microbios. Como un ejemplo
práctico, Rife trataría a sus pacientes de cáncer usando su instrumento de frecuencia por tres
minutos de exposición una vez cada tres días. Usualmente sus pacientes enfermos de cáncer
“Terminal” serían curados en unos treinta tratamientos como este o menos, como fue verificado en
los juicios de pruebas clínicas de 1934, 1935, y 1937 por el Comité de investigación médica
especial de la escuela médica U.S.C.. Ese mismo comité luego suprimió los resultados de la
investigación.
La razón para el tratamiento corto de tres minutos es matar solo una delgada capa exterior del tejido
de tumor de cáncer en una sola vez. Esto permite al sistema inmune del cuerpo remover esta capa
antes del siguiente tratamiento. El tumor de cáncer entero podría haber sido matado/destruido en un
tratamiento único del instrumento de frecuencia de Rife de quizás en uno de una o una hora y
media. De cualquier modo, luego el paciente de cáncer tendría una gran masa o masas de tejido
canceroso muerto en ellos, lo cual sería un festín para la infección de bacterias masivas. Esta
infección bacteriana llevaría al hígado y riñón a un daño y toxemia general.
El instrumento de frecuencia de Rife mata a las células de cáncer carcinoma “normal” mediante la
ruptura de miles de contenidos de virus de cáncer BX en el citoplasma de la célula de cáncer. Este
virus de cáncer BX como Rife lo nombró en 1931 no es un virus en el uso del estándar normal del
término de hoy para virus. Rife basó su definición en el hecho de que el virus de cáncer BX podía
pasara través del filtro de porcelana de Berkett más fino de la época (filtro 000). El virus de cáncer
BX es de forma ovoide, .066 micrones sobre el eje mayor. Es motil, controlado por un flagelo de
transporte de portones igual que su bacteria pariente, la bacteria E. coli. Cuando el virus de cáncer
BX se rompe disemina su genoma, ribosomas, ARN, enzimas, y proteína varias. Cuando miles de
estas rupturas ocurren todas en una sola vez en una célula de cáncer carcinoma los resultados son
fatales para la célula cancerígena. Una situación similar ocurre en la célula cancerígena de sarcoma
cuando os virus de cáncer BY son todos desintegrados al mismo tiempo en una sola vez. El virus de
cáncer BY es otra forma de virus de cáncer BX el cual Rife encontró que causaba cáncer sarcoma
después de que había sido expuesto a una exposición de luz ultravioleta prolongada.
Para ver como el ultrasonido generado por el instrumento de frecuencia de Rife puede destruir un
virus examinaremos la estructura de la capa de proteína exterior (cápside) de un virus. La mayoría
de los virus de interés los cuales causan enfermedades en plantas y animales tiene una cápside de
estructura icosahédrica como se ilustra en la figura 4ª y B. un ejemplo específico de la estructura de
cápside icosahédrica se ilustra en la figura 5. cada círculo obscuro representa una masa de
moléculas de proteína esférica. Cuando la cápside del virus de la figura 5 se dobla como se indica
en la figura 4ª y B, un modelo de cápside viral simple se ha formado. La examinación de este
modelo de cápside muestra un gran número de intersecciones y anillos cerrados superpuestos de los
aglomerados de moléculas de la proteína. Estos anillos cerrados de aglomerados de proteína
espaciados periódicamente se ilustran en la figura 6A y B. en fícia clásica cuando se estudia el
fenómeno de onda estática la proteína espaciada periódicamente se aglomera, como se ilustra en la
figura 6A y B, se conocen como el rosario de masas en un problema de cuerdas con condiciones
limitantes circulares. Las figuras 7A, B y C, ilustran este problema de física clásica las figuras 8A y
B ilustran uno de los modos de movimiento de onda estática en el cual los anillos de aglomeración
de proteínas espaciadas periódicamente cerrados de las figuras 6A y B pueden soportarse. La Figura
8A muestra un anillo de aglomerado de proteína de 10 asociados linear para un sencillo
desplazamiento de movimiento de onda graficada del centro de los aglomerados de proteínas desde
la su posición de equilibrio. La figura 8B muestra el modo de oscilación más estresante par el nillo
de aglomerados de proteína de 10 asociados. En este modo de oscilación, los aglomerados de
moléculas de proteína adyacentes siempre están moviéndose en direcciones opuestas y por lo tanto
aplicando un estrés máximo en el lugar donde se unen. Si este modo de oscilación se eleva a una
amplitud de desplazamiento suficientemente alto el anillo se romperá. Si suficientes anillos se
rompen, la cápside del virus se desintegra. El instrumento de frecuencia de Rife cuando se establece
a la frecuencia la cual corresponda a al modo de oscilación más estresante para el virus de interés,
como se ilustra en la figura 8Bm destruirá a esa cápside la capa del virus y por lo tanto destruirá al
virus.
La capa de la cápside común del virus fue escogida para mostrar como el instrumento de frecuencia
de Rife puede destruir un microbio el cual ha encerrado en ellos mismos estructuras de aglomerados
de proteínas espaciados periódicamente. Bacterias, protozoarios, rickettsias, y hongos todos tienen
este encierro dentro de ellos mismos de estructuras de aglomerados de proteínas espaciados
periódicamente, en su estructura exterior, la cual los hace susceptibles a la destrucción por el
instrumento de frecuencia de Rife.
Los avances en la tecnología de electrones han hecho un reemplazo mucho más eficientes y
ampliamente más poderosos del instrumento de frecuencia de Rife. Particularmente, el transductor
piezo-eléctrico, controlado por un generador de funciones de señal apropiados como puede ser
comprado en cualquier tienda de equipos de pruebas electrónicos. En nuestras circunstancias
presentes donde las bacterias resistentes a antibióticos están a punto de convertirse en
incontrolables, los fármacos antivirales son todavía por mucho solo un sueño bio tecnológico, y la
guerra contra el cáncer ha sido una falla deprimente para el paciente de cáncer, pero no para el tan
nombrado investigador de cáncer. Hace mucho que llegó el tiempo de que el trabajo de Rife de los
años 30’s sea implementado.
La Nueva Biología de la Salud

LA NUEVA BIOLOGÍA DE LA SALUD

Empieza un nuevo día. Un día de verdadera salud holística, de vitalidad y de bienestar. Un


período para llenar nuestras células de energía, para potenciar al máximo nuestro organismo. ¡Una
era de un físico esbelto y fuerte de forma natural! Una era para centrarnos en los alimentos
correctos y no en los fármacos inadecuados. Este libro, basado en la evaluación microscópica de la
sangre, te iluminará en este camino. Esto te ayudará, lector, a comprender la ciencia revolucionaria
a la que yo (Rob) llamo nueva biología, y te explica formas prácticas para cambiar de dieta y
desencadenar el don que tiene el organismo para auto curarse.

En realidad, la luz asomó por el horizonte hace más de cien años. Por desgracia, la corriente
médica dominante ha estado tan absorta en sus propios mitos que, ciega a otras realidades más
amplias, ha pasado por alto la tarea innovadora de algunos magníficos científicos pioneros.
Hasta ahora. Nos encontramos en el proceso de quitarnos las vendas de los ojos y de contemplar un
modelo completamente nuevo de salud, a la vez que corregimos el antiguo modelo de enfermedad.
Partiendo de varias décadas de investigaciones exhaustivas (las mías y las de aquellos primeros
pioneros ignorados), descubriremos los caminos básicos hacia la enfermedad y el bienestar. El
lector accederá a la parte científica, por supuesto, pero también a cuestiones prácticas que le
permitirán poner en acción a la ciencia.

Todo tiene que ver con el equilibrio: el equilibrio del pH. El universo funciona
manteniendo en equilibrio las fuerzas opuestas, y el universo contenido en nuestro organismo no
supone una excepción. Cuando se produce un desequilibrio, nos vemos afectados por los signos de
la enfermedad (o los trastornos): poca energía, fatiga, malas digestiones, exceso de peso, torpeza
mental, dolores y achaques, además de otros trastornos importantes. Este libro tiene que ver con la
reivindicación del equilibrio: energía, claridad mental, funcionamiento adecuado de todos los
sistemas corporales, ojos y piel claros y brillantes, y un cuerpo esbelto y estilizado.
Siguiendo el planteamiento expuesto en este libro, el lector podrá conseguir todo esto en unas
cuantas semanas.

Lo único que tienes que hacer es echar un vistazo a tú alrededor para ver que la mayoría de
las personas con nuestro estilo de vida actual sufre desequilibrios: son personas obesas que están
cansadas y que han envejecido prematuramente. Quizás todo eso te suceda a ti también. Es muy
probable que por lo menos un ser querido esté afectado por uno de los tres principales asesinos de
Occidente: la cardiopatía, el cáncer o la diabetes.
Cuando pregunté a los asistentes a una de mis conferencias cuántos de ellos tenían un familiar que
padeciera una de estas tres grandes dolencias, entre un 80 y un 90% levantó la mano. El hecho es
que la mitad de nosotros moriremos de una enfermedad cardíaca o de diabetes, y un tercio
falleceremos de cáncer.

Si tú, lector, como mucha gente de nuestra cultura occidental, te encuentras en esta tesitura
pensarás: “Bueno, de algo hay que morir.”
Hemos olvidado que lo natural es morir (y vivir) de forma saludable. En realidad, vivir de manera
saludable hasta el día de nuestra muerte es un derecho inalienable. Hacer de ello una realidad es el

1|Page
La Nueva Biología de la Salud

gran regalo del planteamiento de este libro. Y créeme, no tiene nada que ver con trazar el mapa del
genoma humano, con las tecnologías médicas punteras o con los fármacos más potentes (y
peligrosos). Las buenas noticias son que la respuesta es muchísimo más sencilla que todo eso, y está
disponible justo aquí y ahora: hoy mismo.

Una de las claves más obvias se encuentra ahí, en los tres principales asesinos: el cáncer, las
afecciones cardíacas y la diabetes. Todos ellos están directamente relacionados con la dieta. De
hecho, ocho de las diez principales causas actuales de muerte en Occidente lo están (por no
mencionar que la dieta es, obviamente, la causa de la obesidad del 69% de los individuos). (No
tengo duda alguna de que si dedicáramos -y cuando dediquemos- la suficiente energía a estudiar las
“enfermedades” menos comunes y los retos de la salud, demostraremos que también están
relacionados con la dieta). Consumir los alimentos adecuados y obtener los mejores nutrientes, de
forma equilibrada, te ayudará a evitar todo eso, además del sufrimiento y la mala calidad de vida
que tan frecuentemente preceden a la muerte, a veces durante décadas. La milagrosa dieta del pH
se basa en secretos sencillos para averiguar las combinaciones alimentarias adecuadas.
Incluso la corriente dominante de la medicina está de acuerdo con ello: “los alimentos contienen
nutrientes esenciales para una función metabólica normal, y cuando surgen problemas, se deben a
los desequilibrios en la ingesta de nutrientes y a la interacción perniciosa de otros factores. En [...J
los estadounidenses adultos que no fuman y no beben alcohol en exceso, hay una decisión
personal que Parece influir en las Perspectivas de gozar de una buena salud a largo plazo más
que cualquier otra cosa: lo que comemos” (extraído del “informe sobre Salud y Nutrición” de
la Dirección General de Salud Pública de EE.UU. de 1988, cursiva añadida).

Desde el informe histórico de C. Everett Koop (e incluso antes, dependiendo de los círculos
en los que uno se mueva), los estadounidenses y los occidentales han estado siguiendo una moda
dietética tras otra, no sólo en un intento de deshacerse del “exceso de equipaje” que la mayoría
llevamos encima, sino también como forma de volver a encontrar el camino hacia la buena salud.
Además, desde la aparición de ese informe, la industria agropecuaria de Estados Unidos y el mundo
de la publicidad han incrementado, de forma espectacular y poco honrada, la información falsa,
distorsionada, engañosa y sinsentido acerca de los alimentos que se venden en nuestras tiendas de
comestibles y se sirven en los restaurantes de comida rápida. ¿El resultado?: que nosotros estamos
más gordos que nunca. Y ciertamente no estamos más sanos.

El problema es que, aunque la dieta es la clave no sólo para la esbeltez, sino también para la
salud y el bienestar general, tiene que tratarse de una alimentación que equilibre adecuadamente
nuestra química corporal; pero muchas de las dietas más habituales (incluidos los regímenes
supuestamente saludables, como las dietas bajas en grasas, la pirámide alimentaria, la dieta
macrobiótica, la dieta según el grupo sanguíneo, el crudivorismo y el vegetarianismo) dan lugar a
una química corporal terriblemente desequilibrada. Aunque una manera determinada de comer nos
haga perder los kilos que nos sobran (por lo general de forma temporal) o reduzca los niveles de
colesterol o alivie los trastornos digestivos de algunas personas, no cumple con la promesa de,
sencillamente, tener una buena salud. De hecho, estamos tan acostumbrados a la maquinaria
médica actual que la buena salud parece cualquier cosa menos sencilla. Yo estoy aquí para decirlo:
es sencillo.

2|Page
La Nueva Biología de la Salud

Olvídate de los índices de colesterol y de los carbohidratos. Olvídate de las calorías y de los
gramos de grasa. Olvídate de la presión sanguínea, del azúcar en sangre, de los niveles de hormonas
o de cualquiera de los otros índices de la buena salud a los que estás acostumbrado en la consulta
del médico. El valor más importante para tu salud es el pH de la sangre y de los tejidos: lo
ácidos o alcalinos (básicos) que son. Las diferentes zonas del organismo tienen distintos niveles de
pH ideal, pero el pH de la sangre y de los tejidos es el más revelador de todos. Al igual que la
temperatura corporal está regulada de forma rígida, la sangre y los tejidos deben mantenerse
dentro de un margen de pH muy estrecho: ligeramente básico o alcalino. El organismo hará todo lo
que esté en su mano por mantenerlo así, incluso causar estragos en otros tejidos o sistemas
corporales.
El valor del pH de nuestros fluidos internos afecta a cada célula del organismo. Todo el proceso
metabólico depende de un entorno alcalino.

Una acidez excesiva y crónica corroe los tejidos corporales y, si no se le pone fin,
interrumpirá todas las actividades y funciones celulares: desde el latido del corazón hasta la
activación neural del cerebro. En otras palabras, una acidez excesiva interfiere en la propia vida y es
algo que se halla (como veremos más detalladamente en el siguiente capítulo) en la raíz de todas las
dolencias, enfermedades y trastornos. Si eso no resulta suficiente para captar tu interés y equilibrar
el pH de tu organismo de forma natural y no destructiva, ten esto presente: la acidez excesiva es
también lo que hace que estés obeso. (Se tratará este tema más adelante).

El objetivo (y lo que el planteamiento del libro/esta dieta te permite hacer), pues, consiste
en crear un adecuado equilibrio alcalino en tu organismo. La forma de hacerlo radica en consumir
alimentos ácidos y alcalinos de manera equilibrada. Eso significa que el 80% de tu dieta debe
consistir en alimentos alcalinizantes, como, por ejemplo, las verduras. (Este porcentaje descenderá
un poco cuando la persona se haya reequilibrado y si está muy enferma, el porcentaje deberá
aumentar durante algún tiempo). Por tanto, las raciones de alimentos ácidos (como la carne y los
cereales) deben ser mucho menores. Además, los suplementos nutricionales alcalinizantes
escogidos cuidadosamente te ayudarán a conseguir y mantener el equilibrio del pH. Aprenderás
mucho más acerca de todo esto y en detalle en capítulos posteriores. También tenemos que hacer
ejercicio de forma adecuada (véase el capítulo 13) y adoptar otras prácticas del estilo de vida
alcalino, como aprender a controlar el estrés (véase el capítulo 14).
Tan sólo se trata de eso. Llena al menos las tres cuartas partes de tu plato de alimentos
alcalinizantes, utiliza los suplementos nutricionales alcalinizantes de la forma que se menciona en
este libro e iniciarás el buen camino.

Los siguientes capítulos examinan los motivos de todo ello, y el resto del libro muestra
específicamente qué y cómo. Obtendrás los beneficios de mis propias investigaciones exhaustivas y
de grandes mentes que han emprendido este camino antes que yo, y también accederás a la
experiencia real y práctica de Shelley sobre cómo permitir que todo esto suceda.

En resumen: este tratamiento te aportará una mejor calidad y cantidad de vida. Te garantizo
que verás una mejoría inmediata. Tu energía aumentará, dispondrás de una claridad mental y de
una capacidad de concentración renovadas, incrementarás tu fortaleza física y tu resistencia, y
perderás el exceso de grasa corporal, al mismo tiempo que aumentas la masa muscular. Tendrás
unos ojos brillantes y una piel clara, un mejor aspecto. Mejorarás tu rendimiento deportivo. Todo tu
cuerpo funcionará de forma más eficaz. Independientemente de los retos de salud a los que te hayas
estado enfrentando, ésta mejorará y lo más probable es que esos problemas desaparezcan al mismo
tiempo. En pocas palabras, recuperarás tu energía natural y sostenible y el bienestar que creías

3|Page
La Nueva Biología de la Salud

haber perdido junto a tu niñez. Con la curación, la plenitud y el rejuvenecimiento que aporta este
tratamiento experimentarás, seguramente, y por primera vez en tu vida, una salud personal
vibrante y llena de energía.

Una y otra vez hemos sido testigos de la alegría, el alivio y la tranquilidad de espíritu
renovados de aquellos que han superado una enfermedad grave o crónica, de aquellas personas que
han perdido peso tras haber estado batallando con él durante años, de quienes han reducido los
niveles de colesterol, cuyos niveles de azúcar en sangre se han normalizado, la presión sanguínea
ha mejorado, la piel se ha curado, el prurito ha desaparecido y la energía ha vuelto. He visto a
personas que ya no necesitan insulina para controlar la diabetes, a gente a quien le han
desaparecido los dolores y achaques, e incluso a personas a las que les diagnosticaron cáncer y
desaparecieron los tumores. Frecuentemente oímos hablar de personas que no han sido capaces de
trabajar durante meses y años y que vuelven al trabajo, gente que ha mejorado de sus alergias y
otros que han visto desaparecer sus infecciones. Son personas que están bien, sanas y llenas de
energía. Gente como Sharon y su marido. Dejaremos que sea ella quien explique su historia:

Llegué a pesar 87 kilos. Estaba deprimida y cansada y había probado prácticamente todas
las dietas habidas y por haber. Perdía peso y luego lo volvía a recuperar en cuanto volvía a mis
antiguos hábitos alimentarios. Me fui desanimando más y más. Estaba enferma y cansada de estar
enferma y cansada, ¡y gorda! Sabía que era el momento de llevar a cabo cambios importantes en mi
estilo de vida.
Así que, una vez más, me subí a la montaña rusa de las dietas yo-yo y acudí a una
organización de mi barrio para perder peso. Funcionó durante los primeros meses. Perdí casi
quince kilos, cambié los refrescos por agua y empecé a hacer ejercicio. Pensé que esta vez había
solucionado el problema de verdad. En esa misma época, mi marido solicitó una póliza para un
seguro de vida. Los resultados de la revisión médica de la compañía nos dieron un susto de muerte.
Su colesterol se salía prácticamente de los gráficos: el valor era de 340. Tenía bultos de grasa en un
hombro.
Además, pesaba más que nunca: 103 kilos. Para alguien que mide 1,75 metros eso es mucho peso. El
informe médico decía que era poco menos que una bomba de relojería andante, en cualquier
momento podía sucederle algo. Al igual que yo, se dio cuenta de que tenía que hacer algunos
cambios importantes, pero no sabía ni qué ni cómo.
Antes de empezar el tratamiento nos mudamos a una nueva casa y nos fuimos de
vacaciones. Volví a mis viejos hábitos alimentarios, dejé de hacer ejercicio y recuperé nueve de los
casi quince kilos que había perdido. Cuando las cosas volvieron a la normalidad y nos dimos cuenta
de que teníamos que tomar serias medidas, fue cuando “la milagrosa dieta del pH” llegó a nuestra
vida.
Compartimos la misma idea: ¿Cómo íbamos a modificar nuestro estilo de vida de forma tan
drástica? Y luego pensamos que teníamos que intentarlo. Esa noche nos comprometimos a seguir el
tratamiento y nos dirigimos de inmediato a uno de nuestros restaurantes favoritos de la ciudad
para ponernos morados con lo que serían las últimas costillas de cerdo a la barbacoa y la torta de
helado con galletas de chocolate. A la mañana siguiente modificamos la dieta y con ello cambiamos
nuestra vida. Nunca hemos vuelto a mirar hacia atrás.
Los niveles de colesterol de mi marido bajaron a 242 en seis semanas, y ahora se
encuentran por debajo de 200. Tenía artritis en las caderas y había estado pensando en operarse,
pero ahora el dolor ¡ha desaparecido! Por primera vez en mi vida, no estoy deprimida. Ya no como
compulsivamente y tampoco hasta ponerme enferma para, después, volver a comer.

4|Page
La Nueva Biología de la Salud

Ya no soy esclava del azúcar y del pan. Ahora, los alimentos que prefiero son los aguacates y las
habas de soja. A los dos nos gustaría seguir perdiendo algunos kilos más, pero ya no nos
preocupamos por eso. Sabemos que nuestro cuerpo alcanzará un peso óptimo, y que nunca
volveremos a ganar kilos porque ya no ansiamos aquellos alimentos que nos hacían enfermar,
sentirnos cansados y estar obesos.
La pérdida de peso es, prácticamente, un beneficio secundario. Lo que en realidad sacamos
de todo esto es sentirnos mejor. Nuestra mente y nuestro cuerpo son más fuertes. Ya no nos
encontramos enfermos y cansados todo el tiempo. Incluso nuestra relación ha mejorado. Tenemos
una vida más satisfactoria. Podemos disfrutar con mayor plenitud de las mejores cosas de la vida:
principalmente de nuestros hijos.
Con respecto a ellos, ahora también estamos haciendo que sigan el tratamiento poco a poco.
Se han criado a base de comida rápida y pizza, chucherías y refrescos. Y se han hecho adictos al
azúcar, al pan y a la carne, y como resultado de ello están cansados, obesos y deprimidos, como
buena parte de su generación. ¿Quién hubiera dicho que incluso beberían zumo de verduras para
desayunar? Les alimentamos con comidas sanas y también toman suplementos nutricionales.
Siguen ingiriendo un poco de azúcar de vez en cuando, pero sabemos que éste es un proceso que no
desaparece de un día para otro. Toda nuestra familia sigue el planteamiento correcto.

Robert Louis Stevenson escribió: “Llegará un tiempo en el que nos sentaremos ante el
banquete de nuestras consecuencias”.

Así estábamos y así estamos. La situación actual me gusta mucho más. Aparte de historias
como ésta (que compartiré a lo largo del libro), he visto pruebas científicas de esas
transformaciones con mis propios ojos, aunque nada es más convincente que los cambios radicales
en la vida cotidiana de la gente. He observado muchos miles de muestras de sangre, incluidos los
niveles de pH, de personas de todo el mundo, y he visto la transformación que se produce (incluso a
nivel celular) cuando la gente modifica su forma de alimentarse, de comer y de pensar.

CÓMO LLEGAMOS A ALIMENTARNOS DE ESTA FORMA

Toda esta curación es posible porque la gente está dispuesta a responsabilizarse de su salud
y a llevar a cabo los cambios necesarios. Esta es una misión en la que Shelley y yo nos implicamos, y
empezamos hace más de treinta años. Pero tardamos bastante tiempo en darnos cuenta de que lo
que parecía ser algo óptimo en el pensamiento popular nos seguía dejando cansados,
aparentemente susceptibles a cualquier resfriado e incapaces de sacar lo mejor de la vida.
Finalmente, probando y también equivocándonos (experimentando en nosotros mismos),
desarrollamos esta dieta y tratamiento, y la forma de estar plena, permanente y holísticamente
sanos: preparados a nivel físico para vivir la vida al máximo.

Siempre nos habíamos mantenido activos y atentos a formas de mejorar nuestra salud.
Hacia 1980, seguíamos lo que pensábamos que era un régimen vegetariano estricto ideal:
principalmente carbohidratos complejos con algunos hidratos de carbono sencillos (azúcares),
proteínas y grasas. Nos aveníamos a lo que parecía ser la mejor nutrición posible para nuestro
cuerpo, y criamos a nuestros hijos de esta manera.
Consumimos los mejores alimentos que vendían en nuestras tiendas naturistas favoritas. Pese a
ello, nos sentíamos fatigados por la tarde. Nuestra resistencia atlética parecía haber llegado a un

5|Page
La Nueva Biología de la Salud

punto muerto y ya no obteníamos más mejoras. No disponíamos de la fuerza física y de la


resistencia que deseábamos. Estábamos afectados, poco a poco sin duda alguna, por un signo del
envejecimiento tras otro, y todo parecía ir empeorando a medida que nos hacíamos mayores.

Lo que no sabíamos entonces era los estragos que todo esto estaba provocando en la
química de nuestro organismo y cómo acidificó nuestro cuerpo de forma peligrosa, hasta
convertirse en la puerta de entrada para todas las consecuencias desastrosas que se explicarán en
los siguientes capítulos. Gracias a Dios, todos en la familia nos habíamos mantenido sanos en
general, pero con lo que sabemos ahora, podemos ver que fuimos afortunados. Nos estábamos
tendiendo una trampa para sufrir muchos problemas potenciales.
Nos llevó mucho tiempo darnos cuenta de lo que estaba sucediendo y qué es lo que podíamos hacer
al respecto. Cuando lo averiguamos, ¡menuda diferencia! Entre otras cosas, y aunque, para empezar,
ninguno de nosotros tenía sobrepeso, los dos perdimos kilos. Yo perdí unos nueve kilos y diez
centímetros de cintura. Shelley, unos siete kilos, y ahora viste la misma talla que cuando iba a la
universidad (una talla 42). Lo más importante es que nos sentíamos mucho mejor, y no sólo eso,
sino que también pude observar unos cambios sorprendentes en nuestra sangre, incluidos los
valores del pH. Una cosa buena del viaje de unos catorce años por el que transitamos para
desarrollar este tratamiento fue que me proporcionó el tiempo para descubrir algunas técnicas de
laboratorio nuevas (para mí) con las que podría registrar gráficamente nuestros avances (que
describiré de forma más completa más adelante).

Como, en esencia, y ya para empezar, estábamos sanos, estaba ansioso por evaluar los
efectos de los cambios que estábamos realizando en la dieta en personas que se enfrentaban a retos
importantes de salud, como la diabetes, el cáncer, la obesidad, las cardiopatías, el lupus, la gota, la
esclerosis múltiple, la enfermedad de Parkinson y la artritis. Efectivamente, en mis estudios podía
ver las mismas mejoras radicales en su sangre y en el pH de su saliva y su orina. Todos nos
informaban de que se sentían mejor y de que estaban perdiendo peso, y en muchos casos, incluso
los graves problemas que padecían se curaban o desaparecían. Fui testigo de estos sorprendentes
resultados y supe que habíamos hallado algo más que una forma de comer que resultaba adecuada
para nosotros y para nuestra familia: habíamos descubierto algo que queríamos compartir.

Hemos seguido la dieta y el tratamiento a rajatabla durante más de diez años, y no tenemos
ninguna duda: Nunca volveremos a nuestros antiguos hábitos. Hemos ganado tanto que no
querríamos perderlo nunca. Incluso al ir envejeciendo nos seguimos sintiendo mejor, y sabemos
que nos estamos protegiendo de los estragos de las enfermedades que se cobran las vidas de
muchos de nuestros conciudadanos estadounidenses (y de los habitantes de los países de
Occidente). Hemos hallado una forma de asegurar que estaremos el uno para el otro, que estaremos
ahí para nuestro trabajo y para la mayoría de nuestros hijos a largo plazo, y que podremos disfrutar
verdaderamente de todo ello durante cada minuto de nuestra vida.

La buena salud debería ser algo consustancial a nosotros, pero para muchas personas
parece algo muy difícil de conservar. Esta dieta modifica esa idea para siempre. Te investirá de
poder para recuperar lo que te pertenece por derecho, te animará a asumir la responsabilidad de tu
propio bienestar y restablecerá el gran regalo que supone la satisfacción.

Sé que existen muchas fórmulas para recuperarse y muchas tienen un buen historial y una
reputación positiva. Frecuentemente, se debe a que tratan de manera parcial (quizás sin saberlo)
con lo que vas a aprender. Además, puedes mejorar mucho sin lograr estar del todo bien, por lo que
quizás pienses que el trabajo ya está hecho sin llegar a cosechar las mejores recompensas. No

6|Page
La Nueva Biología de la Salud

obstante, una vez que experimentes el bienestar pleno y vibrante que conlleva este cambio básico
en tu dieta y tu estilo de vida, conocerás lo enorme que puede ser la diferencia. Por tanto, te
invitamos a iniciar este camino y a experimentar los resultados por ti mismo. ¡Despierta a la luz de
un nuevo día!

La Milagrosa Dieta del pH


Capítulo 7 “La
Nueva Biología de la Salud”
Dr. Robert Young

7|Page
Frecuencias sanadoras RIFE

Quién fue Rife y qué son las frecuencias con su nombre

Royal Raymond Rife, fue un brillante científico nacido en 1888 y fallecido en


1971. Después de estudiar en Johns Hopkins, Rife desarrolló la base
tecnológica que es comúnmente usada hoy en el campo de la óptica,
electrónica, radioquímica, bioquímica, balística y aviación. Es una justa
afirmación decir que fue Rife quien prácticamente estableció los pilares de
la medicina bioeléctrica. En 1920 Rife había terminado de construir el primer
microscopio para virus del mundo. En 1933 había perfeccionado esta tecnología
y construido el increíblemente complejo Microscopio Universal, el cual tenía
alrededor de 6.000 diferentes partes y fue capaz de amplificar objetos 60.000
veces de su tamaño real, y hasta hace bastante poco tiempo, el Microscopio
Universal fue el único capaz de ver un virus.

Este buen hombre investigaba con intención de curar, no de controlar:


demostró la posibilidad de alterar células bacterianas o virales con ciertas
frecuencias eléctricas, por medio de un aparato que construyó y que nombró
“BeamRay machine”. Este aparato trabaja por medio de una frecuencia inducida,
la cual vibra a la resonancia del patógeno en cuestión. En 1934 un comité de
investigación de la Universidad de California del Sur confirmó que Rife
estaba logrando curar en laboratorio diferentes enfermedades, incluido el
cáncer, con su tratamiento de frecuencias eléctricas. Al principio fue
reconocido pero después incomodó a varios médicos y empresas, a quienes no
les convenía que el cáncer tuviera una cura sin recurrir a los costosos
tratamientos de quimio y radioterapia que aún hoy se siguen empleando.
Empezaron a desacreditarlo y robarle sus trabajos, terminando con un incendio
“Accidental” de sus laboratorios. Terminó decepcionado viviendo en México
hasta morir. Algún día el nombre de Royal Raymond Rife deberá ser revisado y
ocupar el lugar de prestigio que merece.

Las frecuencias Rife utilizadas como terapia de ondas sonoras

La terapia con ondas sonoras se basa en las investigaciones realizadas en


1939 por el doctor Schliephake y hoy día se emplea con éxito, por sí sola o
en combinación con Magnetoterapia, en distintos países. Esta terapia induce
en el cuerpo ondas sonoras a ciertas frecuencias para activar las células y
revitalizarlas; sólo que, merced al conocido fenómeno físico de la
resonancia, la vibración no se queda en la superficie sino que penetra hasta
6 centímetros en el tejido orgánico. Es decir, hasta el interior de las
articulaciones, huesos y tendones. De esa manera la acción de las ondas
sonoras activa el movimiento de las células, estimula su regeneración y
acelera el proceso de curación del cuerpo. En suma, se reactiva la actividad
funcional de aquellas zonas del cuerpo que causan dolor como es el caso de
las articulaciones, músculos, tendones o huesos. Todo organismo es energía, y
como tal, es un campo electromagnético. A su vez, todo proceso químico sobre
las células se realiza a través de frecuencias electromagnéticas.
Las frecuencias Rife en su forma sonora son muy efectivas, su energía es muy
fuerte, se pueden obtener resultados rápidamente. Pero para algunas personas
hay que ir poco a poco adaptándose a la vibración. En su forma escrita dan
resultados rápidos ya sea por si solas o en conjunto con otros códigos.

Se recomienda tomar suficiente agua al usar estas frecuencias.


Se recomienda relajarse, cerrar los ojos y escucharlas, no necesitan ver el
video. Duran 10 minutos en promedio todas, la pueden escuchar hasta 3 veces
al dia, algunos no podrán al principio durar los 10 minutos, asi que vayan
aumentando el tiempo según su criterio. Pueden usarla hasta por un mes,
conforme vayan viendo resultados, Algunas funcionan hasta en 3 dias para
problemas sencillos.

Frecuencias Rife sonoras para:

*Enfermedades de la columna:
https://www.youtube.com/watch?v=CEvBTgdi0Y4

*Inflamacion
https://www.youtube.com/watch?v=6PKVaRV4PG0

*Enfermedades de los huesos:


https://www.youtube.com/watch?v=2Bt98Mf08ds

*Enfermedades de los cartilagos


https://www.youtube.com/watch?v=Pk_dUVQTIdE

*Anti edad
https://www.youtube.com/watch?v=E687FJ6I9CI

*Anti edad 2 (Reparar la piel)


https://www.youtube.com/watch?v=kKf61jJ01Jg

*Bajar de peso
https://www.youtube.com/watch?v=xW8ndceCno8

*Reparar metabolismo
https://www.youtube.com/watch?v=kUVMPC4nEEo

*Problemas de la vista
https://www.youtube.com/watch?v=UL4BJD_UrA4

*Enfermedades de los riñones


https://www.youtube.com/watch?v=D8ZCGkmanKg

En este link encuentran una lista de reproducion con diferentes frecuencias


ordenadas alfabeticamente, La lista está en inglés pero usando un traductor
online podrá cada uno ver cuales les
sirven: https://www.youtube.com/watch?v=n8NlDAJSVI4&list=PL3bQhSMA7A-1jI_Pxi-
Q6yXbzcvI1xY_L&nohtml5=False
NOTA: El uso de las frecuencias Rife no reemplaza la consulta médica ni pide
que se abandone ningún tratamiento médico profesional, quedando bajo la
responsabilidad exclusiva de quien las emplee.

La información la tomé de varios sitios de internet hace mucho tiempo ya. La


comparto porque durante meses probandolas como cobayita ;P he notado mejoría
en mí misma al utilizarlas. Paz y Bien.

S-ar putea să vă placă și