Documente Academic
Documente Profesional
Documente Cultură
POLÍTICA Y SOCIEDAD
INTRODUCCIÓN
Con la utilización, en la década de los 70, de la técnica del ADN recombinante, nació
lo que hoy se conoce como “ingeniería genética” (denominación que discutiremos más
adelante). Un nacimiento rodeado de controversias e inquietud... Veamos por qué: La
técnica del ADN recombinante consiste en la utilización de enzimas obtenidas de
bacterias que son capaces de cortar en trozos el ADN por sitios que tienen tendencia a
unirse de nuevo (es decir, no se trata de una invención, porque es la manipulación de un
fenómeno existente (que se produce) en la Naturaleza). El uso de estas enzimas hace
posible insertar, con mayor o menor precisión, trozos de ADN ajenos en el de virus,
plásmidos o elementos genéticos móviles, todos los cuales tienen, en la Naturaleza, las
capacidades de, o bien infectar las células y multiplicarse dentro de ellas, o de insertarse
en sus cromosomas y replicarse junto con la célula receptora. Son lo que se conoce
como “vectores”, que permiten, por ejemplo, transferir “genes” de una especie a otra
con la que no se cruza naturalmente.
Pero fueron los propios científicos involucrados en estas prácticas los que se
alarmaron ante sus posibles implicaciones. Comprendieron que existía la posibilidad de
que un error, o incluso una acción deliberada, condujese a la aparición de nuevos virus y
bacterias patógenos, dada la plasticidad y capacidad natural de recombinación de su
material genético. En 1974, los investigadores pioneros en este campo acordaron
aplazar voluntariamente varios tipos de experimentos que podían resultar arriesgados.
En aquellas fechas, los conocimientos sobre Genética molecular eran incipientes, pero
ya se tenía conciencia de que los microorganismos utilizados como “hospedador” del
ADN recombinante podían convertirse en patógenos incontrolables. Los debates
científicos sobre estos riesgos congregaron a los máximos expertos en la materia. Erwin
Chargaff, pionero en las investigaciones que condujeron al desciframiento del código
genético, afirmó: Mi generación, o quizás la que me precede, ha sido la primera que ha
librado, bajo el liderazgo de las ciencias exactas, una batalla destructiva y colonial
contra la Naturaleza. El futuro nos maldecirá por ello (Grobstein, 77). Cuando se
pronunciaba esta sentencia, que lleva camino de convertirse en premonitoria, la
actividad científica todavía estaba concebida como una profundización en los
conocimientos, cuyos avances debían ser compartidos por toda la comunidad científica
y sus posibles aplicaciones prácticas por toda la Humanidad. Pero en los Estados
Unidos ya se palpaba la inquietud por la posibilidad de que las prácticas de
manipulación genética escaparan del control científico y social: Ha ido ganando terreno
la idea de que es necesario dar inmediatamente una base legal a la regulación que se
encuentra en las normas de los Institutos Nacionales de Salud. En particular, la
regulación debe extenderse a las actividades no financiadas por organismos no
federales, especialmente en el sector industrial. También eran contempladas con
inquietud las posibles desviaciones de los científicos de la ética científica: Para estar
sobre aviso desde el principio, es de especial importancia un sistema de control eficaz
que siga las direcciones reales de la investigación del ADN recombinante. /.../ Es
esencial que se sigan de manera sistemática los caminos que toman los intereses de los
investigadores, desde los programas de ayudas económicas y las comunicaciones hasta
la publicación del trabajo. Finalmente, una conferencia celebrada en Asilomar,
California, en la que se discutió sobre los riesgos potenciales de la técnica del ADN
recombinante, finalizó con la Declaración de Asilomar, en la que se proponía una
moratoria en estas prácticas hasta que se estableciese una regulación.
Como hemos podido comprobar, las inquietudes de los científicos de los 70 estaban
plenamente justificadas. En la actualidad, las prácticas de manipulación genética han
pasado, en su mayor parte, a estar dirigidas por los intereses de las empresas privadas.
La irrupción del “Mercado” en la Ciencia ha transformado la concepción de la
investigación hasta convertirla en una actividad comercial. Las perspectivas de
rentabilización de los descubrimientos genéticos ha llevado a que muchos genetistas
moleculares se hayan convertido en dueños de sus propias compañías de biotecnología,
colaboren o dependan de la financiación de grandes empresas. Esta actitud es
entusiastamente justificada por los medios de comunicación: Algunos de los
investigadores más brillantes, al menos en los Estados Unidos, parecen haberse
hartado de que la mina de oro de sus ideas acabe siendo explotada comercialmente por
otros y han decidido constituir sus propias empresas (El País, 9-4-2000). La “economía
de libre mercado” y la Biología se han encontrado, y el resultado es que esta última
parece haber olvidado su condición de Ciencia como búsqueda del conocimiento para
convertirse en una supuesta tecnología (dado el insuficiente conocimiento y control de
los fenómenos que manipula), al servicio de la industria y el comercio, y un factor más a
incluir en las oscilaciones de la Bolsa (fenómeno del que las multinacionales de la
biotecnología son el máximo exponente). La consecuencia de esta degradación del
espíritu científico es la confluencia en un sendero por el que biotecnología y economía
caminan alegremente hacia un callejón sin salida, añadiendo a la creciente degradación
ambiental, a la extensión de la pobreza y al agotamiento de recursos, la progresión,
aparentemente imparable, de los peligros derivados de la irresponsable manipulación
genética de los seres vivos. Sin embargo, esta confluencia no resulta sorprendente,
porque desde el 24 de Noviembre de 1859, la Biología y la Economía han estado
estrechamente unidas. Tan estrechamente unidas que sus conceptos centrales y su
terminología son prácticamente indistinguibles.
Va para siglo y medio que Charles Darwin postulara el origen de todas las
especies actuales a partir de otro elenco menor, surgido a su vez de otro mas exiguo y
así hasta el amanecer de la vida.
Este es uno de los más típicos (y tópicos) comienzos de cualquier texto científico
sobre la evolución biológica. En este caso, se trata de un artículo de uno de los más
prestigiosos expertos mundiales en el estudio del origen de la vida: William Ford
Doolittle. Sorprendentemente, en dicho artículo (“Nuevo árbol de la vida”,
Investigación y Ciencia, 2000), una de sus conclusiones es que: La explicación
razonable de resultados tan contradictorios hay que buscarla en el proceso de la
evolución, que no es lineal ni tan parecida a la estructura dendriforme que Darwin
imaginó. Es más, toda la información expuesta en el citado artículo (sobre el que
volveremos mas adelante) es abiertamente contradictoria con la visión darwinista de la
evolución gradual de los organismos mediante cambios aleatorios. El origen de las
células eucariotas que constituyen los organismos animales y vegetales, tuvo lugar hace,
al menos, mil millones de años, mediante la agregación de diferentes tipos de bacterias
que, actualmente, constituyen el núcleo y los orgánulos celulares, cuyas secuencias
génicas, extremadamente conservadas, se pueden identificar actualmente. Es decir, uno
de los hechos fundamentales de la evolución de la vida (el origen de nuestros
componentes) se produjo por “integración”, por asociación de elementos que ya
manifestaban una gran complejidad biológica, y que se han conservado hasta la
actualidad. Sólo este hecho, definitivamente contrastado, tira por tierra la visión de la
evolución de la vida como un fenómeno de cambio gradual, en el que las “mutaciones”
aleatorias serían fijadas o eliminadas por la selección natural: en primer lugar, porque
este cambio de tan gran trascendencia no fue gradual, y en segundo lugar, porque si las
mutaciones fueran aleatorias el ADN de nuestras células tendría muy poco que ver con
el bacteriano después de más de mil millones de años de evolución.
Pero, éste puede que sea el verdadero problema responsable del desánimo: “el testigo
de Darwin”. La sistemática identificación del hecho de la evolución, con la teoría
darwinista, incluso cuando los datos y las conclusiones derivadas de ellos son
totalmente contradictorios con ella, es el resultado de la asunción de que la evolución
biológica fue un “descubrimiento” de Darwin y, en consecuencia, muchos científicos
están honestamente convencidos (no tendrían porqué mencionarlo si no fuera así) de
que cuando se habla de evolución se habla de darwinismo. A este fenómeno no tendría
por que concedérsele mayor importancia (¿qué importa quien fue el primero?), si no
fuese porque, incluso cuando los conocimientos que se van acumulando desbordan
totalmente la capacidad explicativa del darwinismo, los conceptos, los argumentos e
incluso los mismos términos científicos que se utilizan para intentar explicar los
fenómenos biológicos están cargados de significados procedentes de la visión
darwinista de la evolución, de “cómo ha tenido que ser”, lo cual conduce,
necesariamente, a cualquier investigador que, honradamente, intente comprender estos
fenómenos dentro de esta visión, a “la confusión y al desánimo”. Y éste es sólo uno de
los muchos ejemplos del estado de desconcierto en que está sumida la Biología (ver
Sandín, 2002). Su base teórica se tambalea, precisamente en una época en la que las
esperanzas (y la confianza) en sus aplicaciones prácticas se han extendido al ámbito
social, lo cual resulta, cuando menos, alarmante.
El encono, que lleva incluso a seguir el rastro de sus pobres huesos, no produce la
impresión de que se pretenda transmitir la admiración (o, cuando menos, la
comprensión) que, por los precursores, suelen expresar los historiadores de otras
disciplinas. Sin embargo, es posible encontrar, fuera del ámbito “oficial” (se podría
expresar mas concretamente: anglosajón), otro tipo de narración: En cuanto a la “clave
popular” que menciona Harris, En 1778, en un corto espacio de tiempo, culminó su
“Flore française”, que entusiasmó a Buffon y conquistó el honor de ser impresa por la
“Imprimerie Royale”. En dicha obra, que le abrió las puertas de la Academia de
Ciencias, realizó su primera aportación destacada, de las muchas que haría, al
desarrollo de las ciencias naturales: el método dicotómico (Casinos, 1986). A lo que se
refiere Adriá Casinos en el prólogo a la edición facsímil de Filosofía Zoológica, es a las
claves dicotómicas que actualmente se utilizan en Botánica para la identificación de
plantas (y, también en el campo de la Zoología). Su nombramiento como “profesor de
lombrices” tiene, también, otra narración: Cuando la Convención lleva a cabo la
reorganización del “Jardin des Plantes”, a propuesta del propio Lamarck,
transformándolo en el “Museum d’Histoire Naturelle”, se convierte oficialmente en
zoólogo. En efecto, el 10 de Junio de 1793 el gobierno republicano crea doce cátedras,
para las que son nombrados / ... / E. Geoffroy Saint-Hilaire (Animales superiores), A. L.
de Jussieu (Botánica, herborización), Lamarck (Animales inferiores) / ... / El
“Muséum” no es sino un eslabón más de la profunda renovación de la enseñanza
superior que el poder revolucionario lleva a cabo, sobre todo como alternativa a la
decrépita y obsoleta Sorbona, la misma que había intentado prohibir la Historia
Natural de Buffon.
Pero la anticipación, sin duda, más brillante, y por la cual ha recibido los más feroces
ataques, fue su concepción de la interacción organismo-ambiente de su proceso de
adaptación, que ha pasado a constituir, en los libros de texto el ridículo tópico utilizado
para descalificar a Lamarck, como si toda su labor científica se redujera a la afirmación
de que “el cuello de las jirafas se alargó como consecuencia de sus esfuerzos por
alcanzar las hojas de los árboles”, es decir la evolución morfológica como consecuencia
del “uso y el desuso”. Veamos ahora su explicación: Las circunstancias influyen sobre
la forma y la organización de los individuos / ... / Ciertamente, si se me tomasen estas
expresiones al pie de la letra, se me atribuiría un error, porque cualesquiera que
puedan ser las circunstancias, no operan directamente sobre la forma y sobre la
organización de los animales ninguna modificación. Pero grandes cambios en las
circunstancias producen en los animales grandes cambios en sus necesidades y tales
cambios en ellas las producen necesariamente en las acciones. Luego si las nuevas
necesidades llegan a ser constantes o muy durables, los animales adquieren entonces
nuevos hábitos, que son tan durables como las necesidades que los han hecho nacer.
(pag. 167). A lo que Lamarck se refería, por tanto, no es a la herencia de las
consecuencias directas de la utilización o del fortalecimiento de un órgano o estructura.
Una idea bastante simplista que veremos planteada por “otro autor” mas adelante, sino a
los efectos, a largo plazo, de las circunstancias ambientales naturales que produzcan una
respuesta del organismo (y cortar la cola a cientos de ratones, la supuesta demostración
de Weissman de la falsedad del lamarckismo, no sólo no es una influencia ambiental,
sino que es una simpleza cruel e inútil). En la actualidad, se ha podido comprobar que
esas respuestas al ambiente existen, tanto mediante remodelaciones genéticas llevadas a
cabo por “elementos móviles” del genoma (Whitelaw y Martin, 2001), como por
procesos mediante los que una misma secuencia génica puede “codificar” distintos
mensajes (y no al azar) en función de las circunstancias ambientales (Herbert y Rich,
1999).
Durante los años finales del siglo XVIII y primeros del XIX, la situación social en
las islas británicas estuvo agitada hasta llegar, en ocasiones, al borde de la revolución,
que fue evitada mediante una dura represión. Fue la época de la masacre de Peterloo y
de “los mártires de Tolpuddle”. Según las narraciones históricas (Stratern, 1999), el
mariscal Wellington permitió a sus soldados disparar contra los trabajadores (cabe
suponer que la orden debió ser: “si les apetece...”). Gran Bretaña había entrado en la
edad moderna arrastrando el bagaje de leyes feudales y costumbres diseñadas por y
para los ricos y aristócratas. (Harris, 1985). Las leyes de cerramiento de fincas,
promulgadas en el siglo XVIII, permitieron a los terratenientes vallar sus tierras para
utilizarlas como pastos para el ganado, y expulsar a sus renteros, condenándolos a ser
mano de obra barata para las oscuras fábricas satánicas, y que pasaron a constituir una
gran masa de desheredados hacinados en las grandes ciudades industriales. Entonces,
comenzaron a surgir “pensadores” que aportaron sus diagnósticos y sus justificaciones
de la situación (Ekelund y Herbert, 1995): Para Arthur Young cualquiera, excepto un
imbécil, sabe que las clases inferiores deben mantenerse pobres o nunca serán
laboriosos (“Eastern Tour”, 1771). Bernard de Mandeville, dictaminó que a los hijos
de los pobres y a los huérfanos no se les debía dar una educación a cargo de los fondos
públicos, sino que debían ser puestos a trabajar a una temprana edad, ya que la
educación arruinaba al que merece ser pobre (“La Fábula de las abejas”, 1714).
Mandeville sostenía la máxima calvinista de que el Hombre está lleno de vicio, no
obstante, era de la opinión de que los vicios individuales hacen la prosperidad pública.
La base conceptual de Smith no era, como se puede ver, mucho más amplia y general
que la de Darwin. Igual que éste convirtió las actividades de los ganaderos de su entorno
en Ley General de la evolución, Adam Smith construyó su teoría a partir de sus
observaciones de cómo actuaban sus vecinos y correligionarios. Es decir, un análisis
(más bien, una descripción) de su entorno social, tal vez, incluso de la ciudad donde
vivía. Porque es evidente que estos planteamientos, sin necesidad de ir mas lejos de su
propio país, no serían extrapolables a la economía y a la “libertad de elección” de los
trabajadores de “las fábricas satánicas”. De todas formas, da la impresión de que éstos
no parecen estar incluidos en su modelo “científico” ( salvo, tal vez, como recursos
naturales), porque, según él: Los trabajadores y otras clases inferiores de personas,
engendran demasiados hijos, lo cual hará descender sus salarios a un nivel de
subsistencia.
Otra obra de gran relevancia en este contexto fue el “Ensayo sobre el Principio de la
población”, publicado, en 1798, por el ministro anglicano Thomas Robert Malthus y
que se convirtió en una parte importante e integral de la economía liberal clásica, (The
Peel Web). Malthus, que sólo salió de Inglaterra para una breve visita a Irlanda y un
viaje al “continente” por razones de salud, elaboró su ensayo basado en la observación
de las masas de desheredados que abarrotaban las calles de las ciudades inglesas. Su
famosa tesis era que el aumento de la población en progresión geométrica, mientras que
los alimentos aumentaban en progresión aritmética, impondría una “lucha por la vida”.
Su libro que, al parecer, fue su única aportación sustancial, tuvo una gran influencia en
el “Acta de Enmienda de la Ley de Pobres” de 1834. Según Malthus, las “Leyes de
Pobres” estimulaban la existencia de grandes familias con sus limosnas, y afirmaba que
no deberían de existir, porque además limitaban la movilidad de los trabajadores.
Estaba en contra de la ayudas a los pobres y afirmaba que las “casas de trabajo” donde
se hacinaban los desempleados no deberían ser confortables asilos, sino sitios donde la
estancia debería ser dura (The Peel Web).
Pero, tal vez, una de las deformaciones mas descaradas (porque su falsedad se puede
revelar en libros existentes) es la de atribuir a la supuesta “revolución” darwinista un
carácter de progreso científico porque fue el primero en dar una explicación
materialista, no teísta de los fenómenos naturales (Rose, 1999, Ayala, 1985, etc.), como
si las explicaciones de Saint Hilaire, Lamarck, Gèrárd (entre otros muchos), basadas en
experimentos con embriones, estudios anatómicos, taxonómicos o paleontológicos,
fueran interpretaciones “supersticiosas”.
Como hemos visto, en las hagiografías de Darwin que suelen figurar en las
introducciones de los textos científicos y divulgativos, la historia suele comenzar con la
publicación de la “obra cumbre de nuestra civilización”, o, en algunos casos, con el
viaje de “un joven naturalista” a bordo del Beagle, durante el cual “descubrió” la
evolución. Aunque, vistos los anteriores datos, pueda parecer reiterativa (incluso
innecesaria) la exposición de las circunstancias personales que rodearon realmente el
nacimiento de la obra que completó la revolución que comenzó en el siglo XVI con
Copérnico etc., etc., la información sobre ello tal vez no resulte superflua, porque,
cuando lo que se está valorando es la teoría de un personaje que ocupa una de las mas
altas cumbres del pensamiento humano (para mí la más) (Arsuaga, 2002), algunos
datos históricamente documentados sobre este aspecto pueden resultar esclarecedores.
Porque su formación, las influencias recibidas y el contexto científico y social en que
este hecho tuvo lugar, nos pueden ofrecer alguna información, tanto sobre su bagaje
científico como sobre la forma en que todo esto ha sido (y sigue siendo) transmitido por
sus apologistas.
Para no correr el riesgo de incurrir en valoraciones del tipo de las que, por ejemplo
Harris, hacía de Lamarck, vamos a recurrir a su propia autobiografía y a biógrafos cuya
calificación de Darwin como el hombre que aportó la idea más importante de la
humanidad (Stratern, 1999) no deja dudas sobre sus inclinaciones.
Esta obra es, sin duda, la más clarificadora sobre la concepción que Darwin
tenía realmente del hecho y, especialmente, del significado de la evolución y de la
selección natural. Porque, a diferencia de “El Origen de las Especies” en el que, como
hemos visto, encontraba muchas dificultades para explicar la Naturaleza mediante sus
bases conceptuales (selección de ganados, Malthus y Spencer) , en este caso, esos
problemas (obviamente) no existen para explicar “su” sociedad humana.
Todos los argumentos del libro se pueden condensar en unas ideas básicas muy
sencillas: Las cosas son como deben ser, porque la selección (bien natural o en su caso
la del verdugo) se encarga de ello. Dado que las cualidades morales e intelectuales son
innatas, los países civilizados ha llegado a dominar el Mundo por obra y gracia de la
mayor calidad de sus ciudadanos y, naturalmente, dentro de éstos y de acuerdo con sir
Francis Galton, las clases superiores son las adornadas de las mayores virtudes. Por eso,
... sería una interminable tarea señalar los numerosos puntos de diferencia de las
razas. / ... / Sus caracteres mentales son igualmente muy distintos, sobre todo cuando se
trata de las partes emocionales, aunque mucho, asimismo, en sus facultades
intelectuales. La consecuencia de estas diferencias en un Mundo dirigido por la
implacable selección natural es inevitable: Llegará un día, por cierto, no muy distante,
que de aquí allá se cuenten por miles los años en que las razas humanas civilizadas
habrán exterminado y reemplazado a todas las salvajes por el mundo esparcidas / ... / y
entonces la laguna será aún más considerable, porque no existirán eslabones
intermedios entre la raza humana que prepondera en civilización, a saber: la raza
caucásica y una especie de mono inferior, por ejemplo, el papión; en tanto que en la
actualidad la laguna sólo existe entre el negro y el gorila. (pag. 225). Y, en este caso, sí
contaba con datos objetivos para reforzar sus argumentos. Cuando las naciones
civilizadas entran en contacto con las bárbaras, la lucha es corta, excepto allí donde el
clima mortal ayuda y favorece a los nativos. / ... / Cuando se comenzó a colonizar
Tasmania, estimaban algunos el número de sus habitantes en 7.000 y otros en 20.000.
Este número disminuyó considerablemente a causa, sobre todo, de las luchas con los
ingleses y consigo mismos. Después de la famosa cacería emprendida por todos los
colonizadores en que se sometieron los residuos que quedaban de la antigua población
indígena, su número no era más que 120 individuos, los cuales en 1832 fueron
deportados a la isla Flinders. (En 1864 quedaba un hombre, que murió en 1869, y tres
mujeres. La última tasmana murió a finales del siglo XIX). A la vista de “procesos
naturales” como éste, se entienden perfectamente Los notables resultados que los
ingleses han obtenido siempre como colonizadores, comparados con los de otras
naciones de Europa / ... / Es en apariencia muy verdadera la opinión de los que
entienden proceder el admirable progreso de Estados Unidos, como también el
carácter del pueblo, de la selección natural. (pag. 201)
En suma, el libro, (que, por cierto, sería muy de agradecer que fuera leído por los
darwinistas), que no estaba concebido por Darwin, ni mucho menos, como una obra
secundaria, sino como la culminación necesaria del “Orígen de las Especies ....”, no
cuenta con mayores virtudes científicas y literarias que éste porque, además de las
abundantes argumentaciones del tipo de las citadas, cuya calificación benévola podría
ser de “políticamente incorrectas”, contiene muchas otras referidas, por ejemplo, a las
clases entregadas a la destemplanza, al libertinaje y al crimen, o al matrimonio y la
reproducción que no se pueden calificar de otro modo que de absolutamente ridículas.
No me puedo resistir a mencionar una muestra final: En suma, concluimos como el
doctor Farr, en que la menor mortalidad de los casados, relativamente a la de los
solteros, ley que parece ser general, se debe principalmente a la eliminación constante
de los tipos imperfectos y a la hábil selección de los individuos más hermosos que en
cada generación se verifica, por no haber selección mas que cuando se trata de
matrimonio, y ser tan grande su influjo sobre las cualidades corporales, intelectuales y
morales. De lo cual podemos inferir que los hombres sanos y buenos no se hallarán
sujetos a mayor mortalidad si sólo por prudencia permanecen sin casarse algún tiempo.
Del candor (que mejor se podría calificar de simpleza) y del rancio puritanismo
victoriano que se refleja en sus escritos no se desprende la mas mínima intención de
manipular o distorsionar los hechos (entre otros motivos, porque, como él mismo
reconoce, carecía en absoluto de las capacidades necesarias). Se trata, sencillamente, de
una concepción del Mundo característica del sector social del que procedía y en el que
se relacionaba, (y no “un producto de su época”, como se suele justificar, porque en la
misma época y en el mismo país existían visiones muy diferentes de la realidad, como,
sin ir mas lejos, las de Wallace o Matthew). Una clase social que se caracterizaba por
unos valores profundamente enraizados en la tradición calvinista, (otra revolución
burguesa), según la cual ciertas personas están predestinadas por Dios a la salvación y
otras a la condenación. Pero, eso sí, el creyente, aunque desconoce su destino, puede
demostrar que es un “elegido de Dios” con los éxitos que alcance en su vida privada.
Esta curiosa “fe” que, por otra parte, fue la que alumbró la teoría de Adam Smith,
desvela una envidiable capacidad de amoldar toda una cosmovisión a los intereses de
una clase social concreta, de modo que, mediante unos convenientes e inevitables
designios, un Dios tan complaciente con los ricos como implacable con los pobres, la
mano invisible del mercado y la poderosa y ciega selección natural favorecen,
curiosamente, a los mismos, otorgándoles, de una tacada y por los mismos méritos (que
se pueden sintetizar en “ir a lo suyo”), la salvación, la riqueza y el éxito biológico.
Y estos principios no pertenecen al campo de las anécdotas históricas, porque son los
que conforman, en la actualidad, el llamado "pensamiento único", la base ideológica de
las sociedades “avanzadas”. Su intelectualización en forma de “leyes científicas” y su
carácter eminentemente práctico (especialmente para los “más adecuados”) los ha
expandido y consolidado, de forma que, de ser, en su origen, una justificación del statu
quo con mayor o menor dosis de hipocresía o de simpleza, han pasado a convertirse en
una firme creencia de cómo es (y cómo debe ser) la realidad, y muchos de los
argumentos no sólo de Darwin, sino de Smith, Malthus y Spencer permanecen, además
de en las “leyes” de la economía de libre mercado, en los textos en los que los
científicos darwinistas nos explican su visión de la Naturaleza y de la Sociedad en
forma de metáforas y “leyes” científicas.
La teoría “oficial” que sigue figurando en los libros de texto, a pesar de estar
totalmente descalificada por los datos recientes es la llamada “Teoría sintética
moderna”. El término “moderna” hace referencia a la época en que fue elaborada, desde
los años veinte a los cincuenta, fundamentalmente por matemáticos (Wrigth, Fisher y
Haldane) que tenían muy pocos conocimientos de genética cuando incluso los genetistas
tenían muy pocos conocimientos de genética. La idea de evolución (de cambio en la
organización morfológica, fisiológica y genética) se resume así de sencillamente: La
visión de Darwin sobre la selección natural se puede incorporar fácilmente a la visión
genética de que la evolución se produce típicamente a partir de cambios en las
frecuencias génicas. (Boyd y Silk, 2001).
Sin embargo, hace tiempo que esta visión de los genomas está totalmente invalidada.
Hoy sabemos que lo que llamamos “genes” (donde se localiza la información sobre
cómo se hace y cómo funciona un organismo vivo), es algo mucho más complejo que
un segmento concreto de ADN, pues puede haber genes repetidos en trozos dispersos
por el genoma, hay genes con otros genes dentro, los hay enormes, formados por
millones de pares de bases, y muy pequeños, formados por unos pocos miles (ver
Sandín 2001). Pero, sobre todo, lo que más ha cambiado de la visión extremadamente
simple y, especialmente, determinista, de la teoría sintética y que, desgraciadamente, ha
pasado a formar parte de los tópicos populares es la idea de que “un gen” tiene un
significado único y concreto. En la época en que se elaboró la Teoría Sintética se
hablaba de “un gen - un carácter”. Posteriormente, se pasó a asociar un gen con una
proteína y, finalmente se ha comprobado que la información genética es algo de una
complejidad difícil de abarcar. En primer lugar, el ADN en sí mismo no es ni
autorreplicable ni de único significado. Es algo así como un diccionario, que necesita de
una gramática, incluso de un idioma que dé sentido (y contexto) a la información que
contiene. En el primer aspecto, para la replicación del ADN son necesarias un buen
número de complejísimas y muy específicas proteínas que separan la doble cadena,
inducen la replicación, revisan, corrigen los errores, los reparan y unen los trozos
reparados. En cuanto a los mensajes codificados en el ADN, el “significado” de una
secuencia concreta de bases, varía según su situación en el genoma, de la regulación por
parte de otros genes y del tipo de organismo en el que esté. Por ejemplo, el gen llamado
GAI codifica en plantas una proteína que frena su crecimiento, excepto en presencia del
ácido giberélico (una especie de hormona vegetal). Se ha visto (Peng, et al., 1999; Boss
y Thomas, 2002), que una mutación de este gen tiene distintas consecuencias en plantas
diferentes: en Arabidopsis (una planta silvestre muy común) este gen o su mutante
pueden producir hojas o flores; en vides, uvas o zarcillos, y en trigo, tallo largo o corto.
Pero la plasticidad del ADN puede ir aún más lejos. Muchos genes tienen la
capacidad de lo que se conoce como “splicing” (empalme o ligamiento) alternativo
(Herbert y Rich, 1999), es decir, de producir diferentes mensajes (diferentes proteínas)
en función de las condiciones del ambiente celular (que, a su vez, depende del ambiente
externo), lo que en definitiva significa que el ADN posee la capacidad de respuesta al
ambiente. Y esta capacidad de respuesta va aún más lejos si tenemos en cuenta los
descubrimientos derivados de la secuenciación (parcial) del genoma humano (The
Genome Sequencing Consortium, 2001). El 95% de nuestro genoma está constituido a
partir de elementos móviles y virus endógenos (Sandín, 2002). Los primeros pueden
estar de dos formas: transposones, que son “trozos” de ADN que pueden saltar de unas
partes a otras de los cromosoma, y retrotransposones, que pueden realizan (mediante
las proteínas correspondientes) copias de sí mismos que se insertan en otra zona del
genoma, produciéndose duplicaciones de sus secuencias. Ambos se activan como
reacción a agresiones ambientales (Whitelaw y Martin, 2001, ). En cuanto a los virus
endógenos, que constituyen, por el momento, el 10% del genoma, se considera que su
presencia obedece a que, en algún momento de la historia evolutiva “infectaron” al
“hospedador” y se insertaron en el genoma, donde permanecen como “parásitos”. Lo
cierto es que sus secuencias participan activamente en procesos celulares normales de
distintos órganos, como: cerebro, pulmón, corazón… (Genome directory, 2001). Y
también tienen capacidad de respuesta al ambiente, “malignizándose” ante agresiones
ambientales (Gaunt y Tracy, 1995) e incluso reconstruyendo su cápsida y recuperando
su capacidad infectiva (Ter-Grigorov et al., 1997).
Por si todos estos datos sobre la enorme complejidad del material genético no fueran
suficientes para mostrarnos lo mucho que todavía nos queda por conocer, los estudios
sobre el proteoma (el conjunto de proteínas celulares que participan en todos sus
procesos) están poniendo de manifiesto fenómenos que, según sus investigadores
(Gavin, et al., 2002; Ho et al., 2002) desafían la imaginación: los miles de complejas
proteínas que interactúan en las células se asocian en grupos de, al menos, 96 proteínas.
Cada combinación determina, al parecer, sus estructuras y funciones características.
Según los autores La célula está organizada en una forma para la que no estamos
preparados.
En suma, los procesos biológicos, incluso al nivel más básico, están resultando tan
diferentes de la visión reduccionista del darwinismo que todavía figura en los libros de
texto, que la conclusión lógica es la que planteó Phillip Ball (2001), uno de los
editorialistas de la revista Nature, ante el informe de la secuenciación del genoma
humano: Nos encontramos sin base teórica para explicar esta complejidad. En otras
palabras, la que tenemos es inútil. Porque, desde luego, todo esto implica que la
evolución de la vida, no ha podido ser, según la narración darwinista, mediante
mutaciones, es decir, “errores” o desorganizaciones al azar, productoras de variantes de
un mismo gen, con pequeñas consecuencias en el fenotipo, que serían “fijadas” por la
selección natural en el caso de ser “mejores” que sus otras variantes, produciendo como
consecuencia una evolución gradual.
Y, efectivamente, los datos nos informan de que la historia no ha sido así. Desde el
origen de las células que constituyen los seres vivos que, como ha sido comprobado por
W.F. Doolittle (2000), Lynn Margulis (1995) y R. Gupta (2000), se ha producido por
agregaciones de bacterias, hasta las bruscas remodelaciones de fauna y flora que inician
los grandes periodos geológicos ( Moreno, 2002) y que coinciden con grandes
catástrofes ambientales perfectamente documentadas en la actualidad, (Kemp, 1999),
pasando por la todavía, misteriosa para los científicos, “explosión del Cámbrico”
(Morris, 2000), en la que aparecieron, de un modo repentino, todos los tipos generales
de organización animal (ver Sandín 2002), constituyen un relato más acorde con las
características reales de los fenómenos naturales. Desde la naturaleza de la información
genética hasta el todavía indescifrable funcionamiento celular, desde las sofisticadas e
interdependientes actividades de los procesos fisiológicos, hasta la coordinación en la
formación de un organismo, o la complejidad de los ecosistemas, la Naturaleza nos
habla, fundamentalmente, de cooperación. De sistemas biológicos de una enorme
complejidad en los que no hay sitio para los “errores”, pero, sobre todo, de una gran
interacción con el ambiente y una gran capacidad de respuesta, con poco de aleatorio, a
las condiciones o agresiones ambientales. Una realidad totalmente opuesta a la visión de
las características genéticas rígidamente determinadas y herméticamente aisladas del
ambiente, en las que los supuestos cambios aleatorios serían seleccionados por medio de
una implacable competencia.
Sin embargo, los términos y los conceptos, incluso el modo de razonar darwinista,
aparentemente “grabados a fuego” en el cerebro durante nuestra formación como
biólogos, impiden dar a estos hechos el significado que tienen. Sólo a modo de ejemplo
de los sistemáticos y tópicos argumentos, a veces realmente peregrinos, que se utilizan
para embutir los nuevos datos en el paradigma darwinista, vamos a hacer referencia a
algunas interpretaciones sobre los fenómenos fundamentales de los procesos evolutivos
que se producen continuamente en las revistas especializadas en referencia a cualquier
fenómeno investigado, incluido el nivel molecular.
Pero los “siguientes procesos evolutivos” también resultan, para los especialistas que
los estudian, fenómenos excepcionales. La llamada “explosión del Cámbrico” en la que
aparecieron, en un período máximo de cinco millones de años ( Gª Bellido, 1999) todos
los grandes tipos de organización animal existentes en la actualidad (anélidos,
artrópodos, moluscos,... e incluso vertebrados), tuvo lugar en un medio marino muy
estable y a partir de antecesores muy sencillos. Antonio García Bellido, sin duda, el
científico español de mayor prestigio internacional, ha denominado “sintagma” al
conjunto de genes/proteínas responsable de la regulación embrionaria de la
diferenciación de distintos tejidos y órganos (que constituyen los llamados homeoboxes)
y que, forzosamente, tuvieron que aparecer en aquel período. Se ha podido comprobar,
por ejemplo, que los homeoboxes que coordinan la aparición de las alas de los
mamíferos, aves e insectos están formados por las mismas secuencias de ADN. Sólo se
diferencian en el número de duplicaciones. Y lo mismo ocurre para los ojos,
extremidades, tubo digestivo... También se ha podido comprobar (Morata, 2000) que
“transplantando”los genes que controlan el ojo de ratón, y "activándolos" en diversos
puntos del embrión de la mosca del vinagre, se formaban ojos de mosca (que para
colmo, son ojos compuestos, muy diferentes a los de mamífero). Una vez más, la misma
secuencia genética en un medio celular diferente, se expresa de modo distinto. Según
García Bellido sintagmas completos, en un número creciente de casos, están
conservados desde el origen. Es decir, que la evolución de los organismos y las
estructuras biológicas no ha sido, ni mucho menos, mediante “mutaciones” aleatorias
fijadas por la selección natural. De hecho, García Bellido lo expresa claramente: Las
mutaciones clásicas en los genes que codifican para proteínas han debido ser de escasa
relevancia para la evolución morfológica ( García Bellido, 1999). Sin embargo, no
podemos olvidarnos de la reverencia al darwinismo: Así se inició una competición
morfológica y de comportamiento entre organismos, elaboraciones que han continuado
y diversificado (sic) desde entonces.
Como se puede ver, aunque los descubrimientos “reales”, los datos, nos indican que
la competencia y la selección no han podido tener nada que ver en la formación de estos
sistemas “conservados desde el origen” tiene que existir, forzosamente, una
competencia que suponemos que fue “después”.
En suma, visto desde una “mentalidad biológica exterior al paradigma” resulta una
desalentadora sensación de que el “adiestramiento” (Feyerhabend,1989) en el modo de
ver darwinista, impide la compresión de lo que tenemos delante de los ojos. Y no parece
que este problema tenga fácil solución. No sólo es una visión reforzada por el modelo
social del “libre mercado” y la “libre competencia” que se ha impuesto en todos los
ámbitos de la vida en la llamada “civilización occidental”, sino que ya ha sido
“científicamente demostrado” nada menos que mediante programas de ordenador.
Leamos: Los organismos digitales, esencialmente programas de ordenador que
obedecen las leyes de mutación y selección natural, pueden ser usados para investigar
las relaciones entre los procesos básicos de evolución (Wilkie et al., 2001). Es decir, si
se programa una secuencia para que “obedezca” las “leyes” de la mutación y la
selección natural, las obedecerá. Pero difícilmente se podrá programar el
funcionamiento de una simple célula con sus cientos de miles de moléculas
interactuando y contribuyendo a su funcionamiento. Sencillamente, porque actualmente,
lo desconocemos.
El darwinismo parece haber vuelto a sus raíces de justificación teórica del “statu
quo” social, aunque, en realidad, nunca se alejó mucho. A lo largo de los últimos 150
años, el vocabulario de la Biología sólo se ha diferenciado del lenguaje de la economía
de mercado en los sujetos (banquero, empresa o bolsa, por individuo, especie o
ecosistema, por ejemplo), porque los procesos y las reglas (“leyes”) que los rigen son
prácticamente indistinguibles: las estrategias adaptativas, el coste-beneficio, la
explotación de recursos, la competitividad, la eficacia de un comportamiento, o su
rentabilidad, incluso las carreras armamentísticas (y muchos otros) se han llevado hasta
los más recónditos procesos bioquímicos. De hecho, incluso en las secciones de
periódicos relacionadas con la economía se puede leer: El mejor libro de negocios que
se ha escrito es “El Origen de las Especies”...(“Digital Darwinism” en el País
Negocios). Porque, en lo más profundo del Darwinismo, con sus inamovibles
principios, lo que subyace en realidad no es el intento de estudiar o comprender la
Naturaleza, sino el espíritu que guiaba las argumentaciones de Malthus, Spencer y el
mismo Darwin: la justificación de las diferencias sociales y entre países colonizadores y
colonizados (o “civilizados” y “atrasados”). Y esto explica la magnífica acogida de los
libros “científicos” encaminados en esta dirección, su gran difusión y el gran prestigio
que adquieren sus autores. Por ejemplo, uno de los mayores éxitos editoriales de un
libro que, supuestamente, era estrictamente científico fue el de “Sociobiología: La
Nueva Síntesis” del entomólogo estadounidense E.O. Wilson. Cuando se publicó por
primera vez, en 1975, el despliegue de medios de comunicación fue impresionante: se le
concedieron entrevistas en distintas cadenas de televisión y en revistas entre las que
figuraban “People”, “The New York Times Sunday Magazine”, e incluso “House and
Garden”. La tesis fundamental que mantiene Wilson es que el comportamiento social
humano es sólo un ejemplo especial de categorías más generales de comportamiento y
organización social del Reino animal. En consecuencia, tanto los comportamientos
individuales, como los de grupo, (léase pueblos o “razas”), han evolucionado como
resultado de la selección natural. Entre las características humanas resultantes del
proceso de selección natural figuran, según él, la agresividad, la competición, la división
del trabajo, el núcleo familiar, el individualismo y la defensa del territorio nacional. Si
tenemos en cuenta cual es el país que sobresale en estas virtudes sobre cualquier otro
del planeta, no parece necesario un análisis en profundidad de estos argumentos
“científicos”.
Pero, sin duda, el caso más nefasto por lo profundamente que ha calado en el ámbito
científico es el protagonizado por el zoólogo inglés Richard Dawkins. Como él mismo
escribe en el prefacio a una de sus múltiples reediciones (en este caso a la de 1989): En
la decena de años trascurridos desde la publicación de “El gen egoísta”, su mensaje
central se ha transformado en ortodoxia en los libros de texto. / ... / La teoría del gen
egoísta es la teoría de Darwin, expresada de una manera que Darwin no eligió pero
que me gustaría pensar que él habría aprobado y le habría encantado. La tesis central
de “El Gen Egoísta: las bases biológicas de nuestra conducta” es que los seres vivos
somos, simplemente, “máquinas de supervivencia” construidas por los genes que son la
“unidad de evolución”, y que compiten por alcanzar la supremacía sobre los otros
genes. Según Dawkins Toda máquina de supervivencia es para otra máquina de
supervivencia un obstáculo que vencer o una fuente que explotar. Su “entrañable”
visión de la vida la resume así: .. pienso que la naturaleza en estado puro, la naturaleza
“roja en uñas y dientes”, resume admirablemente nuestra compresión moderna de la
selección natural.
El problema de su visión es que sus bases científicas son inexistentes. Rizando el rizo
del darwinismo original, cuyas bases conceptuales eran claramente las creencias o la
visión de la vida de una clase social concreta, y los procesos evolutivos eran explicados
mediante la simplista extrapolación de las actividades de los ganaderos y horticultores,
pero que, al menos, eran hechos existentes, en este caso, los fenómenos biológicos que
invoca son una absoluta invención. Comenzando por su “definición” del protagonista
activo de su historia, “el gen”, nos encontramos con una tautología y una simplificación
no ya absolutamente descalificada por los datos actuales, sino absurda en el momento en
que la formuló: Un gen se define como una porción de material cromosómico que,
potencialmente, permanece durante infinitas generaciones para servir como una unidad
de selección natural. Desde su punto de vista, un automóvil de competición podría
definirse como “una porción de material metálico que potencialmente dura lo suficiente
para servir como una unidad de competición en un circuito”. En cuanto al origen y las
características del material cromosómico, el “ADN egoísta”, no son menos fantasiosos:
En algún punto, una molécula especialmente notable se formó por accidente. La
denominaremos el replicador. No tuvo que ser, necesariamente, la más grande o la más
compleja de todas las moléculas, pero tenía la extraordinaria propiedad de poder crear
copias de sí misma / ... / tan pronto como nació el replicador, sin duda esparció
rápidamente sus copias a través de los mares hasta que las moléculas mas pequeñas,
cuya función era la de ser componentes, se convirtieron en un recurso escaso y otras
moléculas mas grandes no pudieron formarse sino muy rara vez /... / Pero cuando los
replicadores llegaron a ser numerosos , estos componentes debieron de ser utilizados
en una proporción tan elevada que se convirtieron en un recurso escaso y precioso. Las
diferentes variedades o especies de replicadores debieron de competir por ellos. / ... /
Hubo una lucha por la existencia entre las distintas variedades de replicadores / ... /
Los replicadores que sobrevivieron fueron aquellos que crearon máquinas de
supervivencia para vivir en ellas. Las primeras máquinas de supervivencia consistían,
probablemente, nada más que en una capa protectora. Pero ganarse la vida se hizo
cada vez más duro a medida que surgían nuevos rivales con mejores y más efectivas
máquinas de supervivencia.
Los guardianes oficiales del darwinismo son tan implacables con cualquier actitud no
ya crítica, sino dudosa, entre los biólogos, como elogiosos con los más dogmáticos (o
“integristas”). En “El fin de la ciencia” (1998) John Horgan, redactor de la revista
“Scientific American”, sostiene la tesis de que la investigación en Biología está
llegando a su fin, precisamente por el éxito de la teoría darwinista de la que afirma que
No solo es bella, sino, además, verdadera. Según Gunter Stent, presidente del
departamento de neurobiología de la Academia Nacional de Ciencias de Estados
Unidos, entrevistado en su libro: Los biólogos, sólo tenían tres cuestiones de gran
calado que explorar; a saber, cómo empezó la vida, cómo una única célula fertilizada
se desarrolla hasta convertirse en un organismo multicelular y cómo el sistema
nervioso central procesa la información. ( Es decir, sólo quedan “minucias” por
conocer). Cuando se alcancen estas metas, decía Stent, la tarea fundamental de la
Biología, de la Biología pura, habrá concluido. / .../ La biología evolutiva, en
particular, había concluido con la publicación, por parte de Charles Darwin, de El
origen de las especies.
Y, a los poseedores de “la verdad” lo que más les irrita no son las otras posibles
verdades, que no merecen ni un segundo de su consideración, sino las dudas razonadas
sobre la propia. Así es como Horgan trata en su libro al recientemente fallecido S. J.
Gould, el más brillante (y crítico, dentro de la ortodoxia) teórico evolucionista de los
últimos años autor, junto con Niles Eldredge, de la “Teoría del equilibrio puntuado”:
La gran pesadilla de Gould es su falta de originalidad. Darwin vaticinó el concepto
básico del equilibrio puntuado en “Sobre el origen de las especies”... (Aquí conviene
señalar que, como hemos visto, en el libro de Darwin se pueden encontrar
especulaciones tan variadas, confusas y contradictorias, que los darwinistas pueden
encontrar antecedentes para cualquier versión de la evolución). Pero su falta de
originalidad tiene una explicación: La clave para entender a Gould puede que no sea su
supuesto marxismo, o liberalismo, o antiautoritarismo, sino su miedo al potencial punto
final de su campo de investigación. La aversión por los científicos con espíritu crítico
llega a extremos realmente esperpénticos: Gould desarma a cualquiera con su aspecto
ordinario: bajito y regordete, de cara rechoncha, nariz chata y pequeña y bigote a lo
Charlot, especialmente, si comparamos esta descripción con la del abanderado de “la
Naturaleza roja en dientes y garras”: La primera vez que vi a Dawkins fue con motivo de
un encuentro organizado por su agente literario en Manhattan. Es un hombre de una
belleza glacial, ojos de ave rapaz, nariz puntiaguda y mejillas incongruentemente
sonrosadas. Llevaba lo que me pareció un traje caro, hecho a medida. Cuando extendía
sus manos surcadas de venas para rematar una idea, éstas temblaban ligeramente. Era
el temblor, no de un hombre nervioso, sino de un competidor perfectamente adiestrado
– y con espíritu ganador – para la guerra de las ideas: del galgo de Darwin. No será
necesario aclarar que para Horgan Dawkins se expresa con absoluta claridad, tanta que
no deja espacio alguno para el misterio, el significado, la finalidad ni para las grandes
revelaciones científicas, fuera de las que Darwin nos hizo.
Y es que la duda “no vende”. Los sabios son los que conocen “La Verdad”, los que
están convencidos de que Darwin nos dijo ya básicamente todo lo que sabemos y
necesitamos saber sobre la vida. Un ejemplo: Uno de los tópicos más repetidos por los
darwinistas, con un aire de suficiencia que produce la impresión de estar emitido desde
el Olimpo de la sabiduría, es El ojo es una chapuza de la evolución. Hoy día se podría
diseñar mejor. Sin duda, esta seguridad impresiona a la audiencia, pero quizás se
olvidan explicarla que, en el momento actual, la ciencia es incapaz, no ya de diseñar una
sola de las células que forman el ojo, sino tan siquiera de comprender su
funcionamiento.
Pero eso no parece tener importancia. Se han inventado una Naturaleza muy fácil de
entender, porque en la forma de razonar en que están “adiestrados” (Feyerhabend, 89)
no hay necesidad de reflexionar sobre cómo se pueden producir estos fenómenos de tal
complejidad (Para el “filósofo” M. Ruse Eso de la complejidad es una tontería).
Simplemente, las células, los ojos, las conexiones neuronales, la organización de los
campos visuales del cerebro,... “aparecen”, “por partes”, “al azar” y lo que realmente
importa es que la selección natural elige a lo que, naturalmente, por casualidad,
funciona mejor. ¡Ya está entendido! Un Universo indiferente, sí, pero ya nunca más
incomprensible desde que Darwin, sobre las tinieblas de la ignorancia, arrojara luz,
mucha luz. El descubrimiento de la verdad nos hizo, al fin, libres (Arsuaga, 2001).
En el aspecto social, parece deducirse que las cosas son como son porque funcionan
según las Leyes de la Naturaleza, que, curiosamente, son las mismas que “descubrieron”
los padres fundadores de la economía moderna: El comportamiento altruista es, en la
Naturaleza, algo que es sencillamente incompatible con la selección natural operando
en el nivel del individuo, que es la única forma de selección que admite el
neodarwinismo (Arsuaga, 2001). Lo cierto es que en la Naturaleza (por no hablar de las
sociedades humanas) se pueden observar comportamientos razonablemente calificables
de altruistas o cooperativos. Pero para el darwinismo no resultan creíbles: En el caso de
que los individuos estén genéticamente emparentados la explicación es la “selección
familiar” es decir ayudas a mantener tus propios genes. Pero entre los individuos no
consanguíneos, cuando un individuo arriesga su vida con una llamada de alarma para
que otros escapen, o avisa de la existencia de alimento el problema es mucho más
complejo y plantea un verdadero reto al neodarwinismo, porque la selección familiar
no puede actuar cuando los individuos no están muy relacionados genéticamente...
Pero John Maynard Smith ha ofrecido una explicación que se basa en la teoría
matemática de juegos / ... / Un conocido ejemplo es el llamado “dilema del
prisionero”: dos acusados de haber cometido un robo juntos, son aislados en celdas
separadas y obligados a confesar sin que uno sepa lo que hace el otro / ... /
Paradójicamente, si cooperan los dos ladrones (y ninguno confiesa) les va mejor que si
los dos confiesan (y no cooperan entre sí) /... / La cooperación puede, como se ha visto,
resultar rentable aunque los individuos no sean por naturaleza altruistas ( Arsuaga,
2001) (El subrayado es mío).
Cada día resulta más evidente que, si es que en la Naturaleza existe algo que se
pueda denominar “Leyes”, son muy diferentes a los rancios e hipócritas principios que
impregnan “la supervivencia del más apto”, y nos hacen tomar conciencia de lo lejos
que estamos de poder controlar la Naturaleza. Porque, casi diariamente, están
apareciendo nuevas evidencias de que los fenómenos vitales, desde el nivel celular hasta
el ecosistémico, incluido el que constituye la Biosfera, están constituidos por un
complejísimo entramado de relaciones que interconectan a todos sus componentes, tanto
bióticos como abióticos, que contribuyen a su funcionamiento, y en la que todos sus
componentes son tan interdependientes como necesarios.
Incluso las bacterias y los virus, considerados por los darwinistas nuestros peores
competidores, se han revelado como una parte fundamental de los procesos naturales.
Las bacterias no sólo fueron, como se ha visto, las responsables de la formación de
nuestros componentes celulares (Doolittle, 2000; Gupta, 2000; Margulis, 95 ), sino
también de la creación de las condiciones que hicieron posible la vida tal como la
conocemos (Margulis, 95). En la actualidad, siguen siendo fundamentales para el
funcionamiento de la vida. Hoy sabemos que los suelos terrestres están repletos de
bacterias que cumplen funciones esenciales como la degradación de sustancias tóxicas y
en la regeneración de suelos y ecosistemas terrestres y marinos. También son
indispensables para la vida vegetal y animal: las bacterias son absolutamente
imprescindibles a las plantas para la fijación de Nitrógeno, en una simbiosis tan estrecha
que se ha comprobado (Endre, G. et al., 2002) que existen células vegetales con
receptores moleculares para facilitar su relación con las bacterias. En cuanto al Reino
Animal, enormes colonias de bacterias viven y realizan sus necesarias funciones en
nuestro interior y nuestro exterior. En el tubo digestivo, colaborando en funciones
esenciales como la degradación de sustancias que no podemos digerir o la producción
de otras, imprescindibles para el organismo. En la piel, una capa formada por un
número aproximado de 100.000 bacterias por centímetro cuadrado nos protege de
microorganismos ajenos.
Un papel de igual importancia es el que están mostrando, cada día con más
evidencias, los temidos virus. Tanto éstos como las bacterias arrastran el estigma de
“nuestros peores enemigos invisibles” gracias a que su descubrimiento fue debido a su
actividad patógena (ver Sandín, 2002). Y es cierto que la tienen. El problema que ahora
se plantea es cuando y por qué se convierten en patógenos, y si es éste su carácter
predominante que les atribuye la concepción competitiva del darwinismo. Porque, del
mismo modo que las bacterias, los virus están resultando ser no sólo una parte más de
los complejos sistemas de relaciones que hacen posible la vida, sino una parte
fundamental. Además de las implicaciones en los procesos evolutivos que ya hemos
visto, y que les sitúa en un papel central en la historia de la Vida, los virus siguen
colaborando en los (todavía muy desconocidos) procesos naturales de la transferencia
de genes ( Patience et al.,1997 ). También tenemos datos sobre agresiones ambientales
que pueden provocar su “malignización” (Ter-Grigorov et al., 97). Pero lo que puede
resultar mas sorprendente es que su papel ecológico es, al menos, tan importante como
el de las bacterias. Un estudio, que inicialmente pasó casi desapercibido (Fuhrmam 99),
pero que desencadenó una serie de investigaciones posteriores, ha sacado a la luz el
hecho de que en las aguas superficiales marinas superficiales hay 10.000 millones de
virus por litro. Su papel ecológico consiste en el mantenimiento del equilibrio entre las
distintas especies que componen el microplancton (y por tanto, del resto de la cadena
trófica) y entre los distintos tipos de bacterias, destruyéndolas cuando hay un exceso. La
materia orgánica liberada tras la destrucción de los pequeños microorganismos
enriquece en nutrientes el agua. Pero su papel más sorprendente es que los compuestos
de Azufre producidos por estas actividades contribuyen ¡a la nucleación de las nubes!.
Se conocen unos 4.000 tipos de bacterias (no se puede hablar de especies porque
potencialmente todas son capaces de intercambiar información genética), y unos 5.000
de virus, de los que sólo una mínima proporción se conocen como patógenos. Según el
Informe del Programa de las Naciones Unidas para el Medio Ambiente (PNUMA,
2000), el número mínimo estimado, tanto de bacterias como de virus, por ahora
desconocidos es, al menos, cien veces mayor. Parece claro que su aspecto patógeno es
extremadamente minoritario. Desde luego, si fueran “nuestros competidores”
tendríamos pocas oportunidades de “vencerlos”.
Y aún hay más: A este “Frankenstein” se le ha de añadir, para que el nuevo gen se
exprese, un “promotor”; un segmento de ADN que suele ser de origen viral, y que,
frecuentemente, produce un exceso de “expresión” (producción) del nuevo gen.
Aunque las noticias sobre estos “logros científicos” suelen ser muy triunfalistas
(Científicos norteamericanos crean el primer mono que incorpora un gen de otra
especie (El País, 12-1-2001)), las consecuencias reales de estos “avances” y los fracasos
sistemáticos parecen ser menos periodísticos. Como la realidad es que, cuando se realiza
una transferencia de material genético no se sabe donde se va a insertar (en el caso de
que lo haga) en el genoma que lo recibe, las consecuencias son impredecibles. Como
hemos visto, el conocimiento de la manera en que se controlan y autorregulan los genes
es muy limitado, aunque sabemos que un cambio de posición de los genes al introducir
otros puede alterar las relaciones entre todos ellos. Y de esto sí existen pruebas: Un
ejemplo muy ilustrativo (entre otros) fue el intento de transferir “el gen” del pigmento
rojo de maíz a petunia. Las flores se pusieron rojas, pero además las plantas tenían más
hojas, más brotes, mayor resistencia a los hongos y baja fertilidad. (Steinbrecher, 97).
En cuanto a los efectos de estas manipulaciones sobre el medio ambiente, han sido
tan documentados y denunciados por organizaciones ecologistas y científicos
independientes que casi se han convertido en un lugar común: “Contaminación
genética” (transferencia de las características introducidas, deseadas o no, a las plantas
silvestres y cultivos cercanos) (Frello, et al., 1995), pérdida de insectos beneficiosos
(Tudge, 1993) y alteración de los ecosistemas naturales (Hilbeck et al., 1998),
disminución de variedades de cultivos (The Ecologist, 1998), posible generación de
nuevos virus patógenos por hibridación de los “vectores” (Cory, 1991). En resumen,
peligros de los que la mayor parte son desconocidos, impredecibles y, probablemente,
inimaginables. Según Jacques Diouf, director general de la FAO, los organismos
genéticamente modificados son innecesarios: En su opinión, los OGM son un arma de
doble filo que exigen medidas de precaución. Cuando se comienza a manipular genes,
no se sabe en que va a terminar eso. (El País, 22-5-2001).
Pero los riesgos de la manipulación genética con fines comerciales no se limitan a los
de los alimentos transgénicos. Los experimentos en humanos de intentos de “terapia
génica”, el intento de sustituir “un gen malo” por otro “bueno”, que han producido el
fallecimiento de pacientes que podrían haber vivido mas tiempo si no se les hubiese
“tratado” (Wan-Ho, 2001). Los Xenotransplantes (transplantes de órganos de animales)
en los que se pretende utilizar cerdos transgénicos, con el riesgo de hibridación de virus
endógenos animales y humanos y la generación de nuevos patógenos que pueden ser
incontrolables (Stoye, 1997; Millet, 1999).
También los fracasos, como las falsas clonaciones de animales con el evidente
propósito de llegar a clonar a los humanos que puedan pagárselo (entre ellos a Richard
Dawkins, a quien, al parecer, le entusiasma la idea) que se han puesto de manifiesto al
intentar clonar un gato, (una “investigación” de mas de 3,5 millones de dólares donados
por el financiero de 81 años John Sperling, que fundó la empresa Genetics Savings &
Clone), cuyo descendiente ha resultado de otro color que el donante del núcleo (Shin et
al, 2002), fenómeno que no se podía detectar en la famosa Dolly, que, (salvo por algún
carnero enamorado), era imposible de distinguir de otras de su seleccionada raza, y
cuyas negativas consecuencias en la salud de los animales “clonados” y el escaso rigor y
alto índice de fracasos de su metodología no son muy diferentes de los que caracterizan
a la transferencia génica.
Sin embargo, estas fundadas objeciones, que difícilmente llegan a los medios de
comunicación, más dados a ensalzar los “logros científicos” que a sacar a la luz los
problemas derivados de ellos, no son obstáculo para que se continúe con estas
peligrosas prácticas. Incluso los trabajos científicos que ponen de manifiesto los riesgos
de estas actividades, o las pruebas de accidentes relacionados con ellas, son rápidamente
descalificados (Ver ISIS Report, 29- 4-2002) por “equipos científicos” entre los que, sin
el menor pudor, figuran miembros de alguna gran empresa de la biotecnología. Porque,
la realidad, es que los verdaderos intereses que subyacen a todas estas prácticas
(incluidas las de muchos especialistas de buena voluntad que creen trabajar “por el bien
de la Humanidad”), son intereses económicos. Tanto las grandes sumas invertidas en la
investigación pública (a menudo financiada por grandes empresas), como
(mayoritariamente) la llevada a cabo por las empresas involucradas en su
comercialización, esperan resultados prácticos (aproximadamente, el 25% de las
acciones de Wall Street pertenecen a empresas de biotecnología), y esos resultados
prácticos no son, evidentemente, la solución de los problemas del 80% de la
Humanidad, sino el beneficio económico de sus poseedores. (Ver “Genetically
Modified Organisms 25 Years On”. ISIS)
A pesar de estas evidencias, son muy abundantes los científicos (sobre todo entre los
altamente especializados) de buena fe convencidos de que estas prácticas no son mas
que una aceleración de los procesos que han tenido lugar en la Naturaleza. Es decir,
como los cambios evolutivos han sido “al azar”, no hay motivo de preocupación por
introducir más. Por otra parte, es lógico que se tengan que pagar por estos
descubrimientos en los que tanto se ha invertido. Y así asistimos al vergonzoso
espectáculo del abandono de las multinacionales farmaceúticas de las investigaciones
sobre las enfermedades que azotan al Tercer Mundo, porque sus ciudadanos no son un
buen mercado (Grabowski, H. 1997). Las doctrinas de la mano invisible del mercado y
de la selección natural justifican la existencia de un creciente número de desheredados
y los millones de personas que mueren en el Mundo de hambre y enfermedades fáciles
de curar. A título personal, nadie es responsable: son el mercado y la supervivencia del
más apto los que deciden. La Naturaleza es así. John R. Rockefeller lo tenía muy claro:
El crecimiento de un gran negocio consiste, simplemente, en la supervivencia del más
apto / ... / es, sencillamente, el desarrollo de una ley de la Naturaleza (Lewontin et al.,
1987).
Esta forma de razonar es lo que se conoce como el “pensamiento único”: “así son las
leyes de la libre competencia”. Y la competencia se está extendiendo a unos niveles que
harán extremadamente felices a Richard Dawkins y sus discípulos: Incluso para los
líderes sindicales, “el mercado laboral es muy competitivo”, lo que quiere decir que hay
que competir hasta para poder trabajar, es decir, ofrecer el mismo trabajo por menos
salario (lo que hace suponer que, con el tiempo, habría que pagar por trabajar), con lo
cual se ha conseguido poner a competir a los pobres de todos los países, que ofrecen su
trabajo a cambio de salarios de miseria.
Y así, se está creando un Mundo en el que mientras las dos terceras partes de la
población se mueren prácticamente de hambre, en el tercio restante, la vida se está
convirtiendo crecientemente en un estado de tensión e inseguridad permanentes. Para la
mayor parte de la población, la sensación (en el “mercado laboral”, en la calle, en las
relaciones humanas) es la de una sociedad cada día mas insolidaria, agresiva e
inhóspita.
Es evidente que esta creciente acumulación de riqueza en manos de, cada vez, menos
personas, a costa del expolio de los recursos y la población de la Tierra es tan inviable a
largo plazo como las consecuencias científicas de la hipócrita visión spenceriana de “la
supervivencia del más adecuado”. Pero será difícil un cambio de rumbo en este camino
hacia un callejón sin salida mientras las sociedades de los países “desarrollados” no
tengan la posibilidad de acceder a una información libre que haga posible una reflexión
sobre las “verdades científicas” que nos imponen este feroz sistema económico y sus
propagandistas.
AGRADECIMIENTOS
Al Doctor Juan Javier Sánchez Carrión, especialmente, por su infinita paciencia, pero
también por darme la oportunidad de publicar este trabajo. Y a la “protodoctora” Sandín
por su, siempre oportuna, ayuda.
BIBLIOGRAFÍA
Ayala, F.J. (1999): “La Teoría de la Evolución”. Colección: “Tanto por saber”. Ed.
Temas de hoy. Madrid.
Arsuaga, J.L. (2001): "El enigma de la esfinge. Las causas, el curso y el propósito
de la evolución". Plaza Janés. Barcelona.
Ball, P. (2001): "Ideas for a new biology". Nature science update. 12 Feb.
Behe, M.J. (1999): "La caja negra de Darwin. El reto de la bioquímica a la
evolución”. Editorial Andrés Bello.
Boss, P.K. y Thomas, M.R. (2002): “Association of dwarfism and floral induction
with a grape "green revolution" mutation”. Nature 416, 847-850.
Boyd, R. y Silk, J.B. (2001): “Cómo evolucionaron los humanos". Ariel Ciencia.
Barcelona.
Darwin, Ch.R. (1859): “On the Origin of Species by Means of Natural Selection, or
the Preservation of Favoured Races in the Struggle for Life”. Versión española: “El
Origen de las Especies”. Akal, 1998.
Darwin, Ch.R. (1871): “The Descent of Man, and Selection in Relation to Sex”.
Versión española: “El Origen del Hombre”. Ediciones Petronio. Barcelona. 1973.
Darwin, Ch.R. (1876): "Autobiografía". Alianza Editorial. Madrid. 1993.
Doolittle, W.F. (2000): "Nuevo árbol de la vida". Investigación y Ciencia. Abril. 26-
32.
Endre, G. Et al., (2002): "A receptor kinase gene regulating symbiotic nodule
development”. Nature, 417: 962-966.
FAO (Organización para la Agricultura y la Alimentación) (2002): “Examen del
estado mundial de la agricultura y la alimentación”. Cumbre mundial sobre la
alimentación. Roma.
Frello, K.R. et al. (1995): "Inheritance of Rapeseed (Brassica napus) Specific RAPD
Markers and a Transgene in the cross B. Juncea x (B. Juncea x B. Napus)". Theor.
Appl. Genet. 91: 236-241.
Fuhrman, J.A. (1999): "Marine viruses and their biogeochemical and ecological
effects". Nature, 399: 541-548.
García Bellido, A. (1999): "Los genes del Cámbrico". Rev. R. Acad. Cienc. Exact.
Fis. y Nat. Vol. 93, Nº 4: 511-528.
Gaunt, Ch. y Tracy, S. (1995): "Deficient diet evokes nasty heart virus". Nature
Medicine, 1 (5): 405-406.
http://www.i-sis.org.uk/GMO25.php
Lewontin, M.C. (1982): “El Determinismo Biológico Como Arma Social”, en “La
Biología como Arma Social”. The Ann Arbor Science for the People (Editorial
collective). Alhambra. Madrid.
Lewontin, M.C.; Rose, S.; Kamin, L.J. (1987): “No Está en los Genes”. Ed. Crítica.
Barcelona.
Nature (1998): “Last chance to stop and think on risks of xenotransplants”. Editorial
Enero. 1998.
Patience, C. Et al., (1997): "Our retroviral heritage". Trends Genet. 13: 116-120.
Peng, J. Et al. (1999): "Green revolution genes encode mutant gibberellin reponse
modulators". Nature 400, 256-259.
Rose, M.R. (1999): “Darwin’s Spectre. Evolutionary Biology in the Modern World”.
Pricenton University Press.
Sandín, M. (1998): "La función de los virus en la evolución". Bol. R. Soc. Hist. Nat.
(actas) 95: 17-22.
Sandín, M. (2002): "Hacia una nueva Biología". Arbor. Nº 677. Pp. 167-218.
Stoye, J.P. (1997): “Proviruses pose potential problems". Nature, 386: 126-127.
Ter-Grigorov, S.V. et al., (1997): "A new transmissible AIDS-like disease in mice
induced by alloinmune stimuli". Nature Medicine, 3 (1): 37-41.
Wilke, C.O. et al. (2001): “Digital organisms: survival of the flattest". Nature 412,
331-333.
Wilson, E.O. (1975): “Sociobiology: The new Synthesis”. Harvard University Press.
Cambridge, Mass. Versión Española Ed. Omega. 1982. Barcelona.
Resumen
2
3
Automatización del análisis de la imagen de una gota de sangre coagulada
Agradecimientos
A Rosa María López Monís por facilitarme imágenes de muestras de gotas de sangre
coagulada.
4
Índice general
1. Introducción ................................................................................................................ 10
2. Metodología ................................................................................................................ 29
5
Automatización del análisis de la imagen de una gota de sangre coagulada
3. Resultados................................................................................................................... 46
5. Conclusiones............................................................................................................... 69
6
Índice de figuras
1. Introducción
1.1 Imagen del microscopio utilizado (a) y un ejemplo del autor visualizando
muestras (b)
1.4 Imagen de una gota de sangre con un patrón normal (a) y anormal (b)
tomada mediante un microscopio de campo oscuro
1.5 Imagen de una gota de sangre con un patrón normal o sano (a) y con un
patrón anormal o enfermo (b) tomada con un microscopio de campo claro
1.11 Posibles patrones particulares que pueden darse en una gota de sangre
coagulada
2. Método
2.2 Imagen de una gota de sangre (a) descompuesta en sus componentes del
espacio RGB: la componente roja (b), la componente verde (c) y la componente
azul (d)
7
Automatización del análisis de la imagen de una gota de sangre coagulada
2.3 Imagen de una gota de sangre (a) descompuesta en sus componentes del
espacio CIE LAB: la luminancia (b), el eje rojo verde (c) y el eje azul-amarillo
(d)
2.5 Máscara obtenida con el método de otsu (a) y el resultado de aplicar una
operación de apertura de valor mil (b)
2.6 Resultado de aplicar una operación de apertura de valor mil (a) y el efecto
que se produce al realizar un cierre de valor mil (b)
2.10 Imagen de una gota de sangre (a) y la máscara que marca en color blanco
las manchas de la gota (b)
3. Resultados
3.1 Imagen de una gota de sangre coagulada (a) y sus manchas marcadas en
color verde (b)
3.2 Imagen de una gota de sangre coagulada (a) y el eje rojo-verde del espacio
Lab (b)
3.3 Máscara que marca con color blanco la gota (a) y la superposición de dicha
máscara sobre la imagen original (b)
3.4 Gota con un patrón normal (a) y otra gota con patrón anormal (b). Muestras
tomadas en campo oscuro
3.5 Máscara del patrón normal (a) y del patrón anormal (b)
3.6 Máscara transpuesta del patrón normal (a) y máscara del patrón anormal (b).
8
3.7 Gota con un patrón normal (a) y otra gota con patrón anormal (b). Muestras
tomadas en campo claro
3.8 Se toma la luminancia como entrada y se marcan las manchas blancas para el
patrón normal (a) y el patrón anormal (b)
3.9 Se toma la componente roja como entrada y se marcan las manchas blancas
para el patrón normal (a) y el patrón anormal (b)
3.11 Se toma la componente azul como entrada y se marcan las manchas blancas
para el patrón normal (a) y el patrón anormal (b)
3.12 Se toma el eje “a” como entrada y se marcan las manchas blancas para el
patrón normal (a) y el patrón anormal (b)
3.13 Se toma el eje “b” como entrada y se marcan las manchas blancas para el
patrón normal (a) y el patrón anormal (b)
4. Líneas Futuras
4.1 Objetos de mayor área que han sido detectados en las imágenes de campo
oscuro para un patrón normal (a) y anormal (b)
4.2 Ejemplo de una gota donde se aprecia la red de fibrina (a). Ejemplo de una
gota con la red de fibrina rota (b)
9
Automatización del análisis de la imagen de una gota de sangre coagulada
1. Introducción
El presente proyecto final de carrera (PFC) tiene como finalidad estudiar y procesar
imágenes de gotas de sangre seca. El estudio de este tipo de imágenes resulta novedoso
y establece el inicio para poder desarrollar futuras investigaciones, a fin de determinar si
el estudio de gotas de sangre seca puede ser útil en el ámbito médico. Para llevar a cabo
una investigación en este campo, se ve necesario disponer de un grupo multidisciplinar
de profesionales y la colaboración de otros laboratorios de la Universitat Politécnica de
València. El punto de partida es la motivación que lleva al autor a desarrollar el
proyecto. Posteriormente el estado del arte es necesario para fijar los objetivos. La parte
central del proyecto es la metodología empleada y los resultados obtenidos. Se finaliza
delimitando una línea a seguir para el desarrollo de futuros proyectos y las conclusiones
obtenidas.
Punto 1: Identificar los factores que han influido para querer desarrollar el
proyecto.
Punto 2: Historia y situación actual del análisis de gotas de sangre coaguladas.
Punto 3: Objetivos del proyecto e hipótesis que se desean validar.
10
1.1 Motivación
1.1.1 La sangre
11
Automatización del análisis de la imagen de una gota de sangre coagulada
sanguíneas. Toda la sangre está compuesta por los mismos elementos básicos aunque no
toda es igual. La presencia o ausencia de ciertos antígenos determina el grupo
sanguíneo.
Las imágenes que se analizan han de ser obtenidas con un microscopio. El microscopio
ha de cumplir las siguientes características: (Aguirre, 2011)
- Cabeza Binocular.
- Instalación de luz transparente.
- Factores de ampliación de 40X, 100X, 200X.
- Posibilidad de incorporar una cámara.
- Campo claro y/o campo oscuro.
12
primeras muestras, es una cámara de 2 Mpx que guarda las imágenes en una tarjeta de
memoria, con formato propietario.
(a) (b)
Figura 1.1 Imagen del microscopio utilizado (a) y un ejemplo del autor visualizando muestras (b)
- Presionar la yema del dedo durante 3 segundos, y realizar un pinchazo con una
lanceta. Las lancetas se usan para evaluar la glucemia en diabéticos.
- Dejar la sangre unos 15 segundos y a continuación presionar hasta obtener una gota.
- Tomar el cristal porta y dejarlo caer sobre la gota. Esperar dos segundos y retirar. A
continuación dejar caer de nuevo el cristal porta, en una nueva posición sobre el
pinchazo. Así se crean los círculos de menor tamaño (figura 1.2).
13
Automatización del análisis de la imagen de una gota de sangre coagulada
Esta técnica resulta de interés porque, es muy poco invasiva para el paciente, ya que tan
solo tiene que someterse a un pinchazo en su dedo índice. Otro punto a destacar es el
hecho de que, una vez se ha tomado la muestra y se ha coagulado la sangre, esta
muestra puede ser almacenada durante más de un año. Así en la próxima visita del
paciente, se obtiene una nueva muestra, y se compara la gota nueva con la de la última
visita, obteniendo marcadores objetivos del estado de salud del paciente. Cabe destacar
que una vez secas las muestras, pueden ser enviadas a otros lugares para llevar a cabo su
estudio. Las muestras no necesitan refrigeración, tan solo deben ser tratadas con la
delicadeza que supone transportar un trozo de vidrio. Puede darse el caso que, las tomas
no se obtengan de la manera más correcta. Por esta razón se definen:
14
Una vez definido el método para obtener las muestras y los posibles errores que se
pueden cometer, se tomaron cuatro muestras a cuatro voluntarios y se analizaron con el
microscopio obteniendo un total de 36 imágenes (figura 1.3). El microscopio Olympus
BX41 (figura 1.1) incluye la posibilidad de visualizar las muestras en campo claro,
campo oscuro, polarización y contraste de fases. En este caso las primeras muestras
fueron tomadas en campo claro. A continuación se muestran dos ejemplos de muestras
obtenidas.
(a) (b)
Figura 1.3 Muestra visualizada en toda su extensión (a) y con un acercamiento mayor (b)
Se deposita la gota sobre el cristal porta objetos tocando el cristal seis u ocho veces
hasta que la sangre depositada en el cristal sea mínima (figura 1.2). Como resultado
obtendremos de seis a ocho imágenes o capas de cada cristal, todas de forma circular y
con tamaño decreciente. La resolución de la cámara, presenta un sesgo importante
cuando se pretenden analizar las muestras, ya que la visualización de la muestra con
cierto alejamiento provoca la pérdida de la información del color.
15
Automatización del análisis de la imagen de una gota de sangre coagulada
En toda la bibliografía (Hawk, Thoma, & Inkley, 1951), (Aguirre, 2011), (Vaughn,
Metzner, & Annan, 1952), (Bolen H. L., 1952) se converge hacia la premisa que, más
blanco es peor. Este punto lleva a que se centren todos los esfuerzos en hallar las
manchas blancas y en la necesidad de cuantificar cuánto de blanco hay en la gota.
Mediante el método que se introduce en el proyecto, se obtiene una imagen en blanco y
negro en la que los objetos blancos, tienen valor uno (blanco) y el resto tiene valor cero
(negro). Analizando esta imagen obtendremos las características de la gota, por lo que la
obtención de ésta primera imagen es crucial para el correcto funcionamiento del
método.
Una vez se obtiene la máscara en la que se delimitan las manchas blancas, el siguiente
paso consiste en extraer características. MATLAB®, el programa con el que se ha
realizado el proyecto, cuenta con herramientas muy robustas y librerías dedicadas única
y exclusivamente al tratamiento digital de imagen. Como resultan importantes todas y
cada una de las manchas, el primer parámetro que se calculó fue el número de manchas
blancas. Existe una gran diferencia si tenemos pocas manchas pero de gran tamaño o
muchas manchas de muy poco tamaño. Así que el segundo parámetro que se prevé
interesante es el tamaño o el área de las manchas blancas.
Con estos dos parámetros ya se podría estudiar la evolución de una misma gota de
sangre a través del tiempo. Es posible que una gota vaya aumentando el número de
manchas blancas y en cambio vaya reduciendo paulatinamente el área de las mismas.
Cabe destacar que la distribución de las manchas blancas en la gota de sangre es un
punto de interés. Se debe estudiar si las gotas se encuentran por toda la gota de sangre o
si por el contrario, se encuentran concentradas en el centro de la gota. En este punto
surgen varias dificultades:
16
Dificultad tecnológica
o Las muestras de las gotas se han tomado haciendo uso de un microscopio
de alta potencia y de una cámara especial acoplada al microscopio de 2
MPx. Si se quiere analizar toda la gota de sangre se pierde resolución y
resulta casi imposible analizar las manchas blancas.
Dificultad analítica
o La poca cantidad de imágenes que se dispone hace difícil evaluar el
modo más idóneo de evaluar las manchas blancas.
“Se identifica una gota como normal o sana cuando su coloración es roja, brillante,
uniforme, y sin la existencia o una presencia mínima de manchas blancas.”
“La gota de sangre, en un estado normal, se presenta en forma circular, de color rojo
compacto, sin decoloraciones, masas blancas, ni lagunas, y con una red oscura de
fibrina fina que la cubre en forma de velo perfectamente adaptado al tejido sanguíneo.”
17
Automatización del análisis de la imagen de una gota de sangre coagulada
(a) (b)
Figura 1.4 Imagen de una gota de sangre con un patrón normal (a) y anormal (b) tomada mediante un
microscopio de campo oscuro
(a) (b)
Figura 1.5 Imagen de una gota de sangre con un patrón normal o sano (a) y con un patrón anormal o
enfermo (b) tomada con un microscopio de campo claro
18
1.2 Estado del arte en análisis de imágenes de gotas de
sangre.
1.2.1 Historia
La técnica del análisis de la gota coagulada se llama test H.L.B. o también test Bolen.
Las siglas corresponden a los nombres de tres doctores: Dr Henri Heitan, Dr Philippe de
LaGarde y el Dr H Leonard Bolen.
En 1942 el médico H. Leonard Bolen presenta esta técnica (Bolen H. L., November
1950). Se busca determinar si los individuos afectados con leucemia, enfermedad
cardiovascular y enfermedad tiroidea presentan una coagulación de la sangre normal.
De este modo aparece lo que se denomina como “Bolen blood test” o test de Bolen.
19
Automatización del análisis de la imagen de una gota de sangre coagulada
Ese éxito lleva al investigador a estudiar a 857 individuos. Se define como un patrón
normal una gota densa y oscura. En el patrón canceroso se rompe el diseño compacto
cerca del área central de la gota. Cuando se encuentra el cáncer en un estado avanzado,
la rotura del diseño se extiende hasta casi el borde de la gota. En todos los 195 pacientes
sanos se observaba un patrón normal o negativo. En el 87% de los 157 pacientes con
cáncer, se observaba un patrón anormal o positivo. Es decir, existe una alta probabilidad
que la coagulación de la gota de sangre en pacientes con cáncer siga un patrón anormal.
Este gran hallazgo hizo que después se introdujesen 505 nuevos pacientes con variedad
de diagnósticos. De todos ellos 439 presentaban un patrón normal o negativo y 66 un
patrón anormal o positivo. Al añadir el diagnóstico clínico se obtiene la siguiente tabla:
Tabla 1.1 Aparición de patrones normales o anormales según el diagnóstico de algunas enfermedades
20
El estudio (Hawk, Thoma, & Inkley, 1951) concluye que un patrón anormal no indica
necesariamente la presencia de una enfermedad, aunque la probabilidad de la presencia
de cáncer es bastante alta. Se muestra (figura 1.6) la progresión de una gota de sangre
con un patrón normal (a) hacia un patrón anormal (c).
(a) (b)
(c)
Figura 1.6 Progresión de la evolución de una gota de sangre desde un patrón normal(a) hacia un patrón
anormal (c) pasando por un punto intermedio (b)
Más tarde H. Leonard Bolen publica un artículo llamado “The blood pattern in pre-
symptomatic malignancy of the gastrointestinal tract” (Bolen H. L., 1952). Un cáncer en
el sistema digestivo tiene tendencia a permanecer oculto o asintomático, hasta que se ha
extendido y se vuelve difícil de extirpar. Se pretende reducir el tiempo que tarda el
paciente entre que presenta síntomas y una posible intervención quirúrgica.
Este test puede ser realizado en una pequeña consulta y resulta inocuo para el paciente,
además es barato y puede llevarse a cabo durante las inspecciones rutinarias. El test
debe ser repetido frecuentemente, para evaluar los resultados de la terapia. En el artículo
21
Automatización del análisis de la imagen de una gota de sangre coagulada
se indica cómo otros autores han estudiado este test y se ha visto eficaz determinando la
presencia del cáncer en cerca del 90% de los casos.
Esta técnica no es aceptada, estudiada o utilizada por los organismos médicos oficiales.
En España existen pocos profesionales que investiguen esta técnica, Fernando Guirado,
Rosa López Monís, D. Jorge Ollandel, Onairos Business Health S.L y Carlos Cid Cruz.
En la biblioteca nacional de medicina de los Estados Unidos (Pubmed) no se encuentran
más de los cuatro estudios citados (Bolen H. L., November 1950) (Bolen H. L., 1952)
(Hawk, Thoma, & Inkley, 1951) (Vaughn, Metzner, & Annan, 1952). Del mismo modo
que se necesitan estudios para determinar que un análisis médico funciona, también se
deben estudios para considerarlo ineficaz. En el presente proyecto se presenta un
método de diagnóstico poco estudiado, y que hace uso de imágenes obtenidas con
microscopio. Estas imágenes resultan interesantes y se pueden extraer muchas
características de las mismas.
22
1.3 Objetivos
Al inicio del proyecto, se pretendían abarcar unos objetivos ambiciosos, ya que del
estudio de las imágenes se pueden obtener muchos datos. A raíz de determinar cuál era
el estado del arte, gran parte de los objetivos iniciales se trasladan al apartado de líneas
futuras del proyecto. Sobre dichos objetivos, se pueden desarrollar nuevos proyectos y
futuras investigaciones, tomando como base el estudio de las gotas de sangre secas
coaguladas sobre un cristal porta objetos.
Al margen de las características que se pueden obtener de las imágenes, se plantean los
siguientes objetivos:
23
Automatización del análisis de la imagen de una gota de sangre coagulada
Con la finalidad de centrar los esfuerzos en aquello que puede resultar útil, se opta por
centrar la región de interés en toda la gota de sangre. Por este motivo, un punto crucial
del proyecto es el de determinar con la suficiente exactitud la separación entre la gota y
el fondo. Esta elección no es fruto del azar, se centra el estudio en toda la gota de sangre
debido a los estudios científicos aportados en el apartado del estado del arte. Se
analizarán imágenes similares a las que analizó el Dr. Bolen (Hawk, Thoma, & Inkley,
1951). En los estudios citados, el análisis de la gota de sangre coagulada se presenta
como un buen marcador cuando se trata de determinar si el paciente tiene cáncer. Lo
que se analiza en la gota es la presencia de muchas manchas blancas. El ratio rojo
blanco, puede resultar interesante en el diagnóstico de estados graves de salud.
24
Figura 1.7 Toda la gota coagulada sobre un fondo blanco
En la figura 1.8 se observa una región de la gota, en este caso todo resulta de interés y
se determinan las características de las manchas blancas, con el método descrito en el
proyecto.
La figura 1.9 es similar a la figura 1.7 pero se aprecian mejor las manchas blancas ya
que se ha producido un acercamiento sobre la gota.
25
Automatización del análisis de la imagen de una gota de sangre coagulada
La situación ideal será aquella en la que tengamos imágenes como las de la figura 1.7 y
1.9. En el presente proyecto es importante ver la gota en su totalidad y que se aprecie el
fondo de la misma. De todos modos el método desarrollado debe ser robusto y
funcionar con independencia del formato de las imágenes que se le presenten. Es
problemático el hecho que en la región de interés haya una iluminación no uniforme. En
el apartado 3.2 se entra con más detalle en los puntos débiles que presenta el proyecto.
1.3.2 Segmentación
26
explica con profundidad el funcionamiento del método de Otsu. Este tipo de
segmentación es utilizada en imágenes en las que los objetos que forman la imagen y el
fondo están claramente diferenciados, como es el caso de separar un texto de una
fotografía o el escaneado de un libro o un documento. Los objetos que se analizan son
grandes objetos rojos sobre un fondo claro, así que la segmentación por el método de
Otsu ofrece un procesamiento rápido y preciso de las imágenes.
Se pretende separar los distintos objetos que aparecen en la imagen del fondo de la
misma. Las técnicas y herramientas de las que se dispone son muy variadas. Se decide
optar por una u otra técnica según el tipo de imágenes y el objetivo que se persigue. Se
distingue entre:
- Número.
- Área.
- Perímetro.
27
Automatización del análisis de la imagen de una gota de sangre coagulada
- Excentricidad.
- Distancia al centro de la imagen.
- Ratio Blanco/Rojo de toda la región de interés.
Es latente el hecho que los resultados han de ser fáciles de entender para profesionales
médicos. Otro punto muy importante es que para obtener los resultados, el proceso que
haya de llevarse a cabo, no cuente con complicados comandos que hayan de ser
ejecutados en consola, ni interfaces en otros idiomas. El modo en el que se ha encarado
el proceso, es un modo transparente al usuario, esto significa que el proceso se ejecuta
sin que el usuario tenga que introducir ningún parámetro, tan solo especificar la carpeta
de la que se leerán las imágenes. Otro modo de hacer al usuario transparente al proceso
es mediante una interfaz de usuario. En el punto 2.5.1 del proyecto se explica cómo se
ha realizado la interfaz para que el usuario pueda procesar las imágenes. Más adelante
en el punto 3.4 del proyecto se detalla el funcionamiento de la interfaz y se muestra un
ejemplo.
28
2. Metodología
Punto 1: Explicación teórica de los espacios de color que servirán después como
imágenes de entrada para el método utilizado.
Punto 2: Explicación teórica sobre los métodos y técnicas que han sido
utilizadas, a fin de llevar a cabo la detección de manchas blancas.
Punto 3: Explicación teórica de las operaciones morfológicas que utiliza el
método.
Punto 4: Método utilizado para la delimitación del fondo.
Punto 5: Método utilizado para marcar las manchas blancas.
29
Automatización del análisis de la imagen de una gota de sangre coagulada
A continuación se explican dos espacios de color, que son los que van a proporcionar
las imágenes de entrada para el desarrollo del método. El primer paso es entender que
información aporta cada espacio de color. En el punto 3 de resultados, se estudiará qué
espacio de color responde mejor al método utilizado en la detección de manchas blancas
y la separación del fondo de la gota.
2.1.1Espacio RGB
30
Para ilustrar cómo es el espacio RGB de la imagen de una gota de sangre se propone
transformar la imagen (a) de la figura 2.2 al espacio RGB. Dicha figura contiene las tres
componentes del espacio RGB.
(a) (b)
(c) (d)
Figura 2.2 Imagen de una gota de sangre (a) descompuesta en sus componentes del espacio RGB: la
componente roja (b), la componente verde (c) y la componente azul (d)
Es un espacio de color, definido por una comisión internacional conocida como CIE que
se encarga de fijar estándares para aspectos relacionados con la iluminación,
colorimetría y fotometría. En 1976 se define el espacio CIE LAB. Es un espacio
formado por tres componentes, la luminancia (L), el eje rojo-verde (a) y el eje azul-
amarillo (b). Para definir las tres componentes del espacio Lab se debe fijar el punto de
blanco de referencia (Xn, Yn, Zn). La conversión del espacio RGB al espacio Lab resulta
complicado de definir ya que el modelo de color en el espacio RGB depende del
31
Automatización del análisis de la imagen de una gota de sangre coagulada
dispositivo utilizado. En cambio sí que se puede definir la conversión del espacio XYZ
al espacio Lab. Las transformaciones se realizan sobre el punto de blanco de referencia
(Xn, Yn, Zn) y las tres componentes toman los valores.
Donde la función está definida por partes para evitar una asíntota en t=0
t1/3 t (6 / 29)3
f (t) 1 4 (2.8)
* (29 / 6) 2
* t Re sto
3 29
Es considerado como uno de los modelos de color más precisos, porque comprende
todo el espectro de color incluso colores fuera del rango de la visión humana. Es un
espacio muy utilizado en programas de edición de imágenes, o cuando surge la
necesidad de especificar un color con mucha precisión. Para pasar de un espacio de
color al espacio CIE LAB es necesario el uso de una transformada de color. En
MATLAB® se encuentran funciones que calculan la transformada de color como
“makecform” y posteriormente se aplica dicha transformación a la imagen con la
función “aplycform” (mathworks).
32
Para ilustrar cómo es el espacio CIE LAB de la imagen de una gota de sangre se
propone transformar la imagen (a) de la figura 2.3 al espacio CIE LAB. Dicha figura
contiene las tres componentes del espacio CIE LAB.
(a) (b)
(c) (d)
Figura 2.3 Imagen de una gota de sangre (a) descompuesta en sus componentes del espacio CIE LAB: la
luminancia (b), el eje rojo verde (c) y el eje azul-amarillo (d)
C R R G G B B (2.1)
33
Automatización del análisis de la imagen de una gota de sangre coagulada
El valor de los pesos αR, αG, αB determinará la combinación óptima. El proceso para
obtener dichos pesos óptimos empieza con considerar un píxel “i” arbitrario. Cada píxel
se considera como un vector de tres componentes (Ri, Gi, Bi). El siguiente paso es
calcular los valores medios de cada componente.
1 1 1
R
N
R
i
i G
N
G i
i B
N
B
i
i
(2.2)
B B R R
1
Cbr i i (2.3)
N i 1
34
2.2 Métodos utilizados
35
Automatización del análisis de la imagen de una gota de sangre coagulada
Consideremos que la imagen que se presenta en la figura 2.4 presenta L niveles de gris.
Ahora se supone que se separan los pixeles en dos clases, la clase 1 y la clase 2. Una
clase para objetos y otra para el fondo (IEEE, 1979). Se fija el umbral en el nivel t. El
primer paso es el cálculo de las probabilidades de cada clase y sus respectivos valores
medios.
t
1 t
q1 (t ) P(l ) (2.9) 1 (t ) l P(l )
q1 (t ) l 0
(2.11)
l 0
L 1
(2.10) 1 L 1 (2.12)
q2 (t ) P(l )
l t 1
2 (t ) l P(l )
q2 (t ) l t 1
1 t
12 (t ) (l 1 (t ))2 P(l )
q1 (t ) l 0
(2.13)
1 L 1 (2.14)
22 (t ) (l 2 (t ))2 P(l )
q2 (t ) l t 1
Para evaluar el rendimiento del método se debe definir un discriminante lineal, en este
caso la separabilidad entre clases (λ) que es el cociente (2.15) entre la varianza de clases
(σB2) y la varianza interna (σw2).
B2 (t * ) max B2 (t ) (2.16)
1t L 1
36
La selección del umbral automático en un histograma de niveles de gris se ha abordado
desde el punto de vista del análisis discriminante. De hecho el umbral óptimo (t) es el
que maximiza el discriminante lineal. Los pixeles por encima del nivel t se
corresponderán con la gota y los pixeles por debajo se corresponderán con el fondo. Los
principales problemas de este método, suelen ser la presencia de un fondo no uniforme
o el ruido en la imagen. En las imágenes que se obtienen con un microscopio no suelen
ser imágenes ruidosas, pero si puede haber cambios de iluminación en el fondo, lo cual
conduzca a tener un fondo no uniforme.
37
Automatización del análisis de la imagen de una gota de sangre coagulada
La dilatación es una operación que hace crecer o engorda los objetos presentes en una
imagen binaria. El modo en que estos objetos engordan es controlado por un elemento
estructurante. Se suelen emplear elementos estructurantes que sean simétricos. La
dilatación además de engordar los objetos, si hay objetos cercanos puede unirlos, reduce
y elimina agujeros además los entrantes estrechos son rellenados. En el cálculo de la
dilatación se desplaza el elemento estructurante transpuesto y se calcula el supremo de
los píxeles bajo el mismo.
B (X) X B (2.19)
La erosión es una operación que encoge o adelgaza los objetos presentes en una imagen
binaria. Es la operación dual a la dilatación. El modo en que estos objetos adelgazan es
controlado por un elemento estructurante. La erosión además de adelgazar los objetos si
hay objetos pequeños pueden desaparecer y los salientes estrechos son eliminados. En el
cálculo de la erosión se desplaza el elemento estructurante y se calcula el ínfimo de los
píxeles bajo el mismo.
b (X) X B (2.21)
Los elementos estructurantes son matrices de ceros y unos que pueden adoptar forma de
diamante, disco, línea o rectángulo. Según la forma del elemento estructurante la
operación morfológica tiene un efecto u otro. En MATLAB® se pueden construir los
elementos estructurantes haciendo uso de la función “strel”, que recibe como parámetro
la forma deseada del elemento estructurante. Las posibles formas van desde el cuadrado
(square) hasta el disco (disk).
38
2.3.1 Apertura de imágenes.
B (X) B B X (2.22)
39
Automatización del análisis de la imagen de una gota de sangre coagulada
(a) (b)
Figura 2.5 Máscara obtenida con el método de otsu (a) y el resultado de aplicar una operación de apertura
de valor mil (b)
Realizar una apertura sobre la imagen complementaria permitirá rellenar los huecos que
hayan podido quedar en el interior de la gota (figura 2.6). La apertura de la imagen
complementaria es un cierre de la misma.
(a) (b)
Figura 2.6 Resultado de aplicar una operación de apertura de valor mil (a) y el efecto que se produce al
realizar un cierre de valor mil (b)
40
2.4 Separar gota y fondo.
Para ilustrar el procedimiento se hará uso de tres diagramas que mediante tres pasos
explican el método para separar gota y fondo. En el primer paso (figura 2.7) del proceso
se parte de la imagen en color de la gota de sangre. La imagen en color se transforma al
espacio CIE LAB obteniéndose tres imágenes en escala de grises. En el proceso descrito
tan solo se escoge el eje rojo verde del espacio CIE LAB y se le aplica el método de
Otsu.
41
Automatización del análisis de la imagen de una gota de sangre coagulada
Eje rojo-
verde “a”
Imagen de la gota Transformación al Método del valor Imagen
Imagen en
de sangre en color espacio CIE LAB umbral. Otsu binaria
escala de
grises
Imagen Imagen
Imagen Apertura de valor Cierre de valor
resultado de resultado
binaria 1000 1000
la apertura del cierre
El tercer y último paso del proceso (figura 2.9) empieza con la imagen resultado del
cierre a la cual se le rellenan los huecos. Una vez rellenados los huecos ya se tiene una
imagen que se denomina máscara gota-fondo porque marca con blanco o valor uno la
gota de sangre.
Imagen
Rellenado de Máscara Imagen de la gota
resultado
huecos gota-fondo de sangre en color
del cierre
42
2.5 Detección de manchas blancas
Una vez se ha definido con exactitud la gota, es decir la región de interés, el paso
ulterior es la detección de las manchas blancas presentes en la gota. En el punto
anterior, el punto 2.4, se explica el proceso para obtener la máscara que separa gota y
fondo. La detección de manchas blancas se resume a aplicar el método del valor umbral
a la imagen, pero solamente sobre el interior de la gota de sangre dejando fuera el fondo
de la misma. Para aplicar el método de Otsu (Gonzalez, Woods, & Eddins, 2009) basta
con llamar a la función de MATLAB® “graythresh”. Se obtiene un nivel umbral que es
el que se usará para pasar la imagen de entrada en escala de grises, a una imagen de
blanco y negro. La imagen en blanco y negro, también llamada imagen binaria, marcará
con valor uno o color blanco un pico del histograma y con valor cero o negro el otro
pico del histograma. En las imágenes que se analizan en el PFC, el resultado de aplicar
el valor umbral es una imagen, donde las manchas blancas tienen valor uno o color
blanco y el resto de la imagen valor cero o uno. En la figura 2.10 se halla la máscara que
marca las manchas blancas de la imagen analizada.
(a) (b)
Figura 2.10 Imagen de una gota de sangre (a) y la máscara que marca en color blanco las manchas de la
gota (b)
A partir de la máscara obtener el área que existe de blanco consiste en sumar todos los
píxeles de esta máscara (figura 2.10). La máscara solo puede tener valor o cero o uno,
así que si al valor máximo, que es uno, se le resta el valor de la máscara, el resultado
43
Automatización del análisis de la imagen de una gota de sangre coagulada
será la obtención de una máscara que marca todo aquello de color rojo en la gota. Esta
nueva imagen binaria obtenida, permite calcular la cantidad de rojo presente en la gota
sumando todos los pixeles con valor uno. La relación entre la cantidad de blanco y de
rojo es lo que en los resultados se llamará ratio. En la representación de las imágenes
resultado, se hará uso de la función “imoverlay” (Eddins, 2012) que permite solapar la
máscara sobre la imagen original. En este solape la máscara adopta un color, por
ejemplo verde y de este modo se puede determinar visualmente si dicha máscara está
detectando correctamente las manchas blancas.
44
Una vez creada la interfaz, se generan dos archivos. Un archivo .fig que contiene la
información de los objetos de la interfaz. Un segundo archivo .m, que contiene el
código con las variables y acciones que realizará la interfaz. Cuando se añade un nuevo
botón en la interfaz (GUI), automáticamente en el archivo .m se crea la función
“callback” asociada a dicho botón. Al pulsar el botón, se ejecutará aquello que indique
su “callback”. Existe una estructura llamada “handles”, que es dónde se guardan los
datos de los objetos. En las listas o menús existen variables almacenadas dentro de la
estructura “handles”, que informan al programador la opción de la lista o del menú que
está seleccionada.
La interfaz diseñada en el presente proyecto, cuenta con un botón cargar (figura 2.12),
el cual al ser pulsado, permite al usuario seleccionar una imagen que será dibujada en la
parte izquierda de la interfaz. La parte inferior cuenta con dos listas, una para indicar
cálculos a realizar y la otra lista para realizar operaciones con la imagen. Una vez
seleccionada en la lista la opción deseada, la operación será realizada al pulsar los
botones correspondientes. El resultado de la operación indicada será dibujado en la
parte derecha de la interfaz (figura 2.12). También se ha implementado una barra
deslizante para poder seleccionar un umbral global sobre la imagen cargada.
45
Automatización del análisis de la imagen de una gota de sangre coagulada
3. Resultados
Después de describir los métodos que se han utilizado en el PFC, se han recopilado los
resultados desglosados de la presente memoria en los siguientes puntos:
46
(a) (b)
Figura 3.1 Imagen de una gota de sangre coagulada (a) y sus manchas marcadas en color verde (b)
La máscara resultado ha sido dibujada en verde sobre la imagen original. En este caso,
se observa que objetivamente se han alcanzado los objetivos que se pretendía. La
imagen presenta una cantidad importante de manchas blancas. Las manchas que tengan
un solo pixel, también computarán como objeto. El ratio blanco rojo de la gota y el
número de objetos o manchas que tiene la gota es:
El resultado que se muestra (figura 3.1), es el resultado final. Para separar la gota del
fondo se precisa de resultados intermedios, como son la máscara que delimita la gota. El
procedimiento para obtener estas máscaras, se encuentra detallado en el punto 2.4. Para
ilustrar la separación entre gota y fondo, se pasará a procesar la imagen de la figura 3.2.
47
Automatización del análisis de la imagen de una gota de sangre coagulada
(a) (b)
Figura 3.2 Imagen de una gota de sangre coagulada (a) y el eje rojo-verde del espacio Lab (b)
(a) (b)
Figura 3.3 Máscara que marca con color blanco la gota (a) y la superposición de dicha máscara sobre la
imagen original (b)
48
3.1 Comparación normal vs anormal.
En el punto 1.2 se habla del estado del arte del análisis de gotas de sangre donde se
reconocen patrones normales o sanos y patrones anormales o enfermos. Se analizarán
parejas de imágenes de gotas coaguladas. Como referencia, se toman dos tipos de
imágenes:
Imagen con poca cantidad de rojo, la cual se cree que corresponde con un patrón
normal.
Imagen con una cantidad apreciable de blanco, la cual se cree que corresponde
con un patrón anormal o positivo.
Cuanta más cantidad de manchas blancas y de mayor tamaño, se considerará que la gota
se corresponde con un patrón anormal.
Para la comparación, resulta importante que ambas imágenes sean similares. Ambas
están enventanadas por un círculo de color negro. El círculo ha sido eliminado en el
análisis mediante un umbral fijo. La aparición de este halo negro, es debido al uso de
una especie de diafragma en la captura de imágenes usando el microscopio en su opción
de campo oscuro. En la figura 3.4 se presentan las dos imágenes a comparar. A la
izquierda, en la figura 3.4 la gota coagulada con un patrón normal y a la derecha, una
gota coagulada con un patrón anormal.
49
Automatización del análisis de la imagen de una gota de sangre coagulada
(a) (b)
Figura 3.4 Gota con un patrón normal (a) y otra gota con patrón anormal (b). Muestras tomadas en campo
oscuro
Se analizará solamente lo que haya contenido dentro del círculo negro. A la luminancia
de la imagen se le aplica un umbral automático mediante el método de Otsu. Se obtiene
una imagen (figura 3.5) con dos posibles valores: Valor uno para aquello blanco y valor
cero para aquello rojo.
(a) (b)
Figura 3.5 Máscara del patrón normal (a) y del patrón anormal (b)
50
Después de aplicar el método, se ve que en la primera imagen, la de la izquierda (figura
3.5), el programa ha decidido asignar el valor uno a aquello que presenta color rojo.
Como se quiere que lo blanco, tenga valor uno, tomamos la imagen complementaria
(figura 3.6).
(a) (b)
Figura 3.6 Máscara transpuesta del patrón normal (a) y máscara del patrón anormal (b)
Tanto de la primera como de la segunda máscara (figura 3.6), se suman todos sus
valores para obtener el área de la máscara. El área de la máscara, se corresponderá con
el área de las manchas blancas de la imagen. El resultado obtenido se relaciona con el
área del color rojo y se obtienen los siguientes ratios.
51
Automatización del análisis de la imagen de una gota de sangre coagulada
La mayor parte de las imágenes con las que se ha trabajado y las de mayor resolución
eran las imágenes tomadas en campo claro. En el análisis de los resultados se estudia la
eficacia en determinar las manchas blancas de la gota, bajo diferentes imágenes de
entrada. Se analizará la pareja de imágenes de la figura 3.7, considerando que la imagen
de la izquierda se corresponde con un patrón normal o negativo y la imagen de la
derecha con un patrón anormal o positivo.
(a) (b)
Figura 3.7 Gota con un patrón normal (a) y otra gota con patrón anormal (b). Muestras tomadas en campo
claro
Ambas imágenes serán transformadas a los dos espacios de color bajo estudio,
posteriormente se aplicará la metodología explicada en el punto 2. Debajo de cada
imagen se indican los resultados obtenidos tanto para el ratio blanco rojo como para el
número de objetos. Se comentan los resultados y con qué imágenes de entrada se
obtiene mayor precisión.
52
3.1.1.1 Luminancia
(a) (b)
Figura 3.8 Se toma la luminancia como entrada y se marcan las manchas blancas para el patrón normal (a)
y el patrón anormal (b)
53
Automatización del análisis de la imagen de una gota de sangre coagulada
La mayor parte de la imagen es roja, así que se prevé que la componente roja del
espacio RGB, no será una imagen de entrada correcta. A partir de los resultados
obtenidos, se descarta esta entrada. A priori, se observa en la figura 3.9, que ambas
imágenes tienen una cantidad de blanco muy dispar, y en cambio, el método interpreta
que son similares. Los ratios entre ambas imágenes son similares, el método del valor
umbral no proporciona los resultados deseados cuando la entrada es la componente roja.
(a) (b)
Figura 3.9 Se toma la componente roja como entrada y se marcan las manchas blancas para el patrón
normal (a) y el patrón anormal (b)
54
3.1.1.3 Componente verde
La naturaleza de las imágenes sugiere que la componente verde será una buena entrada.
¿Por qué resulta interesante la componente verde en una imagen que es prácticamente
roja y blanca? Porque este hecho, condiciona que los objetos se hallen muy
diferenciados, y al método del valor umbral le resulte fácil separar en el histograma los
dos picos de máxima varianza. Efectivamente, la componente verde es una entrada
correcta, para detectar las manchas blancas presentes en la gota. En la figura 3.10 se ve
como la detección que aparece en el borde es menor que en la luminancia.
(a) (b)
Figura 3.10 Se toma la componente verde como entrada y se marcan las manchas blancas para el patrón
normal (a) y el patrón anormal (b)
55
Automatización del análisis de la imagen de una gota de sangre coagulada
Siguiendo con el razonamiento del punto anterior, la componente azul es también una
imagen de entrada de notable interés. Es mucho más conservadora y detecta manchas
blancas fácilmente observables. Las manchas de la parte inferior izquierda de la imagen
(b) en la figura 3.11 no han sido detectadas. Este fallo se comete en la separación de la
gota y el fondo produciendo una exclusión de ciertas manchas blancas. Dicho fallo se
comenta en el punto 2 de los resultados. Que se detecten pocos objetos, es un modo de
cometer pocos errores cuando se extraigan características posteriormente. Parece que el
análisis de la componente azul, sea con la que se obtiene una mayor precisión.
(a) (b)
Figura 3.11 Se toma la componente azul como entrada y se marcan las manchas blancas para el patrón
normal (a) y el patrón anormal (b)
56
3.1.1.5 Eje “a”
El eje “a” indica la posición de la luminancia entre el rojo y el verde. Como la imagen
presenta poco verde y mucho rojo, el resultado obtenido es bastante detallado aunque no
del todo satisfactorio. En algunos casos resulta incluso excesivo. La diferencia entre el
ratio del patrón normal y el anormal es notable (figura 3.12) aunque el número de
objetos sea similar. De nuevo, en el patrón normal se detectan más de dos mil objetos, y
en cambio la imagen no presenta manchas.
(a) (b)
Figura 3.12 Se toma el eje “a” como entrada y se marcan las manchas blancas para el patrón normal (a) y
el patrón anormal (b)
57
Automatización del análisis de la imagen de una gota de sangre coagulada
3.1.1.6 Eje b
El eje “a” indica la posición de la luminancia entre el azul y el amarillo. Las imágenes
analizadas no presentan tonalidades ni azules ni amarillas, aplicar el método sobre este
eje se prevé de poca utilidad. El resultado obtenido no es satisfactorio, porque en el caso
del patrón normal, se detectan muchas manchas blancas (figura 3.13) y no se
corresponde con la realidad. Se puede rechazar esta entrada como una fuente fiable.
(a) (b)
Figura 3.13 Se toma el eje “b” como entrada y se marcan las manchas blancas para el patrón normal (a) y
el patrón anormal (b)
58
3.2 Puntos débiles
(a) (b)
Figura 3.14 Detalle de la pérdida de información cuando se obtiene la máscara (b) que marca toda la gota
de sangre (a)
59
Automatización del análisis de la imagen de una gota de sangre coagulada
Nombre Ratio lumi Ratio R Ratio G Ratio B Ratio LAB(a) aRatio LAB(b) Objetos LumiObjetos Red Objetos Green
Objetos BlueObjetos LAB(a)
Objetos LAB(b)
gota_005 21,1402324 8,81047482 9,48405638 1,66476045 27,2067729 19,9700201 1973 1839 1037 310 1682 2279
gota_006 25,4577247 20,482835 11,4382029 5,3001053 25,1646097 32,8950593 4170 1789 2774 889 2442 2299
gota_008 17,6559984 21,5122196 7,78426978 4,5102714 20,884264 45,6627666 5836 3699 2204 950 3291 3256
gota_009 11,2997023 12,7822199 2,38296347 0,20479355 9,6179682 17,5785523 5433 2776 2189 359 3520 3457
gota_011 9,36656254 22,731387 1,83796307 0,10531914 7,04657862 17,4227858 1970 1306 654 149 2270 2180
Cuando se procesan todas las imágenes de una carpeta, se guardan todos los resultados
en una hoja de cálculo (figura 3.15). En las primeras columnas, se encuentran los
valores obtenidos del ratio blanco rojo para el método tomando diferentes imágenes de
entrada. En las columnas posteriores, se indican los valores del número de objetos que
tiene cada gota. Con estos datos puede hacerse un procesado posterior y establecer por
ejemplo, un ratio medio a partir de las dos entradas que hayan resultado más veraces.
De las dos entradas que se han considerado mejores, se puede establecer una
comparación (figura 3.16) de los ratios que se obtienen con cada una de las entradas.
14
12
10
8
Ratio G
6 Ratio B
0
gota_005 gota_006 gota_008 gota_009 gota_011
Figura 3.16 Gráfico de barras comparando los ratios para diferentes imágenes de entrada
60
3.4 Análisis mediante una interfaz gráfica
61
Automatización del análisis de la imagen de una gota de sangre coagulada
Una vez cargada la imagen (figura 3.18), se muestra en la parte izquierda de la pantalla.
Ahora ya se pueden realizar los cálculos que fije el usuario.
La interfaz fue la primera opción barajada para la automatización del análisis las
imágenes de gotas de sangre. Posteriormente se opta por ofrecer una solución más
automática y con una intervención mínima por parte del usuario. Cuando se implementa
la interfaz aún no se ha avanzado en la separación de gota y fondo. Esta es la razón por
la que en la parte derecha de la figura 3.18, se observa cómo se está detectando el fondo
de la imagen y se está interpretando como mancha blanca.
62
Histograma
o Dibuja el histograma de una componente fijada a priori.
Histograma Mascara
o Representa el histograma de la componente roja multiplicada por un
umbral global.
Marcar blanco fijo
o Mediante un umbral global fijado a priori, calcula una máscara y la
marca en rojo sobre la imagen original.
Dibujar centro
o Calcula el centro de la imagen y dibuja un rombo verde en el mismo.
Marca zonas slider
o Selección del umbral global mediante un slider, que permite 20 posibles
valores.
Marca blanco automático
o Obtiene la máscara que definen las manchas blancas y se marca lo
calculado en color rojo, sobre la imagen original.
Marca blanco optimizado
o Obtiene la máscara que definen las manchas blancas, mediante un
método optimizado y se marca lo calculado en color rojo sobre la imagen
original.
63
Automatización del análisis de la imagen de una gota de sangre coagulada
4. Líneas futuras
Es posible que este análisis de la coagulación de una gota pueda resultar importante en
la determinación de factores de riesgo, o si existe alguna relación con algunas
enfermedades. Resultaría atractivo tomar muchas muestras de pacientes con las mismas
patologías. Después de la toma de muestras, otro punto crucial es la adquisición de las
imágenes. Ver toda la gota en una imagen es lo que se busca en el presente proyecto.
Aunque es posible que en un futuro se vea que existen otros puntos a estudiar, y se haga
necesario el análisis de imágenes en detalle. Por ello, si se pretende establecer una
buena base de datos, se cree conveniente tomar imágenes de toda la gota y también de
regiones en detalle.
De una gota de sangre se obtiene una muestra, esa muestra a su vez consta de cinco a
ocho gotas de tamaño decreciente que se denominan capas. Se propone calcular si en las
últimas capas encontramos manchas blancas y las siguientes características.
Tamaño y circularidad.
Gran número de manchas pequeñas y su posición.
64
4.1 Análisis de la mancha blanca con mayor área
Analizar la mancha blanca más grande presente en la gota de sangre puede resultar
efectivo si se busca simplificar en análisis. Una imagen puede llegar a tener dos mil
manchas blancas. Muchas de ellas pueden tratarse de ruido, manchas pequeñas o
manchas que resultan de interés. Se pretende pasar de analizar todas las manchas
blancas, a analizar sólo la de mayor tamaño. Cuando lo que se procura es determinar el
estado de salud o la evolución del tratamiento de un paciente, resulta vital que se
cometan el menor número posible de errores. Se eligen las imágenes de la figura 3.4. Se
procesa la máscara para obtener los objetos que tienen un tamaño igual al área máxima
o difieran en cien píxels.
(a) (b)
Figura 4.1 Objetos de mayor área que han sido detectados en las imágenes de campo oscuro para un
patrón normal (a) y anormal (b)
65
Automatización del análisis de la imagen de una gota de sangre coagulada
La red de fibrina es la red que cohesiona y une las áreas rojas. A la izquierda, en la
figura 4.2, se observa como desde el centro hasta los bordes se va desarrollando una
especie de red, de un color rojo más oscuro. Es importante determinar si existe dicha red
y su grosor. En la imagen de la derecha (figura 4.2) se ha roto dicha red y empiezan a
aparecer las manchas blancas.
(a) (b)
Figura 4.2 Ejemplo de una gota donde se aprecia la red de fibrina (a). Ejemplo de una gota con la red de
fibrina rota (b)
Una vez se ha roto la red de fibrina, la gota empieza paulatinamente a perder cohesión.
La rotura de esa cohesión hace que las manchas blancas se vayan uniendo y haciéndose
más grandes. Es posible que ante una mejoría, las manchas se hagan más pequeñas y
pierdan la conexión de las unas con las otras. Es importante saber si en la gota tenemos
manchas blancas interconectadas entre sí que tengan valores de área elevados, o si por
el contrario, las manchas son pequeñas y están diseminadas por toda la gota.
66
4.3 Determinar la posición de las zonas blancas
Se establece que la distancia desde el borde al centro de la imagen se fija como el cien
por cien de la distancia. A continuación, se mide la distancia desde cada mancha blanca
hasta el centro. El cálculo de la distancia mancha blanca respecto distancia al borde de
la imagen es inmediato. Cabe destacar que esta medida se realiza sobre los centroides de
las manchas blancas. Finalmente se descartó este cálculo en los resultados, porque
aunque no requiere un alto grado de dificultad, sí se genera un gran volumen de datos.
Se incluye en las líneas futuras para ser implementado en nuevos proyectos.
67
Automatización del análisis de la imagen de una gota de sangre coagulada
Figura 1.11 Posibles patrones particulares que pueden darse en una gota de sangre coagulada
Falta por precisar si existe una relación entre la aparición de estos patrones y la
incidencia de enfermedades o factores de riesgo. Por ejemplo, estudiamos un patrón y
obtenemos:
Se deduce que se estaría estudiando un patrón del tipo rayas blancas finas que confluyen
hacia el centro. El establecer una base de datos de imágenes que presenten este patrón
mencionado, resulta clave si se quiere fijar las características que presenta un patrón
determinado.
68
5. Conclusiones
Las imágenes de gotas de sangre coaguladas no son unas imágenes fáciles de conseguir.
Se requiere de un microscopio y de una técnica específica para la obtención de las
muestras. Afortunadamente, la Universitat Politécnica cuenta con laboratorios donde es
posible obtener imágenes en un microscopio. Todas las imágenes presentan una
naturaleza similar, el fondo es blanco, la gota es roja y las mancha en el interior de la
gota son blancas. A su vez cada imagen tiene unas características singulares, haciendo
que el análisis de las imágenes, sea un instrumento didáctico donde se aplican conceptos
de tratamiento digital de imágenes. En el proyecto se abordan conceptos como la
segmentación de imágenes, los espacios de color y las operaciones morfológicas, sin
duda pilares básicos del tratamiento digital de imágenes. Una vez separada la gota del
fondo, se detectan las gotas blancas de la gota de sangre. Este análisis puede llevarse a
cabo de forma paralela junto con una investigación. Es ambicioso llevar a cabo la
investigación con pacientes enfermos y mediante el método científico, tratar de
determinar si existen patrones que se repiten entre los pacientes de una misma
enfermedad. Otro punto clave en la utilidad del análisis, es el hecho de poder establecer
una correlación entre la coagulación de la sangre y la evolución de un tratamiento. El
presente proyecto ha expuesto la automatización del análisis de unas imágenes poco
estudiadas y ha establecido una línea de investigación, para el desarrollo de futuros
proyectos.
69
Automatización del análisis de la imagen de una gota de sangre coagulada
6. Bibliografía y referencias
Hawk, B. O., Thoma, G. E., & Inkley, J. J. (1951). An Evaluation of the Bolen
Test as a Screening Test for Malignancy. American Association for Cancer
Research.
70
mathworks. (n.d.). www.mathworks.es. Retrieved from
http://www.mathworks.es/es/help/images/converting-color-data-between-color-
spaces.html
71
http://articlesofhealth.blogspot.mx/2008/08/que-es-el-pleomorfismo-y-la-
nueva_30.html
La teoría de Günther Enderlein dice que la base de toda enfermedad se deriva del
pleomorfísmo, teoría en la que específicos tipos de bacteria y hongos pueden cambiar y tomar
formas múltiples en su ciclo de vida. Una analogía sería el ciclo de vida de una mariposa o su
metamorfosis que va en etapas de larva a pupa y a mego.
Claude Bernard, fisiólogo francés, también creía que el germen no es nada y el terreno lo es
todo, de ahí que la bacteria o hongo externa o pleomorfica, puede llegar a causar enfermedades
únicamente si se les permite crecer en un terreno no sano (ácido).
Técnicamente el término “terreno” describe el ambiente interno del cuerpo, como lo es ácido,
alcalino o con baja oxigenación conocido como “rouleaux” una palabra francesa que significa
rollo, o también se le conoce como sangre pegajosa. (la sangre tiene un ph de 7.365, eso es
ligeramente alcalino, cuando ese nivel comienza a bajar, volviéndose más ácida, la carga
negativa de la membrana celular en los glóbulos rojos “electrones”, se neutraliza, haciendo que
los glóbulos rojos se peguen formando rollos de cinco o más glóbulos rojos, o agregaciones de
eritrocitos).
En contraste la medicina tradicional occidental, enseña y practica las doctrinas de Louis Pasteur,
la teoría de Pasteur puso los cimientos de la microbiología médica occidental, una doctrina
científica basada en el monomorfismo, eso quiere decir que todas las enfermedades o malestares
son causadas por microbios externos, no cambiantes, con una sola forma, monomórficos que
invaden el cuerpo. La idea de tipos normales de bacteria, o tipos específicos de bacteria que
causan especificas enfermedades fue aceptada ampliamente por la medicina occidental a
principios de 1900 y esa misma idea fue adoptada por el complejo americano de la industria
médica, como la columna de la medicina moderna. Un negocio de trillones de dólares anuales, en
donde entran las compañías farmacéuticas, la American Medical Asociation, compañías de
seguros, la FDA, hospitales y centros de investigación.
Esta teoría dio lugar al desarrollo del primer antibiótico (penicilina) en 1940, durante 40 años la
mayoría de las infecciones bacterianas han sido tratables, pero ciertos tipos no comunes de
bacterias ya han desarrollado suficiente fuerza al grado de que son intratables, es decir son
pleomorficas. La bacteria común que causa neumonía, infecciones en los oídos a los niños y
muchas otras enfermedades están evolucionando o cambiando a formas intratables por ningún
medicamento conocido, amenazando con entrar a una fría era postantibióticos, la cual se traduce
en un desastre médico.
En febrero 20 de 1994 se publicó un artículo en un periódico de Salt Lake “The Desert News”, el
encabezado decía “Antibióticos perdiendo terreno contra la bacteria”, una fuerte resistencia se
esta desarrollando rápidamente, amenazando con un desastre en el área de la medicina” por Paul
Raeburn un editor de ciencias. En este artículo Alexander Tomasz, de la universidad Rockefeller
en NY, dijo “en el mundo postantibioticos, las infecciones más simples podrán escalar
rápidamente hacia enfermedades fatales, mucha gente se pregunta que va a pasar, es
impredecible cuando, y las consecuencias nadie las conoce, pero el número de muertes es
considerablemente alto”.
El Dr. Mitchell Cohan, del centro de control de enfermedades dijo “es potencialmente un
problema serio y extremadamente fuerte, ciertas bacterias como los enterococcus que causa
infecciones en las heridas han desarrollado fuerza, ya son resistentes al medicamento
vancomiosin y a cualquier tipo de antibiótico conocido. La epidemia se ha esparcido rápidamente
con la forma no tratable enterococcus en la ciudad de NY, esta fuerza intratable no estaba
presente en 1989, pero en 1992 fue la responsable del 59% de las infecciones. Según Alexander
Tomasz, si llegas a tener la infección, quedas en las manos del todo poderoso.
Usando mi microscopio de contrastes de fase, analizando las células vivas (como el Dr.
Robert Young lo hace quien me capacitó y enseño la técnica), he visto en la sangre, a nivel
celular, estas formas de bacteria y hongos pleomorficos evolucionando y cambiando, he visto por
días estos microbios anaeróbicos (organismos que viven y sobreviven en azúcar) alargarse y
volverse patogénicos, y en algunos casos cambian de forma, de bacteria a hongo dependiendo
completamente del terreno.
Enderlein también observo a nivel celular estos cambios pleomorficos de bacteria y hongos en
la sangre, el notó que cuando las bacterias eran pequeñas estaban sanas, en este estado el las
llamo simbions, que quiere decir saludable para el cuerpo, como simbions, estas bacterias
trabajan y ayudan al cuerpo, pero cuando crecen y se alargan debido al terreno también se
vuelven patógenas, cambiando a bacteria y en algunos casos a hongo. En esta etapa Enderline se
refiere a ellas como endions. Su descubrimiento más profundo, fue que ciertas leyes biológicas
gobiernan el crecimiento de microorganismos patológicos dentro del cuerpo humano y que existe
una forma sana y una no sana de cada germen, probando así la variabilidad de las bacterias y
hongos, y el concepto del pleomorfismo.
Esto me ayuda a entender como es que en la sociedad de hoy en día vemos bacterias y hongos
con una amplia resistencia, que las hace intratables por ningún medicamento o antibiótico
moderno.
Douglas Hume, hace una observación muy buena en su libro Bechamp or Pasteur?A Lost
Chapter in the History of Biology citando una observación de Florence Nightingale, “no existen
enfermedades específicas, sino condiciones específicas de una enfermedad”. No me
sorprende que muchas de las grandes ciudades se hayan convertido en “albercas” de epidemias y
enfermedades. Los verdaderos predecesores de Enderline fueron los fisiólogos Claude Bernard,
ya mencionados, y el brillante doctor, químico y farmacólogo Antoine Bechamp. Bechamp
estaba en desacuerdo con Pasteur por su doctrina científica basada en el monorfismo, 30 años
antes del auge del monorfismo, Bechamp había descubierto pequeños gránulos moleculares en
las células del cuerpo de animales que cambiaban forma y tamaño, estos podían desarrollarse en
bacteria y hongos que producen enfermedades, y finalmente en efermedades crónicas. El llamo a
estos gránulos fermentos pequeños o microzymas, la microzyma es un fermento, un ser vivo
organizado capaz de multiplicarse, transformarse en enfermedad y comunicar enfermedad. En un
estado neutro de salud, las microzymas del organismo actúan en armonía, y las cosas suceden en
una forma natural de un proceso de fermentación, pero en la condición de enfermedad los
microzymas no actúan en armonía, la fermentación es alterada, y la microzyma cambia su
función o se vuelve anormal debido a la modificación del terreno. Bechamp por lo tanto
soportaba el concepto del pleomorfismo (muchas formas), teoría científica que dice que
específicos tipos de bacteria y hongos pueden cambiar y tomar formas múltiples durante su ciclo
de vida. Estas bacterias y hongos han estado en nosotros desde hace muchísimo tiempo, de hecho
los egipcios entendían los efectos devastadores de las bacterias y hongos en el cuerpo, por eso
sacaban los órganos internos incluyendo el cerebro, antes de momificar y guardar en sus tumbas
los cadáveres.
La Dra. Virginia Livingston-Wheeler (quién estudió con Enderline), llamó a estas bacterias y
hongos Progenitor cryptocides, haciendo referencia a las mismas bacterias y hongos que los
científicos han encontrado en las tumbas egipcias. Gaston Naessens lo llamo el “ciclo del
somatid”, el Dr. Robert Young lo llama “enfermedad de la pelota de ping-pong”, pues visto
con el microscopio en la fase de contrastes, parecen pelotas blancas de ping-pong, en la mayoría
de las veces rodeadas de un halo negro de bacteria y simbions (cuando vengas a México te lo
muestro en vivo, y comparamos con sangre alcalina, por ejemplo la mía), todos están
describiendo la misma cosa, bacteria y hongos, sólo que cada quién le puso un nombre distinto,
sin embargo todos están confirmando la doctrina científica del pleomorfismo que Bechamp
observó cien años atrás.
El Dr. Robert Young adoptó el punto de vista médico de Bechamp y Enderlein, la doctrina
científica del pleomorfismo es real. Somos un cuerpo de bacteria y hongos, cuerpos
anaeróbicos que viven, crecen y sobreviven en azúcar. Viven en armonía con nosotros cuando
estamos comiendo y viviendo saludablemente, sin embargo existe un potencial de que las
bacterias se conviertan en dañinas cuando el terreno donde viven se altera, esta alteración en el
terreno es fomentada por dietas altas en carbohidratos complejos, dietas altas en azúcares, frutas,
jugos de fruta, sucrosa, miel, endulzantes como maple y extracto de maíz, agua contaminada,
aire contaminado, la destrucción y el estrés de una flora intestinal sana e intestinos delgado y
grueso por antibióticos y otros medicamentos.
Al entender la doctrina del pleomorfismo y el terreno del cuerpo, entiendes porqué estamos
enfermos y cansados, una vez que entendemos porque estamos enfermos y cansados, es cuando
podemos comenzar a hacer los cambios necesarios en nuestros estilos de vida, de esta manera
regresamos nuestros cuerpos a un estado de armonía y balance.
Al observar la sangre bajo la fase de contrastes, he visto lo que Becham y Enderlein describieron,
este tipo de análisis de células vivas también es usado en biología marina para observar vida
marina con membranas frágiles, este microscopio de contrastes de alta potencia puede
magnificar los objetos hasta 20,000 veces su tamaño normal, permitiendo a uno ver clara y
exactamente, virus, bacteriales a detalle, formas de parásitos y hongos en la sangre. El
espécimen de sangre es iluminado por un condensador especial de fase de contrastes, los objetos
en el campo de visión se muestran como cuerpos iluminados en un fondo negro o gris, dando una
calidad de imagen superior. De esta forma puedo ver también los glóbulos rojos y blancos, así
como su condición, colesterol, protoplasma, metales, trombosis, deficiencia de oxígeno, fibrosis,
lípidos no digeridos y parásitos en una gota de sangre viva.
La medicina tradicional, no analiza la sangre viva, al manchar la sangre con químicos la están
matando, el químico es levantado por la célula y el citoplasma, enfatizando la membrana celular
y el núcleo, pero esto mata a todos los microorganismos que viven, se mueven, se alimentan y
están presentes en la sangre, volviéndose invisibles. En consecuencia quienes observan la sangre
muerta se refieren a estas formas como artefactos, microsomas y no ponen atención alguna al
importante rol que juegan en el desarrollo de enfermedades y malestar. Probablemente una de las
cosas más impactantes que he visto, es el crecimiento de bacteria y hongos en una gota de sangre
fresca; si la sangre muere en el porta objetos en dos horas, el donador está muy enfermo, si la
sangre vive en el porta objetos por varios días el donante está sano. Al observar la sangre viva,
directamente del portaobjetos, proyectada en video, uno puede realmente ver la bacteria y
hongos, y algunas veces parásitos alimentándose y creciendo mientras la sangre pierde sus
nutrientes y oxígeno.
Como sabes las bacterias y los hongos son anaeróbicos, viven del cuerpo, gracias a la glucosa en
la sangre, hemoglobina rica en hierro, tejidos, órganos, productos de desperdicio y mueren en la
presencia de oxígeno. Una de las experiencias más satisfactorias para mi, es cuando observo la
sangre del mismo donador que estaba lleno de bacteria y hongos bajo el microscopio con fase de
contrastes, y ver que las bacterias patógenas y hongos se han reducido en gran número, o han
sido completamente erradicadas.
El pleomorfismo también es esencial para entender el cáncer y su cura. ¿Cómo es que comienza
el cáncer? La mayoría de nosotros iniciamos nuestras vidas como seres sanos, pequeños bebes
normales, conforme envejecemos comenzamos a estresarnos por nuestras dietas, nuestras
emociones, lesiones físicas, el aire que respiramos, el agua que bebemos, estilos de vida,
matamos nuestra flora intestinal saludable en el intestino delgado y grueso con el uso de
antibióticos y otros medicamentos. Dejamos de respirar correctamente, causando depravación de
oxígeno, nos aceleramos, volvemos más agresivos y con el paso de los años la bacteria y los
hongos se acumula constantemente. Las bacterias y hongos se alimentan de la glucosa en la
sangre, y arrojan sus productos de desperdicio que básicamente es ácido aldehído (formol),
etanol, alcohol, gas de dióxido de carbono, metanol y ácido láctico que va directo al flujo
sanguíneo causando envenenamiento de la sangre, lo cual nos hace sentir enfermos y cansados. A
esta altura el terreno de la sangre se compromete, o está fuera de balance, dejamos de tener la luz
interna, si el proceso continua sin ponérsele atención, el estado de envenenamiento empeora, y
pasa dentro de los tejidos, órganos, sistema nervioso central, estructura ósea, sistema linfático y
médula ósea, hasta que las bacterias se convierten en hongos, y los hongos se convierten en
moho tomando parte o todo el cuerpo.
Déjame explicarte el cáncer como lo ve el Dr. Young, “es mi punto de vista personal, que el
cáncer no es nada más que moho. Imagina tu cuerpo como si fuera una barra de queso crema,
deja el queso crema por un día fuera del refrigerador, comenzarás a ver moho verde formándose
en las esquinas, puedes quitar el moho verde rebanando una sección, pero al siguiente día
volverá a salir más moho verde, a lo mejor manchas verdes. El moho no se encuentra en un
estado de metástasis, el queso crema no tiene arterias y venas, tampoco hay sistema linfático,
simplemente se está enmoheciendo. El queso crema se está pudriendo, echándose a perder,
muriendo por llamarlo de alguna forma. El moho está viviendo de las toxinas y productos de
desperdicio en el queso. Entonces como es que la bacteria y los hongos, y luego el moho crecen
hasta tomar el cuerpo. Conforme las bacterias y hongos entran al cuerpo a través de la boca, por
el aire, la comida o el agua, comienzan a buscar un lugar para establecerse y crecer. Si estas
bacterias y hongos no son destruidos por las bacterias buenas en el intestino delgado y grueso, se
pegarán al las paredes intestinales y comenzarán a crecer y reproducirse hasta encontrar su
camino hacia el torrente sanguíneo. Los hongos se encuentran en forma natural también en los
intestinos, y tienen el propósito de suavizar el bolo alimenticio que llega ahí, si la flora saludable
de los intestinos delgado y grueso se han destruido debido a antibióticos de amplio espectro y a
una dieta pobre, los hongos se moverán agresivamente hacia el tracto intestinal penetrando en el
flujo sanguíneo y de ahí hacia todas las partes del cuerpo. Conforme esto sucede, las bacterias y
hongos producen desperdicios y substancias tóxicos.
Se han aislado 79 tipos conocidos de substancias tóxicas que las bacterias y hongos
desechan en la sangre, y algunos investigadores creen que hay más de 100 diferentes
toxinas producidas. El principal producto de desperdicio de las bacterias es metano, mientras
que el mayor producto de desperdicio de los hongos es el ácido aldehído. Las bacterias y hongos
son muy agresivos y pueden multiplicarse bastante rápido, después de muchos años de
crecimiento las cantidades de toxinas de metano y de ácido aldehído llegan a ser abrumadoras
para los tejidos del cuerpo. El ácido aldehído es un veneno que se genera en etanol, y el hígado
lo convierte en alcohol, esto agota al cuerpo de sus fuentes de potasio y magnesio lo cual reduce
la energía celular. Entre menos oxígeno hay en el cuerpo, más alcohol se produce y puedes
llegar a tener los síntomas de estar borracho, desorientado, sentirte mareado o
radicales
mentalmente confundido, hasta ataques de pánico, sentimientos de ansiedad, depresión,
libres = irritabilidad y dolores de cabeza son los resultados de un sobre crecimiento de bacteria, hongos
iones de y moho en el cuerpo. El ácido aldehído puede causar fatiga en exceso, reducir la fuerza, stamina,
oxígeno la claridad de pensamiento y quita la ambición; destruye encimas necesarias para la producción
inestables de energía celular y causa la liberación de radicales libres (moléculas de oxígeno a las que les
falta un electrón) los cuales coadyuvan al proceso de envejecimiento.
Cuando las bacterias y hongos entran al flujo sanguíneo por los intestinos, pueden viajar
rápidamente e invadir los tejidos, causando dolores en las articulaciones, inflamación en vías
respiratorias y sinusitis, estrés glandular y problemas menstruales. Las bacterias y hongos
envenenan, estresan y debilitan el sistema inmunológico las 24 horas del día, la mayoría de las
enfermedades inmunológicas y condiciones infecciosas, son causadas o empeoradas por la
presencia de bacterias y hongos, y las numerables toxinas constantemente están siendo
neutralizadas por las defensas inmunológicas. Si esta fuente constante de contaminación al
cuerpo se genera todo el tiempo, llega el momento en que la operación inmunológica queda
afectada, entonces la bacteria y hongos se convertirán en moho, cáncer, y el cuerpo comenzará a
pudrirse, echarse a perder, morir por ponerlo así…justo como el queso crema.
Rouleaux=
pila de
monedas;
apilamiento
de
eritrocitos
Conceptos de
Enderlein
conocidos ya
desde fines
del siglo XIX.
Desde
entonces se
sabía que la
sangre no es
estéril, sino
que conviven
simbiontes
El descubrimiento del Dr. Royal Rife Cura Cánceres
Y la simplicidad es sublime; la tecnología de Rife parece ser la cura de la mayoría de las
enfermedades mediante la destrucción de patógenos
Barr lynes sostiene que cuando ciertos amigos quienes invirtieron en el negocio de oncología
(cáncer) y -fármacos especialmente, quimioterapia, cirugía, radiación, cadenas de hospitales,
equipo- aprendieron de la cura de Rife, y decidieron detenerlo.
Los argumentos son que ciertos individuos auto nombrados determinaron suprimir esta tecnología.
Parece que el descubrimiento de Rife habría eliminado las ganancias de cerca de un billón de
dólares a la semana para la industria farmacéutica (quimioterapia y otros fármacos). Los hospitales
cobran alrededor de $500 o más al día solo por una cama, y pueden facturar a una compañía de
seguros de un paciente de cáncer sobre $200,000 por tratamiento “convencional” si el paciente está
asegurado. Quien poseía los hospitales? Accionistas. ¿Quién tenía grandes cantidades de acciones
en farmacéuticas y hospitales? Supuestamente la gente detrás de la destrucción del laboratorio de
Rife (su laboratorio, equipo y el volumen de sus papeles de investigación fueron quemados por
incendiarios). La tecnología de Rife cuesta solamente centavos para usarse –para pagar por la
electricidad para poner a funcionar sus máquinas-.
Hoy en día hay mas apertura y comunicación entre la gente en el campo médico, y cientos de miles
ahora voltean a alternativas para curación. La supresión de estas tecnología ya no es posible dado la
apertura de nuestra sociedad comparada con la de cincuenta años atrás. También, como dice el
sabio, “La verdad tiene un extraño modo de llegar para enterrar a sus sepultureros.”
No quiero residir en lo negativo, de cualquier modo, es importante para el escéptico, como yo,
entender que tan perversamente celosa era la industria médica en el pasado y como cierto
pensamiento negativo en el área económico-político-médica llevó a la supresión antigua de esta
información simple, barata, proveedora de salud. Así que, una nota más sobre este asunto:
Milbank Johnson M.D., cuando trabajaba con Royal Rife, era presidente de la Asociación Médica
Americana del Sur de California. El murió justo horas antes de una conferencia de prensa agendaza
donde el iba a anunciar que la tecnología de Rife había curado a cada paciente con cáncer Terminal
en un estudió que el supervisó en el Centro Médico de la Universidad del Sur de California.
Después se supo que había sido fatalmente envenenado. Su discurso escrito y los documentos de su
estudio fueron robados al momento de su muerte.
El Dr. Nemes. Quien duplicó algo del trabajo de Rife apenas a cuarenta millas del laboratorio de
Rife, fue asesinado en un incendio misterioso que destruyó su laboratorio. Rife, de cualquier modo,
continuó su propio trabajo por décadas, a pesar de amenazas, difamación y sabotaje. Antes de su
muerte por una dosis letal de Valium en el Hospital Grassmont, el había registrado cientos de
frecuencias para bacterias, virus, mohos, hongos, levaduras y parásitos. El probó que sometiendo al
virus del cáncer o a cualquier otro microbio a la misma frecuencia a la cual este resonaba lo
destruiría –rápidamente y completamente inocuo, sin efectos colaterales y sin dañar a los tejidos
circundantes-. Los descubrimientos de la frecuencia de Rife son del dominio público, y, desde su
muerte en 1971, los investigadores han estado exitosamente utilizando y perfeccionando su
tecnología (determinando índices para otros microorganismos).
L máquina original de Rife fue un instrumento marcado con un contador de frecuencia y un tubo de
luz de “rayo luminoso”. John Crane, un ingeniero quien trabajó con Rife, y Rife juntos usaron
muchas de mas mismas frecuencias en muchas secuencias de enfermedad diferentes. Se debe
mencionar que, las mismas frecuencias pueden ser usadas en el tratamiento de diabetes así como en
dolencias de hígado o páncreas. La Diabetes ha sido atribuida a páncreas fortuito, la cual es muy
fácil de ver bajo el microscopio. Una vez que el patógeno es destruido por el generador de
frecuencia, aquellos que sufren de diabetes han alcanzado un estado de salud y dejado la insulina.
Algunos pocos ejemplos de las frecuencias letales para muchos de los diferentes microorganismos
que Rife descubrió son: Staphylococcus, 725-730 Hz; Streptococcus, 875-885 Hz; Virus del
carcinoma, 2120-2130 Hz; Virus del sarcoma, 2000-2100 Hz.
Rife aisló el virus del cáncer en 1932 y repitió su procedimiento 104 veces consecutivas con
resultados exitosos idénticos.
Las cuatro distintas formas de microorganismos de cáncer que Rife demostró fueron: 1. BX
carcinoma; 2. BY sarcoma; 3. Forma monococoide, la cual está presente en los monolitos de la
sangre en un 90% de los pacientes con cáncer (cuando se tiñe correctamente, esta forma puede ser
vista fácilmente con un microscopio estándar); 4. Hongo pleomorfo Criptomices, el cual tiene
morfología idéntica a aquella de la orquídea y setas.
Rife escribió en us mnuscrito de 1953: “Cualquiera de estas formas puede ser modificada de nuevo
a BX dentro de un periodo de 36 horas y producirá en el animal experimental un tumor típico con
toda la patología del verdadero tejido neoplásico, del cual podemos de nuevo recobrar el
microorganismos BX.”
Respecto a las cuatro formas distintas de los microorganismos de cáncer, Rife, como aifrmó, notó
que cualquiera de estas formas podía cambiar hacia cáncer en 36 horas, cuando el medio en el cual
crecía se alteraba. El podía replicar esta conversión 300 veces con resultados idénticos. Rife dijo,
“En realidad, no es la bacteria por sí misma la que produce la enfermedad, pero los constituyentes
químicos de estos microorganismos actuando sobre el metabolismo desbalanceado de la célula del
cuerpo humano que de hecho producen la enfermedad. También creemos que si el metabolismos del
cuerpo humano está perfectamente balanceado o equilibrado, no es susceptible de ninguna
enfermedad.”
La efectividad de la tecnología de Rife con el cáncer es dramática, como se puede ver (arriba) a
partir de la investigación llevada a cabo bajo la supervisión de Milbank Johnson. M.D. (los casos
consistían en muchos tipos de malignidad). Estos pacientes fueron clínicamente anunciados como
curados por un equipo médico de cinco doctores médicos así como el Dr. Alvin G. Foor, M.D.,
patólogo del grupo. Rife: “Los tratamiento consistieron en 3 minutos de duración usando el
instrumento de frecuencia, el cual fue ajustado al índice oscilatorio mortal para el cáncer BX
(tratamiento hecho en intervalos de tres días). Se encontró que el tiempo transcurrido entre
tratamientos logró mejores resultados que en los casos tratados diariamente (quizá debido a que el
cuerpo entonces tenía un día o varios días para expulsar las toxinas de la enfermedad antes del
tratamiento siguiente, vea las historias actuales, abajo.) no se vio incremento de la temperatura en
ninguno de estos casos arriba de lo normal, durante o después del tratamiento con el instrumento de
frecuencia. No se usaron dietas especiales en este trabajo clínico, pero nosotros sinceramente
creemos que una dieta apropiada compuesto para cada individuo sería de beneficio.”
Como la evidencia indica, debido a la supresión del trabajo de Rife (comenzando a la mitad de los
50’s), lo que ahora es comúnmente llamado “tecnología de frecuencia de Rife” se mantuvo bajo
tierra. Los investigadores y terapeutas se encontraban temerosos de sus vidas. Una vez 30 doctores
médicos fueron fotografiados elogiando a Rife en un banquete. Después del incendio y amenazas,
todos negaron haberlo conocido. (Lynes). Hoy, los descubrimientos de Rife están siendo
confirmados por por muchos doctores por sí mismos, tal como E. C. Rosenow, Sr. (jefe de
bacteriología, Clínica Mayo), Cameron Gruner (Universidad McGill) e Irene Diller (Instituto de
investigación del cáncer, Filadelfia). Hoy hay muchos instrumentos efectivos disponibles gracias a
que unos pocos dedicados, científicos audaces, doctores e ingenieros trabajaron juntos para
reconstruir las notas e investigación sobrevivientes de Rife a lo largo de los años. John Crane, el
ingeniero quien trabajó con Rife y su antigua tecnología de rayo luminoso de radio frecuencia era
instrumental. Crane, de cualquier modo, posteriormente propuso la teoría de que, ya que el cuerpo
humano esta hecho de por lo menos 70% de agua, y por lo tanto es un conductor magnífico de
electricidad, la tecnología de radio ondas en masa era innecesaria.
Crane, trabajando con Rife, diseñó una máquina que trabajaría sin tubos de luz/gas inerte, pero con
contacto directo con el cuerpo para mandar frecuencias más directa y acertadamente. Janet Fleming,
N. D., aprendió de Crane, y comenzó a usar la tecnología, como otros investigadores, conduciendo
experimentos similares usando las conocidas frecuencias de Rife/Crane. Ella experimentó en
primeros años con animales, luego en voluntarios humanos. Los artefactos que encontró en el
mercado en la época no fueron tan precisos como ella deseaba. Fue a Alemania, y entonces,
trabajando con otros ingenieros, desarrolló una precisa tecnología avanzada dentro de 10,000 de un
Hz. Ella entonces patentó el artefacto (Bio Solutions).
Fleming recibió tres patentes en E.U.a. por sus dispositivos en los 90’s (ella dona todos los
procedimientos de su licencia de las patentes a causas de vida salvaje y medio ambiente). Lanzó una
evolución nueva total de aparatos de frecuencia, los cuales se convirtieron en un estándar en las
frecuencias bioactivas. Dichas frecuentas generadas son muy precisas y son certeras dentro de 0.001
Hz. Las frecuencias son usadas para los avances en aplicaciones en la ciencia de la salud tales como
la muerte de los microorganismos y virus y el incremento de la regeneración tisular y puede ser
usada en varias aplicaciones industriales y comerciales, tales como el procesamiento de comida.”
El interés de Fleming en la longevidad a través del uso de frecuencias le ha preocupado también por
años. Ha visto vivir a ratones 150% más tiempo de lo normal a través de la exposición a frecuencias
específicas. ¿Aplicaría esto en humanos? Fleming utilizó muchas de las frecuencias establecidas
investigadas por Rife por casi 40 años en su estudio. Hay alrededor de 200 tipos de condiciones
médicas donde las frecuencias bioactivas son usadas. Los investigadores dicen que en cada caso
esas condiciones fueron eliminadas.
Aunque la mayoría de los éxitos atribuidos a la “tecnología de frecuencia Rife” son anecdóticas,
los volúmenes crecen continuamente. Debido a consideraciones de espacio, aquí están solo unas
pocas historias de miles disponibles (vea la siguiente edición para más historias).
CASOS DE CURACIÓN, HISTORIAS ACTUALES
Ed Peck, un psicólogo y terapeta respiratorio por casi veinte años, y antiguo director de terapia
respiratoria en el Centro Médico Regional High Point en High Point, Carolina del Norte, ha hablado
personalmente con casi un ciento de personas en los últimos dos años quienes han experimentado la
curación a partir del uso de los generadores de frecuencia de Rife. Peck primero se interesó en la
historia de Rife hace cinco o seis años, luego hace dos años compró un generador de frecuencia
bioactiva. Los casos que el mencionó incluían la curación de cáncer esofágico, diabetes, ciática,
dolor de espalda, ojos y desórdenes de la visión. (el mismo Peck ya no usa lentes después de usar el
programa de tratamiento para el “ojo”), desórdenes de seno nasal y muchas otras condiciones.
El mismo Peck, ahora de 51, sufrió de alergias y sinusitis toda su vida. Desde la niñez, cuando se le
administró Benadryl (a el entonces le dieron una prescripción de fármacos para el resto de su vida),
no tenía remedio. El sintió que sus senos nasales se abrieron durante el primer tratamiento con los
generadores de frecuencia hace dos años. “Se abrieron y desahogaron”, dijo. “Antes del tratamiento
se encontraban muy congestionados, y tenía muchos dolores de cabeza diariamente.” Los dolores de
cabeza se disiparon inmediatamente y desaparecieron completamente después de dos semanas de
uso del aparato aproximadamente cinco días a la semana. Ahora él lo usa una vez al mes para
mantener los senos nasales sanos. Peck también hablo de gente quienes fueron diabéticos,
dependientes de insulina, quienes no son más dependientes de insulina después de haber sido
tratados con el aparato.
Erland (Jake) Jacobson tuvo un TRUP (Recesión transuretral de la próstata) en 1987, siendo que un
día encontró que no podía orinar para nada. ( un TURP es un procedimiento para agrandar la uretra,
comúnmente hecho en casos de una próstata agrandada que bloquea la uretra,). Su doctor le
recomendó buscar una prueba de un antígeno específico para la próstata (PSA) en el hospital VA. (
los PSAs en sangre son indicadores de cáncer de próstata –mientras más alto el nivel, más probable
es que sea cáncer-.) El PSA de Jake fue 15, que es alto (0-4 es normal). Los doctores hicieron una
biopsia de “seis agujas”, para probar posteriormente para cáncer. Nada se encontró. Esto fue en
1994.
Su doctor sugirió a ese punto que “miramos y observamos”. Jake esperó. Alrededor de un año
después Jake tuvo otra prueba de PSA. La prueba nuevamente mostró que el PSA era de
aproximadamente 15. Jake estaba de alguna manera preocupado durante este tiempo, pero no tuvo
más problemas de salud, así que continuó mirando. Comenzó a tomar algunas hierbas limpiadoras
(Essiac) y vio el palmito, el cual es efectivo en ayudar a disminuir la próstata agrandada.
En algún momento alrededor de 1998 Jake se sometió a una prueba de exploración de hueso, como
una medida de rutina, la cual resultó negativa para cáncer. Luego, en junio, 1999 se sometió a otro
PSA, el cual fue muy alto en 63. El estaba más preocupado. Al siguiente mes, julio, encontró un día
que nuevamente el no podía orinar, y los doctores le introdujeron un catéter temporal, y luego otr
procedimiento TURP se llevó a cabo. El reporte del laboratorio de la biopsia después del TURP
regresó indicando cáncer, y el PSA era ahora de alrededor de 86.
Los doctores querían que Jake se sometiera a radiación o a una remoción de sus testículos. Él dijo,
“los doctores asustan a la gente.” Decidió no hacer ninguno porque se sentía bien, a la edad de 74, y
no quería que se hicieran aquellas cosas. Dijo que conocía a otros hombres, quienes ahora estaban
muertos, que habían hecho esas cosas y quienes tampoco se habían sentido bien después.
“En algún lugar en mi lectura”, dijo, “había visto información sobre la tecnología de Rife,” y
entonces había llamado sobre un anuncio que había visto. Sintió que era muy caro, alrededor de
$2,000, y comenzó a tomar otros suplementos a parte vio el palmito t el té de Essiac.
Sus reportes de laboratorio, los cuales tengo frente a mi, comienzan con la prueba de junio, 1999
mencionada anteriormente. Los reportes demuestran sus niveles de PSA sobre un periodo de un año
y medio. Como se mencionó, la primer prueba de PSA en esos reportes fue en junio de 1999 y
mostró un nivel de 63. las siguientes cuatro pruebas (Agosto, 1999; Febrero, 2000; Mayo, 2000; y
Agosto, 2000), todos mostraron fluctuaciones pero incrementaron los niveles de PSA (86, 76, 96 y
88 respectivamente). La prueba resulta en Noviembre 14, 2000, de cualquier modo, mostró que su
PSA se había incrementado a 171.
Jake se preocupó bastante, y poco después de este último año, decidió comprar un generador de
frecuencia bioactiva de la tecnología Rife para tratar su condición. Cuando la máquina llegó a fines
de diciembre, el comenzó inmediatamente a usarla, en casa, para sí mismo. Utilizó los programas
preestablecidos para cáncer, tumor de próstata y próstata/vejiga. Uso el artefacto diariamente hasta
Enero 29, 2001. En enero 30 de nuevo fue al hospital VA para otra prueba.
La prueba en Enero 30 demostró que sus niveles de PSA habían disminuido a 128, una disminución
de 43 pntos. (A parte, en otro caso de próstata, un caballero se negó a la quimioterapia para su
tumor canceroso de próstata y comenzó a tratarse con el artefacto, después de un mes su PSA cayó
de 28 a 4. Su tumor ahora se ha ido y espera que su PSA caiga hasta 1) Jake Jacobson asocia la
caída a sus cuatro semanas de uso del instrumento de Rife, ya que no había cambiado nada en su
dieta o programa de suplementos; el solo había adicionado los tratamientos de Rife. El continua con
el mismo régimen ahora. Su siguiente visita al Hospital VA para una prueba de PSA está agendaza
para el final de Marzo, 2001. (Jake lo reportó en 28-02-01 que él ahora está usando el tratamiento
de Rife solamente cada tercer día, como Rife recomendó originalmente. Dijo que había usado el
tratamiento diariamente durante el primer mes porque el “solo tenía un mes” antes de la prueba de
PSA, y quería “disminuir el PSA”.. Durante este tiempo tomó 14 vasos de agua al día para
asegurarse de drenar las bacterias muertas o patógenos fuera de su cuerpo. Jake ha aceptado darnos
sus resultados de PSA al final de Marzo. Vea la siguiente edición de esta Diario para ponerse al día
de esta y otras historias).
Los investigadores están desdoblando más y más evidencia de que las bacterias y virus son causales
inmediatos de úlceras, artritis, cáncer, enfermedad cardiaca y mucho más. Cuando el cuerpo se pone
a prueba contra cosas tales como estrés, contaminación ambiental o elecciones pobres
nutricionalmente (alcohol, comida chatarra) este puede convertirse en un depósito de toxinas que
abruman al sistema inmune, una condición que provee un huésped maduro en el cual bacterias no
benéficas, virus y oros microorganismos pueden proliferar y propagarse. Sobre el papel de la
infección bacterial y viral y enfermedad cardiaca, el investigador Garry F. Gordon, M.D., un
experto en enfermedad cardiovascular reconocido internacionalmente y medicina integral afirma,
“está ahora probado que 89 por ciento de los vasos sanguíneos removidos en una cirugía de corazón
muestran infección con chlamydia pneumonia y que 80 por ciento..están infectados con
citomegalovirus (CMV).” El después menciona, “Aquellos con las infecciones más
activas…tendrán tanto como 8.5 veces más el riego de ataque al corazón y ataque fulminante..Esto
es excitante porque sugiere que controlar estas infecciones con medios naturales (tales como la
tecnología del generador de frecuencia bioactiva de Rife)..pueden eliminar la necesidad de cirugía
de corazón para muchos.”
Denham Bohart Crafton II, D.M.D., menciona que los investigadores han encontrado que las
bacterias de la boca son un riesgo mayor para el sistema cardiovascular por lo menos. La boca tiene
billones de bacterias. El dice que ha visto un reporte donde la mayoría de las compañías
aseguradoras están compartiendo datos de pacientes con enfermedad periodontal para determinar
las primas del seguro de vida. Así de seria es la amenaza que las bacterias de la boca, y patógenos
en general, representan. Las bacterias de la placa dental entran al flujo sanguíneo y se alojan en los
vasos sanguíneos. Las más dañinas son B. forsythus, P. gingivalus, y C. recta. El Dr. Robert Genco,
de la universidad de Búffalo, Escuela de Medicina Dental de Nueva Cork, encontró que el riesgo
incrementado de problemas de corazón por si solos en gente con una o más de estas bacterias era
desde 200-300%. Este estudio fue presentado en Marzo 13, 1999 en el encuentro combinado de la
Asociación americana de investigación dental y la Asociación internacional de investigación dental
de Vancouver. Las bacterias dentales pueden también estar ligadas a el desbalance de azúcar en la
sangre, infecciones sistémicas severas de todo tipo, enfermedades respiratorias, problemas
gastrointestinales, artritis y más. La importancia de un sistema inmune fuerte no se puede sobre
enfatizar.
Los generadores de frecuencia bioactiva matan a la bacteria pero no tienen efectos adversos en la
salud de las células o del cuerpo como un todo (en casi cuatro décadas no hay ni un reporte de
efectos adversos colaterales). De hecho, debido a que los generadores de frecuencia están
programados para matar 100 diferentes tipos de bacterias, hongos y parásitos, cuando los patógenos
más grandes, como candida fungus, aspergillus, lombrices, tales como tenias, y parásitos están
destruidos, el sistema inmune puede incluso más rápidamente librar al cuerpo de las bacterias más
pequeñas que se pasaban por alto por tratar de ocuparse de los microorganismos más grandes.
(Muchos parásitos y otros patógenos, como lombrices, pueden ser vistos con el ojo desnudo, y
viven en órganos y tejidos del cuerpo así como en la sangre y sistema vascular.)
La razón por la cual los generadores de frecuencia bioactiva que uso no matan a las células sanas es
que las células sanas, vivientes resuenan a frecuencias arriba de 1 megahz (100,000Hz); mientras
que los patógenos hasta ahora descubiertos resuenen a un nivel más bajo que 10,000 Hz. Los
aparatos de frecuencia solo trabajan de un nivel de 10,000 o menos y por lo tanto no se acercan en
nada a la resonancia para alterar o destruir a las membranas celulares de las células vivas, y sanas.
Hablé con Christine Achterberg, edad 45, de Salinas, California en Marzo 6. acababa de comprar el
aparato Bio Solutions de Janet Fleming modelo E dos semanas antes, después de que su hermana
amablemente investigó los aparatos disponibles en Internet. Ella ha sufrido de dolor por casi tres
años con cistitis intersticial, una infección de la vejiga. Los doctores médicos convencionales
llamaron a la condición “incurable”. Christine me dijo que ha tenido que tomar fármacos
analgésicos constantemente para controlar l dolor. Ella también trata de sanar la condición mediante
el consumo de hierbas, vitaminas y otros suplementos nutricios. Ella había buscado tratamientos
con un ginecólogo, un quiropráctico, un médico naturista y un acupunturista, todos sin éxito.
Ella notó, después de dos tratamientos con el modelo E del generador de frecuencia bioactiva que la
circulación de su sangre mejoraba. Dijo que ella siempre tenía las manos heladas y con dolor,
constantemente tenía que usar ropa abrigadora, y durante los inviernos, usaba almohadillas
calentadoras para sus pies. Remarcó que ahora sus manos están tibias y sus pies, y también ha
experimentado un incremento en sus niveles de energía. “esto es un tratamiento del cuerpo en su
totalidad.”
Continuó, “Yo solo llevaba a cabo el programa de vejiga en la máquina, pero seguro que la
circulación mejoró. Debe haber matado a los patógenos que afectaban mi circulación.”
Notó que la condición de su vejiga se mantenía sin mejora, pero ella piensa que la causa del
problema de su vejiga está el algún lado fuera de la vejiga, y, con el uso continuo de las frecuencias
varias para diferentes patógenos, pronto la causa será eliminada. Ella también dijo, “Sabes, otra
cosa sucedió que yo no esperaba; mis alergias se fueron, vivía con Astelin (un spray nasal médico),
pero mis alergias desaparecieron después del primer tratamiento.”
He inspeccionado, hasta ahora, diferentes aparatos con tecnología de Rife. Uno era un aparato
basado en la primer máquina Rife usada que proyecta las ondas luminosas de radio para mandar
frecuencias al cuerpo. La ventaja de este sistema es que a cuarto lleno de gente puede ser tratado al
mismo tiempo. Las desventajas (para mí y otros usuarios domésticos) son que es aparatoso y
costoso (sobre $5,000). Funciona mediante una computadora las teclas del usuario en programas en
el teclado de la computadora. El manual es impresionante, representativo de tratamientos, así como
el Bio Solutions modelo E, para miles de enfermedades.
De cualquier modo, se debe hacer notar, que el artefacto de rayo luminoso también es efectivo.
Hablé con Alison Dunagan, edad 40, en Marzo 7. Ella usa la misma máquina de rayo luminoso con
la cual fui tratado durante mis investigaciones. Alison, después de un mes de tratamiento, se liberó
de infección crónica de Hepatitis C. Ella había estado tomando una forma de quimioterapia,
interferón y ribovirón, y fármacos antivirales, por seis meses, pero, dijo, “todo lo que hice fue
destruir mi sistema inmune.” Ella conoció al hombre que me introdujo al generador de frecuencia
de rayo luminoso de Rife en Enero, 2001, y el le explicó como funcionaba esta tecnología. Ella dijo
que lo entendió, “así que detuve mi tratamiento con fármacos. Estaba a punto de recibir una
transfusión de sangre ya que mi cuenta era muy baja, 2.5. Tenía miedo, y debido a que mi doctor
me lo recomendó, estaba tomando fármacos venenosos. Mi cabello se cayó, desearía no haber
hecho eso, ahora que me he sanado utilizando el aparato de Rife.”
Por mediados de Febrero, 2001, un més después de comenzar con el tratamiento de Rife, usándolo
dos veces al día, la hepatitis C de Alison estaba completamente limpia. No había rastros de ella. Su
doctor estaba sorprendido. “Ella no lo podía creer,” dijo Alison, la primera prueba, así que se hizo
otra prueba elaborada. Seguía sin rastro.” Alison todavía lleva a cabo el tratamiento de Rife, pero
dijo “tenía una dieta terrible anteriormente, tan solo no sabía. Ahora he aprendido a comer comida
madurada orgánicamente, eliminé las carnes rojas, azúcar y alimentos procesados y mantengo mi
cuerpo alcalino. Necesitas mantener tu sistema inmune arriba.”
El color de la piel de Alison y ojos ahora están completamente claros. Antes del largo mes de
tratamiento Rife ella se encontraba casi postrada en cama. Ella no había notado tanto su condición,
pero otros la vieron con color de piel ictérica y ojos amarillos. “Desearía poder hacer saber a todos
sobre esta tecnología.” Dijo. “Le diré a todo el que pueda.” Ella escribirá su historia completa, con
reportes de laboratorio y pruebas de sangre al día y enviándonoslas para una edición futura de este
diario.
La evidencia muestra que una multitud de enfermedades son tratadas efectivamente con los precisos
aparatos generadores de frecuencia bioactivos de Rife; de cualquier modo, si los factores causales
para la enfermedad no son eliminados del estilo de vida, ya sean partes de factores de dieta, estrés o
patógenos ambientales, los tratamientos probablemente se tornarán como curitas y serán necesarios
continuamente. No hay sustituto para una vida saludable, y limpia. No obstante, recibo las noticias
de que estudios clínicos sobre la tecnología de Rife comenzarán.
Durante los 20’s y 30’s, el Dr. Royal Raymond Rife produjo algunos más que asombrosos logros en
medicina y biología.
Primer, inventó un nuevo tipo de microscopio óptico. Este microscopio podía ser usado para
observar virus en células vivas y tejido cultivado. Rife construyó cinco de estos microscopios. Rife
nunca publicó los esquemas de sus microscopios y hasta este día aquellas en el ámbito científico no
familiares al trabajo de Rife equivocadamente argumentan que es generalmente imposible observar
o identificar un virus con ningún microscopio óptico.
El segundo gran logro de Rife fue inventar una fuente de luz destellante de frecuencia variable la
cual podía matar bacterias, rickettsias, protozoarios, hongos, y virus. Para 1939, el Dr. Rife había
identificado los microbios y el rango de luz destellante (frecuencia) para matar a estos microbios,
los cuales se asociaban con cincuenta y dos enfermedades principales, incluyendo los cánceres
carcinoma y sarcoma.
En este artículo describiremos lo que era el instrumento de frecuencia de Rife y como podía destruir
un microbio sin dañar al huésped/paciente.
En la figura 1 muestra una vista esquemática del instrumento de frecuencia de Rife en operación
tratando a un paciente. El instrumento de frecuencia consistía en un tubo de antiguo estilo de rayos
x, el cual había sido llenado con gas helio a muy baja presión y tenía un flujo de corriente a través
del tubo manejado por un seno aritmético oscilador de voltaje de ondas. Cuando la polaridad del
voltaje a través del tubo de rayos X era tal que el cátodo de tungsteno caliente se encontraba con
voltaje negativo comparado con el ánodo de placa de metal, una corriente de electrones fluiría desde
el cátodo hacia el ánodo. Esta corriente de electrones colapsaría con los átomos de helio
excitándolos y por lo tanto generando luz. Ya que las condiciones de polaridad para la corriente
fluyen a través de tubo e rayos x se encontraban solo en una mitad del seno del ciclo de voltaje de
onda había un pulso de luz producido por cada seno de oscilación de voltaje de onda (vea figuras 2
y 3). Otra manera de decir esto es, que si un millón de ciclos por segundo del seno de voltaje de
ondas se aplica a través del tubo de rayos x, el tubo de rayos x producirá un millón de pulses de luz
por segundo. Como un ejemplo práctico, Rife encontró que el carcinoma común cáncer de mama,
(el cual ahora está alcanzando proporciones epidémicas entre las mujeres), era destruido por un
rango de pulso de luz de 11,780,000 pulsos de luz por segundo.
Para el actualmente capacitado biólogo e investigador médico, todos los enunciados anteriores
sobre el trabajo de Rife y sus logros son sospechosos totalmente. La razón para esto es que ellos
tienen un conocimiento muy limitado de física y no tienen conocimiento de los resultados de la
investigación de Rife. Por ejemplo, no saben que Rife aisló una forma motil del tamaño de un virus,
parecido a una espora de la bacteria E. Coli que cuando era expuesta a luz ultravioleta prologada se
convertía en un carcinógeno virulento, el cual invariablemente causaba cáncer carcinoma cuando se
inyectaba en animales de laboratorio. La clave para introducir el trabajo y logros de Rife en la
medicina general y el uso biológico es poner fin a esta ignorancia sobre como y porque el
instrumento de frecuencia de Rife funcionó para matar microbios.
Para ese fin, ahora yo describiré e ilustraré como el instrumento de frecuencia de Rife puede
destruir un virus. Ilustraré como un virus específico puede ser destruido por una frecuencia
específica o ultrasonido. Este ultrasonido es generado por el instrumento de frecuencia de Rife.
Note que la luz acarreas momentos lineares y que cuando el pulso de luz del instrumento de
frecuencia de Rife es absorbido por la capa de piel del paciente esa capa de piel debe recibir el
impacto en la dirección del flujo de luz para conversar el momento linear. Cuando el pulso de luz ha
terminado, la piel se relaja de nuevo a.C. su posición de no exposición al pulso de luz. En otras
palabras, los pulsos de luz periódicos generan pulsos de presión periódica en la capa de piel del
paciente los cuales viajan hacia el cuerpo del paciente. El instrumento de frecuencia de Rife
convierte la superficie de la piel del paciente totalmente expuesta en un transductor de ultrasonido
para la generación de ultra sonido. Incluso aunque la eficiencia de la producción del ultrasonido sea
exageradamente baja por este método, todavía es adecuada para matar microbios. Como un ejemplo
práctico, Rife trataría a sus pacientes de cáncer usando su instrumento de frecuencia por tres
minutos de exposición una vez cada tres días. Usualmente sus pacientes enfermos de cáncer
“Terminal” serían curados en unos treinta tratamientos como este o menos, como fue verificado en
los juicios de pruebas clínicas de 1934, 1935, y 1937 por el Comité de investigación médica
especial de la escuela médica U.S.C.. Ese mismo comité luego suprimió los resultados de la
investigación.
La razón para el tratamiento corto de tres minutos es matar solo una delgada capa exterior del tejido
de tumor de cáncer en una sola vez. Esto permite al sistema inmune del cuerpo remover esta capa
antes del siguiente tratamiento. El tumor de cáncer entero podría haber sido matado/destruido en un
tratamiento único del instrumento de frecuencia de Rife de quizás en uno de una o una hora y
media. De cualquier modo, luego el paciente de cáncer tendría una gran masa o masas de tejido
canceroso muerto en ellos, lo cual sería un festín para la infección de bacterias masivas. Esta
infección bacteriana llevaría al hígado y riñón a un daño y toxemia general.
El instrumento de frecuencia de Rife mata a las células de cáncer carcinoma “normal” mediante la
ruptura de miles de contenidos de virus de cáncer BX en el citoplasma de la célula de cáncer. Este
virus de cáncer BX como Rife lo nombró en 1931 no es un virus en el uso del estándar normal del
término de hoy para virus. Rife basó su definición en el hecho de que el virus de cáncer BX podía
pasara través del filtro de porcelana de Berkett más fino de la época (filtro 000). El virus de cáncer
BX es de forma ovoide, .066 micrones sobre el eje mayor. Es motil, controlado por un flagelo de
transporte de portones igual que su bacteria pariente, la bacteria E. coli. Cuando el virus de cáncer
BX se rompe disemina su genoma, ribosomas, ARN, enzimas, y proteína varias. Cuando miles de
estas rupturas ocurren todas en una sola vez en una célula de cáncer carcinoma los resultados son
fatales para la célula cancerígena. Una situación similar ocurre en la célula cancerígena de sarcoma
cuando os virus de cáncer BY son todos desintegrados al mismo tiempo en una sola vez. El virus de
cáncer BY es otra forma de virus de cáncer BX el cual Rife encontró que causaba cáncer sarcoma
después de que había sido expuesto a una exposición de luz ultravioleta prolongada.
Para ver como el ultrasonido generado por el instrumento de frecuencia de Rife puede destruir un
virus examinaremos la estructura de la capa de proteína exterior (cápside) de un virus. La mayoría
de los virus de interés los cuales causan enfermedades en plantas y animales tiene una cápside de
estructura icosahédrica como se ilustra en la figura 4ª y B. un ejemplo específico de la estructura de
cápside icosahédrica se ilustra en la figura 5. cada círculo obscuro representa una masa de
moléculas de proteína esférica. Cuando la cápside del virus de la figura 5 se dobla como se indica
en la figura 4ª y B, un modelo de cápside viral simple se ha formado. La examinación de este
modelo de cápside muestra un gran número de intersecciones y anillos cerrados superpuestos de los
aglomerados de moléculas de la proteína. Estos anillos cerrados de aglomerados de proteína
espaciados periódicamente se ilustran en la figura 6A y B. en fícia clásica cuando se estudia el
fenómeno de onda estática la proteína espaciada periódicamente se aglomera, como se ilustra en la
figura 6A y B, se conocen como el rosario de masas en un problema de cuerdas con condiciones
limitantes circulares. Las figuras 7A, B y C, ilustran este problema de física clásica las figuras 8A y
B ilustran uno de los modos de movimiento de onda estática en el cual los anillos de aglomeración
de proteínas espaciadas periódicamente cerrados de las figuras 6A y B pueden soportarse. La Figura
8A muestra un anillo de aglomerado de proteína de 10 asociados linear para un sencillo
desplazamiento de movimiento de onda graficada del centro de los aglomerados de proteínas desde
la su posición de equilibrio. La figura 8B muestra el modo de oscilación más estresante par el nillo
de aglomerados de proteína de 10 asociados. En este modo de oscilación, los aglomerados de
moléculas de proteína adyacentes siempre están moviéndose en direcciones opuestas y por lo tanto
aplicando un estrés máximo en el lugar donde se unen. Si este modo de oscilación se eleva a una
amplitud de desplazamiento suficientemente alto el anillo se romperá. Si suficientes anillos se
rompen, la cápside del virus se desintegra. El instrumento de frecuencia de Rife cuando se establece
a la frecuencia la cual corresponda a al modo de oscilación más estresante para el virus de interés,
como se ilustra en la figura 8Bm destruirá a esa cápside la capa del virus y por lo tanto destruirá al
virus.
La capa de la cápside común del virus fue escogida para mostrar como el instrumento de frecuencia
de Rife puede destruir un microbio el cual ha encerrado en ellos mismos estructuras de aglomerados
de proteínas espaciados periódicamente. Bacterias, protozoarios, rickettsias, y hongos todos tienen
este encierro dentro de ellos mismos de estructuras de aglomerados de proteínas espaciados
periódicamente, en su estructura exterior, la cual los hace susceptibles a la destrucción por el
instrumento de frecuencia de Rife.
Los avances en la tecnología de electrones han hecho un reemplazo mucho más eficientes y
ampliamente más poderosos del instrumento de frecuencia de Rife. Particularmente, el transductor
piezo-eléctrico, controlado por un generador de funciones de señal apropiados como puede ser
comprado en cualquier tienda de equipos de pruebas electrónicos. En nuestras circunstancias
presentes donde las bacterias resistentes a antibióticos están a punto de convertirse en
incontrolables, los fármacos antivirales son todavía por mucho solo un sueño bio tecnológico, y la
guerra contra el cáncer ha sido una falla deprimente para el paciente de cáncer, pero no para el tan
nombrado investigador de cáncer. Hace mucho que llegó el tiempo de que el trabajo de Rife de los
años 30’s sea implementado.
La Nueva Biología de la Salud
En realidad, la luz asomó por el horizonte hace más de cien años. Por desgracia, la corriente
médica dominante ha estado tan absorta en sus propios mitos que, ciega a otras realidades más
amplias, ha pasado por alto la tarea innovadora de algunos magníficos científicos pioneros.
Hasta ahora. Nos encontramos en el proceso de quitarnos las vendas de los ojos y de contemplar un
modelo completamente nuevo de salud, a la vez que corregimos el antiguo modelo de enfermedad.
Partiendo de varias décadas de investigaciones exhaustivas (las mías y las de aquellos primeros
pioneros ignorados), descubriremos los caminos básicos hacia la enfermedad y el bienestar. El
lector accederá a la parte científica, por supuesto, pero también a cuestiones prácticas que le
permitirán poner en acción a la ciencia.
Todo tiene que ver con el equilibrio: el equilibrio del pH. El universo funciona
manteniendo en equilibrio las fuerzas opuestas, y el universo contenido en nuestro organismo no
supone una excepción. Cuando se produce un desequilibrio, nos vemos afectados por los signos de
la enfermedad (o los trastornos): poca energía, fatiga, malas digestiones, exceso de peso, torpeza
mental, dolores y achaques, además de otros trastornos importantes. Este libro tiene que ver con la
reivindicación del equilibrio: energía, claridad mental, funcionamiento adecuado de todos los
sistemas corporales, ojos y piel claros y brillantes, y un cuerpo esbelto y estilizado.
Siguiendo el planteamiento expuesto en este libro, el lector podrá conseguir todo esto en unas
cuantas semanas.
Lo único que tienes que hacer es echar un vistazo a tú alrededor para ver que la mayoría de
las personas con nuestro estilo de vida actual sufre desequilibrios: son personas obesas que están
cansadas y que han envejecido prematuramente. Quizás todo eso te suceda a ti también. Es muy
probable que por lo menos un ser querido esté afectado por uno de los tres principales asesinos de
Occidente: la cardiopatía, el cáncer o la diabetes.
Cuando pregunté a los asistentes a una de mis conferencias cuántos de ellos tenían un familiar que
padeciera una de estas tres grandes dolencias, entre un 80 y un 90% levantó la mano. El hecho es
que la mitad de nosotros moriremos de una enfermedad cardíaca o de diabetes, y un tercio
falleceremos de cáncer.
Si tú, lector, como mucha gente de nuestra cultura occidental, te encuentras en esta tesitura
pensarás: “Bueno, de algo hay que morir.”
Hemos olvidado que lo natural es morir (y vivir) de forma saludable. En realidad, vivir de manera
saludable hasta el día de nuestra muerte es un derecho inalienable. Hacer de ello una realidad es el
1|Page
La Nueva Biología de la Salud
gran regalo del planteamiento de este libro. Y créeme, no tiene nada que ver con trazar el mapa del
genoma humano, con las tecnologías médicas punteras o con los fármacos más potentes (y
peligrosos). Las buenas noticias son que la respuesta es muchísimo más sencilla que todo eso, y está
disponible justo aquí y ahora: hoy mismo.
Una de las claves más obvias se encuentra ahí, en los tres principales asesinos: el cáncer, las
afecciones cardíacas y la diabetes. Todos ellos están directamente relacionados con la dieta. De
hecho, ocho de las diez principales causas actuales de muerte en Occidente lo están (por no
mencionar que la dieta es, obviamente, la causa de la obesidad del 69% de los individuos). (No
tengo duda alguna de que si dedicáramos -y cuando dediquemos- la suficiente energía a estudiar las
“enfermedades” menos comunes y los retos de la salud, demostraremos que también están
relacionados con la dieta). Consumir los alimentos adecuados y obtener los mejores nutrientes, de
forma equilibrada, te ayudará a evitar todo eso, además del sufrimiento y la mala calidad de vida
que tan frecuentemente preceden a la muerte, a veces durante décadas. La milagrosa dieta del pH
se basa en secretos sencillos para averiguar las combinaciones alimentarias adecuadas.
Incluso la corriente dominante de la medicina está de acuerdo con ello: “los alimentos contienen
nutrientes esenciales para una función metabólica normal, y cuando surgen problemas, se deben a
los desequilibrios en la ingesta de nutrientes y a la interacción perniciosa de otros factores. En [...J
los estadounidenses adultos que no fuman y no beben alcohol en exceso, hay una decisión
personal que Parece influir en las Perspectivas de gozar de una buena salud a largo plazo más
que cualquier otra cosa: lo que comemos” (extraído del “informe sobre Salud y Nutrición” de
la Dirección General de Salud Pública de EE.UU. de 1988, cursiva añadida).
Desde el informe histórico de C. Everett Koop (e incluso antes, dependiendo de los círculos
en los que uno se mueva), los estadounidenses y los occidentales han estado siguiendo una moda
dietética tras otra, no sólo en un intento de deshacerse del “exceso de equipaje” que la mayoría
llevamos encima, sino también como forma de volver a encontrar el camino hacia la buena salud.
Además, desde la aparición de ese informe, la industria agropecuaria de Estados Unidos y el mundo
de la publicidad han incrementado, de forma espectacular y poco honrada, la información falsa,
distorsionada, engañosa y sinsentido acerca de los alimentos que se venden en nuestras tiendas de
comestibles y se sirven en los restaurantes de comida rápida. ¿El resultado?: que nosotros estamos
más gordos que nunca. Y ciertamente no estamos más sanos.
El problema es que, aunque la dieta es la clave no sólo para la esbeltez, sino también para la
salud y el bienestar general, tiene que tratarse de una alimentación que equilibre adecuadamente
nuestra química corporal; pero muchas de las dietas más habituales (incluidos los regímenes
supuestamente saludables, como las dietas bajas en grasas, la pirámide alimentaria, la dieta
macrobiótica, la dieta según el grupo sanguíneo, el crudivorismo y el vegetarianismo) dan lugar a
una química corporal terriblemente desequilibrada. Aunque una manera determinada de comer nos
haga perder los kilos que nos sobran (por lo general de forma temporal) o reduzca los niveles de
colesterol o alivie los trastornos digestivos de algunas personas, no cumple con la promesa de,
sencillamente, tener una buena salud. De hecho, estamos tan acostumbrados a la maquinaria
médica actual que la buena salud parece cualquier cosa menos sencilla. Yo estoy aquí para decirlo:
es sencillo.
2|Page
La Nueva Biología de la Salud
Olvídate de los índices de colesterol y de los carbohidratos. Olvídate de las calorías y de los
gramos de grasa. Olvídate de la presión sanguínea, del azúcar en sangre, de los niveles de hormonas
o de cualquiera de los otros índices de la buena salud a los que estás acostumbrado en la consulta
del médico. El valor más importante para tu salud es el pH de la sangre y de los tejidos: lo
ácidos o alcalinos (básicos) que son. Las diferentes zonas del organismo tienen distintos niveles de
pH ideal, pero el pH de la sangre y de los tejidos es el más revelador de todos. Al igual que la
temperatura corporal está regulada de forma rígida, la sangre y los tejidos deben mantenerse
dentro de un margen de pH muy estrecho: ligeramente básico o alcalino. El organismo hará todo lo
que esté en su mano por mantenerlo así, incluso causar estragos en otros tejidos o sistemas
corporales.
El valor del pH de nuestros fluidos internos afecta a cada célula del organismo. Todo el proceso
metabólico depende de un entorno alcalino.
Una acidez excesiva y crónica corroe los tejidos corporales y, si no se le pone fin,
interrumpirá todas las actividades y funciones celulares: desde el latido del corazón hasta la
activación neural del cerebro. En otras palabras, una acidez excesiva interfiere en la propia vida y es
algo que se halla (como veremos más detalladamente en el siguiente capítulo) en la raíz de todas las
dolencias, enfermedades y trastornos. Si eso no resulta suficiente para captar tu interés y equilibrar
el pH de tu organismo de forma natural y no destructiva, ten esto presente: la acidez excesiva es
también lo que hace que estés obeso. (Se tratará este tema más adelante).
El objetivo (y lo que el planteamiento del libro/esta dieta te permite hacer), pues, consiste
en crear un adecuado equilibrio alcalino en tu organismo. La forma de hacerlo radica en consumir
alimentos ácidos y alcalinos de manera equilibrada. Eso significa que el 80% de tu dieta debe
consistir en alimentos alcalinizantes, como, por ejemplo, las verduras. (Este porcentaje descenderá
un poco cuando la persona se haya reequilibrado y si está muy enferma, el porcentaje deberá
aumentar durante algún tiempo). Por tanto, las raciones de alimentos ácidos (como la carne y los
cereales) deben ser mucho menores. Además, los suplementos nutricionales alcalinizantes
escogidos cuidadosamente te ayudarán a conseguir y mantener el equilibrio del pH. Aprenderás
mucho más acerca de todo esto y en detalle en capítulos posteriores. También tenemos que hacer
ejercicio de forma adecuada (véase el capítulo 13) y adoptar otras prácticas del estilo de vida
alcalino, como aprender a controlar el estrés (véase el capítulo 14).
Tan sólo se trata de eso. Llena al menos las tres cuartas partes de tu plato de alimentos
alcalinizantes, utiliza los suplementos nutricionales alcalinizantes de la forma que se menciona en
este libro e iniciarás el buen camino.
Los siguientes capítulos examinan los motivos de todo ello, y el resto del libro muestra
específicamente qué y cómo. Obtendrás los beneficios de mis propias investigaciones exhaustivas y
de grandes mentes que han emprendido este camino antes que yo, y también accederás a la
experiencia real y práctica de Shelley sobre cómo permitir que todo esto suceda.
En resumen: este tratamiento te aportará una mejor calidad y cantidad de vida. Te garantizo
que verás una mejoría inmediata. Tu energía aumentará, dispondrás de una claridad mental y de
una capacidad de concentración renovadas, incrementarás tu fortaleza física y tu resistencia, y
perderás el exceso de grasa corporal, al mismo tiempo que aumentas la masa muscular. Tendrás
unos ojos brillantes y una piel clara, un mejor aspecto. Mejorarás tu rendimiento deportivo. Todo tu
cuerpo funcionará de forma más eficaz. Independientemente de los retos de salud a los que te hayas
estado enfrentando, ésta mejorará y lo más probable es que esos problemas desaparezcan al mismo
tiempo. En pocas palabras, recuperarás tu energía natural y sostenible y el bienestar que creías
3|Page
La Nueva Biología de la Salud
haber perdido junto a tu niñez. Con la curación, la plenitud y el rejuvenecimiento que aporta este
tratamiento experimentarás, seguramente, y por primera vez en tu vida, una salud personal
vibrante y llena de energía.
Una y otra vez hemos sido testigos de la alegría, el alivio y la tranquilidad de espíritu
renovados de aquellos que han superado una enfermedad grave o crónica, de aquellas personas que
han perdido peso tras haber estado batallando con él durante años, de quienes han reducido los
niveles de colesterol, cuyos niveles de azúcar en sangre se han normalizado, la presión sanguínea
ha mejorado, la piel se ha curado, el prurito ha desaparecido y la energía ha vuelto. He visto a
personas que ya no necesitan insulina para controlar la diabetes, a gente a quien le han
desaparecido los dolores y achaques, e incluso a personas a las que les diagnosticaron cáncer y
desaparecieron los tumores. Frecuentemente oímos hablar de personas que no han sido capaces de
trabajar durante meses y años y que vuelven al trabajo, gente que ha mejorado de sus alergias y
otros que han visto desaparecer sus infecciones. Son personas que están bien, sanas y llenas de
energía. Gente como Sharon y su marido. Dejaremos que sea ella quien explique su historia:
Llegué a pesar 87 kilos. Estaba deprimida y cansada y había probado prácticamente todas
las dietas habidas y por haber. Perdía peso y luego lo volvía a recuperar en cuanto volvía a mis
antiguos hábitos alimentarios. Me fui desanimando más y más. Estaba enferma y cansada de estar
enferma y cansada, ¡y gorda! Sabía que era el momento de llevar a cabo cambios importantes en mi
estilo de vida.
Así que, una vez más, me subí a la montaña rusa de las dietas yo-yo y acudí a una
organización de mi barrio para perder peso. Funcionó durante los primeros meses. Perdí casi
quince kilos, cambié los refrescos por agua y empecé a hacer ejercicio. Pensé que esta vez había
solucionado el problema de verdad. En esa misma época, mi marido solicitó una póliza para un
seguro de vida. Los resultados de la revisión médica de la compañía nos dieron un susto de muerte.
Su colesterol se salía prácticamente de los gráficos: el valor era de 340. Tenía bultos de grasa en un
hombro.
Además, pesaba más que nunca: 103 kilos. Para alguien que mide 1,75 metros eso es mucho peso. El
informe médico decía que era poco menos que una bomba de relojería andante, en cualquier
momento podía sucederle algo. Al igual que yo, se dio cuenta de que tenía que hacer algunos
cambios importantes, pero no sabía ni qué ni cómo.
Antes de empezar el tratamiento nos mudamos a una nueva casa y nos fuimos de
vacaciones. Volví a mis viejos hábitos alimentarios, dejé de hacer ejercicio y recuperé nueve de los
casi quince kilos que había perdido. Cuando las cosas volvieron a la normalidad y nos dimos cuenta
de que teníamos que tomar serias medidas, fue cuando “la milagrosa dieta del pH” llegó a nuestra
vida.
Compartimos la misma idea: ¿Cómo íbamos a modificar nuestro estilo de vida de forma tan
drástica? Y luego pensamos que teníamos que intentarlo. Esa noche nos comprometimos a seguir el
tratamiento y nos dirigimos de inmediato a uno de nuestros restaurantes favoritos de la ciudad
para ponernos morados con lo que serían las últimas costillas de cerdo a la barbacoa y la torta de
helado con galletas de chocolate. A la mañana siguiente modificamos la dieta y con ello cambiamos
nuestra vida. Nunca hemos vuelto a mirar hacia atrás.
Los niveles de colesterol de mi marido bajaron a 242 en seis semanas, y ahora se
encuentran por debajo de 200. Tenía artritis en las caderas y había estado pensando en operarse,
pero ahora el dolor ¡ha desaparecido! Por primera vez en mi vida, no estoy deprimida. Ya no como
compulsivamente y tampoco hasta ponerme enferma para, después, volver a comer.
4|Page
La Nueva Biología de la Salud
Ya no soy esclava del azúcar y del pan. Ahora, los alimentos que prefiero son los aguacates y las
habas de soja. A los dos nos gustaría seguir perdiendo algunos kilos más, pero ya no nos
preocupamos por eso. Sabemos que nuestro cuerpo alcanzará un peso óptimo, y que nunca
volveremos a ganar kilos porque ya no ansiamos aquellos alimentos que nos hacían enfermar,
sentirnos cansados y estar obesos.
La pérdida de peso es, prácticamente, un beneficio secundario. Lo que en realidad sacamos
de todo esto es sentirnos mejor. Nuestra mente y nuestro cuerpo son más fuertes. Ya no nos
encontramos enfermos y cansados todo el tiempo. Incluso nuestra relación ha mejorado. Tenemos
una vida más satisfactoria. Podemos disfrutar con mayor plenitud de las mejores cosas de la vida:
principalmente de nuestros hijos.
Con respecto a ellos, ahora también estamos haciendo que sigan el tratamiento poco a poco.
Se han criado a base de comida rápida y pizza, chucherías y refrescos. Y se han hecho adictos al
azúcar, al pan y a la carne, y como resultado de ello están cansados, obesos y deprimidos, como
buena parte de su generación. ¿Quién hubiera dicho que incluso beberían zumo de verduras para
desayunar? Les alimentamos con comidas sanas y también toman suplementos nutricionales.
Siguen ingiriendo un poco de azúcar de vez en cuando, pero sabemos que éste es un proceso que no
desaparece de un día para otro. Toda nuestra familia sigue el planteamiento correcto.
Robert Louis Stevenson escribió: “Llegará un tiempo en el que nos sentaremos ante el
banquete de nuestras consecuencias”.
Así estábamos y así estamos. La situación actual me gusta mucho más. Aparte de historias
como ésta (que compartiré a lo largo del libro), he visto pruebas científicas de esas
transformaciones con mis propios ojos, aunque nada es más convincente que los cambios radicales
en la vida cotidiana de la gente. He observado muchos miles de muestras de sangre, incluidos los
niveles de pH, de personas de todo el mundo, y he visto la transformación que se produce (incluso a
nivel celular) cuando la gente modifica su forma de alimentarse, de comer y de pensar.
Toda esta curación es posible porque la gente está dispuesta a responsabilizarse de su salud
y a llevar a cabo los cambios necesarios. Esta es una misión en la que Shelley y yo nos implicamos, y
empezamos hace más de treinta años. Pero tardamos bastante tiempo en darnos cuenta de que lo
que parecía ser algo óptimo en el pensamiento popular nos seguía dejando cansados,
aparentemente susceptibles a cualquier resfriado e incapaces de sacar lo mejor de la vida.
Finalmente, probando y también equivocándonos (experimentando en nosotros mismos),
desarrollamos esta dieta y tratamiento, y la forma de estar plena, permanente y holísticamente
sanos: preparados a nivel físico para vivir la vida al máximo.
Siempre nos habíamos mantenido activos y atentos a formas de mejorar nuestra salud.
Hacia 1980, seguíamos lo que pensábamos que era un régimen vegetariano estricto ideal:
principalmente carbohidratos complejos con algunos hidratos de carbono sencillos (azúcares),
proteínas y grasas. Nos aveníamos a lo que parecía ser la mejor nutrición posible para nuestro
cuerpo, y criamos a nuestros hijos de esta manera.
Consumimos los mejores alimentos que vendían en nuestras tiendas naturistas favoritas. Pese a
ello, nos sentíamos fatigados por la tarde. Nuestra resistencia atlética parecía haber llegado a un
5|Page
La Nueva Biología de la Salud
Lo que no sabíamos entonces era los estragos que todo esto estaba provocando en la
química de nuestro organismo y cómo acidificó nuestro cuerpo de forma peligrosa, hasta
convertirse en la puerta de entrada para todas las consecuencias desastrosas que se explicarán en
los siguientes capítulos. Gracias a Dios, todos en la familia nos habíamos mantenido sanos en
general, pero con lo que sabemos ahora, podemos ver que fuimos afortunados. Nos estábamos
tendiendo una trampa para sufrir muchos problemas potenciales.
Nos llevó mucho tiempo darnos cuenta de lo que estaba sucediendo y qué es lo que podíamos hacer
al respecto. Cuando lo averiguamos, ¡menuda diferencia! Entre otras cosas, y aunque, para empezar,
ninguno de nosotros tenía sobrepeso, los dos perdimos kilos. Yo perdí unos nueve kilos y diez
centímetros de cintura. Shelley, unos siete kilos, y ahora viste la misma talla que cuando iba a la
universidad (una talla 42). Lo más importante es que nos sentíamos mucho mejor, y no sólo eso,
sino que también pude observar unos cambios sorprendentes en nuestra sangre, incluidos los
valores del pH. Una cosa buena del viaje de unos catorce años por el que transitamos para
desarrollar este tratamiento fue que me proporcionó el tiempo para descubrir algunas técnicas de
laboratorio nuevas (para mí) con las que podría registrar gráficamente nuestros avances (que
describiré de forma más completa más adelante).
Como, en esencia, y ya para empezar, estábamos sanos, estaba ansioso por evaluar los
efectos de los cambios que estábamos realizando en la dieta en personas que se enfrentaban a retos
importantes de salud, como la diabetes, el cáncer, la obesidad, las cardiopatías, el lupus, la gota, la
esclerosis múltiple, la enfermedad de Parkinson y la artritis. Efectivamente, en mis estudios podía
ver las mismas mejoras radicales en su sangre y en el pH de su saliva y su orina. Todos nos
informaban de que se sentían mejor y de que estaban perdiendo peso, y en muchos casos, incluso
los graves problemas que padecían se curaban o desaparecían. Fui testigo de estos sorprendentes
resultados y supe que habíamos hallado algo más que una forma de comer que resultaba adecuada
para nosotros y para nuestra familia: habíamos descubierto algo que queríamos compartir.
Hemos seguido la dieta y el tratamiento a rajatabla durante más de diez años, y no tenemos
ninguna duda: Nunca volveremos a nuestros antiguos hábitos. Hemos ganado tanto que no
querríamos perderlo nunca. Incluso al ir envejeciendo nos seguimos sintiendo mejor, y sabemos
que nos estamos protegiendo de los estragos de las enfermedades que se cobran las vidas de
muchos de nuestros conciudadanos estadounidenses (y de los habitantes de los países de
Occidente). Hemos hallado una forma de asegurar que estaremos el uno para el otro, que estaremos
ahí para nuestro trabajo y para la mayoría de nuestros hijos a largo plazo, y que podremos disfrutar
verdaderamente de todo ello durante cada minuto de nuestra vida.
La buena salud debería ser algo consustancial a nosotros, pero para muchas personas
parece algo muy difícil de conservar. Esta dieta modifica esa idea para siempre. Te investirá de
poder para recuperar lo que te pertenece por derecho, te animará a asumir la responsabilidad de tu
propio bienestar y restablecerá el gran regalo que supone la satisfacción.
Sé que existen muchas fórmulas para recuperarse y muchas tienen un buen historial y una
reputación positiva. Frecuentemente, se debe a que tratan de manera parcial (quizás sin saberlo)
con lo que vas a aprender. Además, puedes mejorar mucho sin lograr estar del todo bien, por lo que
quizás pienses que el trabajo ya está hecho sin llegar a cosechar las mejores recompensas. No
6|Page
La Nueva Biología de la Salud
obstante, una vez que experimentes el bienestar pleno y vibrante que conlleva este cambio básico
en tu dieta y tu estilo de vida, conocerás lo enorme que puede ser la diferencia. Por tanto, te
invitamos a iniciar este camino y a experimentar los resultados por ti mismo. ¡Despierta a la luz de
un nuevo día!
7|Page
Frecuencias sanadoras RIFE
*Enfermedades de la columna:
https://www.youtube.com/watch?v=CEvBTgdi0Y4
*Inflamacion
https://www.youtube.com/watch?v=6PKVaRV4PG0
*Anti edad
https://www.youtube.com/watch?v=E687FJ6I9CI
*Bajar de peso
https://www.youtube.com/watch?v=xW8ndceCno8
*Reparar metabolismo
https://www.youtube.com/watch?v=kUVMPC4nEEo
*Problemas de la vista
https://www.youtube.com/watch?v=UL4BJD_UrA4