Sunteți pe pagina 1din 160

FACULTAD DE MEDICINA HUMANA

UNIDAD DE CIENCIAS BÁSICAS

FISICA

GUÍA DE SEMINARIO

2019-I
INTRODUCCIÓN

La Cátedra de Física Médica forma parte del Área de Ciencias Básicas, la cual capacita al estudiante de Medicina
Humana de los fenómenos físicos básicos relacionados con los procesos funcionales del cuerpo humano como
pilar fundamental del futuro aprendizaje de la Fisiología y Fisiopatología general.

El curso es de carácter teórico – práctico, desarrollado en Clases Magistrales, Seminarios y Prácticas en el


Laboratorio, de manera dinámica y didáctica, organizado en 04 unidades:

- Biomecánica y Biodinámica
- Gases y Termodinámica
- Hidrostática e Hidrodinámica
- Bioelectricidad y Radioisótopos

La asistencia es OBLIGATORIA. De inasistir, se considerará CERO en los 3 ítems de Evaluación Continua


(Actitudinal, Cognitivo, Procedimental).

Se asignarán trabajos de exposición, monografías y/o cuadros de resumen y se resolverán problemas, los que
contribuirán al mejor rendimiento en la evaluación continua y en los exámenes durante el desarrollo del curso.

Así mismo, se realizará un trabajo de investigación por grupos que corresponderá al 20% de la nota de seminario
al final del curso.

La metodología del Trabajo de Investigación será el siguiente:

1. Selección de Temas de Investigación.


2. Formación de 04 grupos por seminario, de forma aleatoria y no por afinidad, por el docente a cargo,
quien será el asesor de los grupos de investigación durante el semestre.
3. Sorteo de temas por grupo.
4. Presentación de avances en cada seminario al docente, el cual será calificado en el Ítem Procedimental,
de acuerdo al cronograma.
5. Presentación del Informe Final al asesor, espiralado o anillado, de acuerdo a la Estructura del Informe
Final, consignado en el SILABO del curso.
6. Calificación de trabajos por los docentes de seminario y entrega de notas.
7. Exposición en el aula Magna o Auditorio. El expositor será seleccionado el día de la exposición, por un
jurado de forma aleatoria, de acuerdo a los grupos que reciban clase en el aula Teórica. Ese día, los
miembros del trabajo de investigación, deberán saber el tema de exposición en caso se les llame a
exponer. La asistencia es Obligatoria, en caso de faltar a la exposición serán calificados con nota CERO,
exceptos casos justificados. Vestimenta formal.
Temas de investigación:

Tecnología aplicada a la Medicina y Medicina Nuclear. (Sugerencia: Historia, intervencionismo, Diagnóstico por
imágenes, Casos clínicos, Investigaciones actuales en el Perú y el mundo, Aplicaciones de la tecnología en la
Fisiatría y Rehabilitación, etc.)

La física en el Sistema Cardiovascular. (Sugerencia: Anatomía general del Sistema Cardiovascular, Fisiología,
Leyes físicas relacionadas al Sist. Cardiovascular, Enfermedades por disbalance de leyes físicas, Casos clínicos,
Emergencias cardiovasculares, Investigaciones actuales, etc.)

Fisicoquímica del Sistema Gastrointestinal. (Sugerencia: Anatomía general del Sistema Gastrointestinal,
Fisiología, Leyes físicas relacionadas al Sist. Gastrointestinal, Enfermedades por disbalance de leyes físicas,
Tratamientos actuales médicos y quirúrgicos, Casos clínicos, Investigaciones actuales, etc.)

Efectos de la altitud en el hombre. (Sugerencia: Metabolismo en las grandes alturas, Sistema respiratorio en la
altura, Sistema circulatorio en la altura, Sistema Gastrointestinal en la altura, Mecanismos de adaptación,
Alteraciones en la adaptación: Mal agudo de montaña, otros; Casos clínicos, investigaciones actuales, etc.)

Cronograma de presentación de Avances


Semanas Actividad / Presentación
2-3 Introducción-Índice (Preparación del Índice)
Capítulos 1-2 del tema de investigación (Importancia,)
4-5 Capítulos 3-4 Subdivisión de tópicos del tema
Capítulos 5-6 Presentación del Primer avance del Marco
Teórico
6-7 Capítulos 7 Presentación de casos de la realidad referentes al
tema
8 Correcciones
10 PRE- INFORME (todos avances del cada capítulo)
11 Presentación de conclusiones y Bibliografía
12 Correcciones
13 INFORME FINAL (monografía y ppt)
SEMINARIO N° 1
BIOMECÁNICA: MOMENTO, IMPULSO Y COLISIÒN

La biomecánica es una disciplina científica que tiene por objeto el estudio de las estructuras de
carácter mecánico que existen en los seres vivos (fundamentalmente del cuerpo humano).

Esta área de conocimiento se apoya en diversas ciencias biomédicas, utilizando los conocimientos de
la mecánica, la ingeniería, la anatomía, la fisiología y otras disciplinas, para estudiar el
comportamiento del cuerpo humano y resolver los problemas derivados de las diversas
condiciones a las que puede verse sometido.

La Biomecánica está presente en diversos ámbitos, aunque tres de ellos son los más destacados en la
actualidad:

BIOMECANICA MÉDICA

La biomecánica médica, evalúa las patologías que aquejan al cuerpo humano para generar
soluciones capaces de evaluarlas, repararlas o paliarlas.

BIOMECANICA DEPORTIVA

La biomecánica deportiva, analiza la práctica deportiva para mejorar su rendimiento,


desarrollar técnicas de entrenamiento y diseñar complementos, materiales y equipamiento de
altas prestaciones.

BIOMECANICA OCUPACIONAL

La biomecánica ocupacional, estudia la interacción del cuerpo humano con los elementos con
que se relaciona en diversos ámbitos (en el trabajo, en casa, en la conducción de automóviles,
en el manejo de herramientas, etc.) para adaptarlos a sus necesidades y capacidades.
En este ámbito se relaciona con otra disciplina como es la ergonomía.

Aplicaciones:

¿Por qué se insertan los tornillos en el sentido de las agujas del reloj?

Sedestación adecuada

La columna vertebral está formada por 33 vertebras separada por discos intervertebrales, que son
estructuras de característica fibrocartilaginosa con la cual se articula cada vertebra, con la finalidad de
amortiguar la presión entre los cuerpos vertebrales y brindar movilidad.

No tiene una forma recta, posee curvaturas que cumplen la función de aumentar la resistencia de la
columna y descomponer la transmisión de las fuerzas sobre la columna.

Se crean sillas ergonómicas que mimeticen las curvaturas fisiológicas de la columna vertebral, es decir
con un refuerzo lumbar a nivel de L2-L4, para evitar concentrar la fuerza en un solo punto, o cuyo
respaldo esté inclinado hacia atrás.

Se recomienda: una Sedestación dinámica, lo que contribuye a un buen metabolismo y tiene


consecuencias positivas para los discos intervertebrales; Micro pausas; Ejercicios posturales, etc.
Manejo manual de cargas adecuado

Efecto de las posturas forzadas o movimientos repetitivos

MOMENTO:

Tiene mucha relación con MOVIMIENTO. Es decir lo que tiene MOMENTO está en movimiento
y será necesario un esfuerzo para detenerlo. O dicho en otras palabras es la cantidad de movimiento
que tiene un objeto

MOMENTO ES MASA EN MOVIMIENTO

Cuando un objeto no se mueve su MOMENTO NO EXISTE.

La cantidad de momento que un objeto posee depende de 2 variables;


MASA Y VELOCIDAD.

MOMENTO = MASA X VELOCIDAD

En Física, Momento lleva como símbolo “ p”, entonces la ecuación será:

p= m X v
Donde:
p = Momento
m = Masa
v = Velocidad

Entonces diremos que el MOMENTO es directamente proporcional a la masa y la velocidad. Mientras


más peso y más movimiento tenga un cuerpo será mayor su momento.

La unidad Standard y convencional para MOMENTO será Kg. x m / s


¿CUAL DE LOS TRES TENDRA MAYOR MOMENTO?

Para detener a cualquiera de ellos será necesario aplicar una fuerza, en contra de su
movimiento por un determinado tiempo. A MAYOR MOMENTO DEL OBJETO SERA MAS DIFICIL
DETENERLO. Requeriremos una gran fuerza o un periodo suficiente de tiempo para lograr que
un objeto con un gran momento se detenga.
A medida que la fuerza actúa sobre el objeto por un tiempo determinado, la velocidad del objeto
cambia, y en consecuencia también el MOMENTO del objeto.

Entonces un objeto con un MOMENTO puede detenerse si una fuerza se aplica sobre él por
un tiempo determinado.
Si la fuerza actúa oponiéndose al movimiento del objeto, disminuirá su velocidad.
Si actúa en la misma dirección del movimiento del objeto, aumentara su velocidad. Y si la velocidad
del objeto cambia, el MOMENTO también cambia.

Esto se correlaciona con la SEGUNDA LEY DE NEWTON

F = m X a

f : fuerza
m: Masa
a: Aceleración.

Y si además agregamos que ACELERACIÒN ES IGUAL A VELOCIDAD / TIEMPO, diremos que:

F X t =m X v

COLISIONES:

La muerte y la discapacidad por lesión se han convertido en un serio problema de salud pública
en la mayoría de los países. Cada día mueren decenas de personas por colisiones de tránsito. Es por
eso que la Traumatología es una rama de la Medicina que se ha desarrollado mucho últimamente.

En la Física de las colisiones un objeto experimenta una fuerza por un determinado tiempo
que ocasiona una variación de su momento. En otra forma se puede decir que el
“Impulso experimentado por un objeto iguala a la variación de MOMENTO del mismo objeto”.

En una Colisión un objeto experimenta un impulso, este ocasiona e iguala la variación del Momento.
En una Colisión el Impulso experimentado por un objeto siempre es igual al cambio o variación del
MOMENTO.

REBOTES:

Son tipos especiales de colisión, en los que hay cambio de dirección lo que genera también un
cambio de velocidad.
En ocasiones un objeto que tiene una colisión de tipo rebote casi mantiene la misma velocidad (y
también mantiene el MOMENTO y la Energía Cinética), cuando esto ocurre estamos frente a un
tipo de Rebote llamado CHOQUE ELASTICO.
Por ejemplo en las moléculas gaseosas existirá gran variación de velocidad, gran variación de cambio
de momento, un gran impulso y una gran fuerza.
Posturología y Biomecánica

La Posturología es una disciplina médica que estudia la posición


del individuo en el espacio: su equilibrio, su estatura, su
verticalidad, su estabilidad. De hecho estudia e integra el
sistema postural fino, en relación con las patologías que se
pueden asociar al propio individuo. Utiliza tests clínicos que
permiten saber la causa primaria del dolor o disfunción y se
ayuda de tecnología digital para corroborar los resultados
obtenidos.

Posturología - tratamientos del dolor: La Posturología busca el


origen de los síntomas y manifestaciones posturales, y da una
respuesta multidisciplinar teniendo en cuenta la vista, el oído,
el pie y la columna.

La Posturología, puede corregir el factor mecánico de diversos


trastornos del aparato locomotor y la columna vertebral
abordando distintas patologías (escoliosis, problemas
fémoropatelares, síndrome de fibromialgia) y posibilitando una corrección etiológica dando alternancia
a los tratamientos sintomáticos habituales, que no han respondido o bien han recurrido en el tiempo.

TAREA N° 1: RESOLVER EN EL PPT


1. Dé 02 ejemplos de la Realidad en la que se aplique el concepto de Colisión y Rebote.
2. ¿Existe en la vida real el Choque elástico?
3. ¿Qué es el Síndrome de Latigazo? ¿Cómo sucede? ¿Qué fuerzas están implicadas?
4. ¿Qué significa escoliosis?
SEMINARIO 2
BIODINAMICA MEDICA: TRABAJO, ENERGIA, POTENCIA. BIOFISICA MUSCULAR

"Si he visto más lejos que los otros hombres es porque me he aupado a hombros de gigantes"
Isaac Newton

Como habrán visto en sus teorías, a esta altura de nuestra asignatura, se han podido dar cuerna de la
gran importancia de las leyes de Newton. Sus leyes nos sirven para analizar el movimiento de los
objetos, como la que involucra a la fuerza y la masa que se utiliza para determinar la aceleración
del cuerpo. De esta manera las leyes de Newton nos permiten hacer anticipaciones acerca del estado
final del objeto en movimiento. Pero este no es el único punto de vista que podemos
establecer ante el movimiento de un objeto, nos podemos acercar a él desde la perspectiva del
TRABAJO, la ENERGIA y la POTENCIA.

TRABAJO

El concepto físico de trabajo difiere fundamentalmente de la idea común que de él se tiene. En el


lenguaje popular o corriente la expresión trabajo se aplica a cualquier esfuerzo físico o mental
que se hace en orden a producir un determinado resultado, así por ejemplo, cuando una persona
intenta levantar una piedra sin lograrlo, se dice que ha trabajado mucho y a los estudiantes se les oye
decir: me costó mucho trabajo levantarme hoy para ir a clases

En física el trabajo se define como una fuerza que actúa sobre un objeto para causar un
desplazamiento.

En toda idea de trabajo intervienen siempre como elementos una fuerza, un cuerpo u objeto y
un efecto obtenido que se manifiesta por un desplazamiento del objeto o cuerpo en la dirección de la
fuerza aplicada. Así cuando vamos al supermercado y observamos a las personas “empujando” sus
carritos de compras, veremos que sus fuerzas si están realizando trabajo o al levantar un ladrillo
para colocarlo sobre una mesa, se estará realizando trabajo y así podemos encontrar muchos
ejemplos. Pero recuerden siempre que para que exista trabajo, la fuerza debe ser la causante del
desplazamiento.
Matemáticamente el trabajo puede expresarse con la siguiente ecuación:

W = F x d x cos θ

Dónde:
W= Trabajo
F = Fuerza
d= desplazamiento o distancia
θ= ángulo formado entre la fuerza y el vector de desplazamiento.
ENERGIA

Albert Einsten consideraba que la materia y la energía son formas diferentes de una misma cosa y que
una puede transformarse en la otra

CONCEPTO

La energía se define como la CAPACIDAD PARA PRODUCIR TRABAJO


Existen muchas formas de energía (calorífica, magnética, radioactiva), pero en mecánica nos
ocuparemos de dos tipos, la energía potencial y la energía cinética.

ENERGIA POTENCIAL

Es la energía almacenada o inactiva, es cuando un sistema tiene la capacidad de producir trabajo. Por
ejemplo un peso suspendido por una cuerda (recuerden como Schwarzennger elimina al
extraterrestre en la película “Depredador”), o un arco (con o sin flecha) cuando se encuentra tenso.
Esta energía almacenada de acuerdo a la posición del objeto es la denominada energía potencial.
Existen dos formas de energía potencial, una dependiente de la gravedad y otra dependiente de la
capacidad elástica del objeto.

La energía potencial gravitacional: Aquella que resulta de la posición vertical del objeto (altura a la
que se encuentra) .Esta energía será el resultado de la fuerza de atracción que ejerce la tierra sobre
el objeto. La energía potencial gravitacional, dependerá de dos variables, la masa del objeto
suspendido (en el caso de la película “Depredador” fue un troncazo) y de la altura. Existirá como es
lógica una relación directa entre la energía potencial gravitacional y la masa del objeto.

La energía potencial elástica: La energía almacenada en los materiales elásticos


como resultado de su compresión o estiramiento (como un resorte). La cantidad de
energía potencial elástica almacenada, dependerá de la capacidad de estiramiento o compresión
del objeto. Esto evidentemente tiene aplicación para entender el trabajo muscular.
ENERGIA CINÉTICA

Es la energía que depende del movimiento, un objeto en movimiento sin importar la dirección tiene
energía cinética. La energía cinética más conocida es la translacional, es decir, la involucrada en el
desplazamiento de un objeto de un lugar a otro.

La energía cinética (translacional) depende de dos variables, la masa (m) del objeto y de la
velocidad (v) del mismo.
Es una magnitud escalar, no tiene dirección. Además, al igual que el trabajo y la energía potencial, la
unidad de la energía cinética será el Joule.

2
1 Joule = 1 Kg x m
2
s

POTENCIA

No solo es necesario conocer el trabajo que se ha realizado, sino que es indispensable también
tener en cuenta el tiempo durante el cual dicho trabajo debe ser terminado.

Si dos personas o maquinas realizan el mismo trabajo (elevar 200 litros de agua a 10 mts de altura)
empleando cada una de ellas diferente tiempo, física mente se le califica diciendo que tienen distinta
potencia; si por ejemplo si una persona emplea la mencionada operación dos horas y la otra cinco
horas, la primera tiene mayor potencia que la segunda.

El concepto físico de potencia se define como la CANTIDAD de trabajo que tiene que realizar una
fuerza (que causa desplazamiento) en la unidad de tiempo

La potencia de un mecanismo es un concepto muy importante pues en un motor, por ejemplo lo que
interesa no es la cantidad total de trabajo que puede hacer hasta que se descomponga sino la
rapidez con la que pueda entregar el trabajo

POTENCIA = TRABAJO
TIEMPO

La unidad de la potencia es el Watt. Un Watt es equivalente a un Joul/ segundo.

Por cuestiones de uso histórico ocasionalmente nos encontramos con otra unidad llamada
“Caballo de fuerza” (HP) sobre todo cuando hablamos de la potencia de un motor de autos.

1 HP = 750 Watts

1
BIOFISICA MUSCULAR

Los músculos pueden clasificarse de diferentes maneras, de las cuales la clasificación


histológica, distingue tres tipos de músculos: estriado, liso y cardiaco.

MUSCULO ESTRIADO

El músculo estriado (de estría = raya), es llamado también esquelético (mueve al esqueleto en los
“tonos”), externo (es obvio) y también voluntario (obedece al sistema nervioso de la vida
“voluntaria”).
Un músculo esquelético es un órgano formado por células musculares esqueléticas y por tejido
conectivo. El tejido conectivo reviste cada célula muscular formando una envuelta denominada
endomisio. Las células musculares se agrupan en haces o fascículos rodeados a su vez de una cubierta
conectiva denominada perimisio. Y el músculo entero dispone de una lámina gruesa llamada epimisio.
Estas cubiertas de tejido conectivo pueden continuarse con el tejido fibroso que forma los tendones,
los cuales constituyen el anclaje del músculo al hueso

Fibra muscular

La membrana recibe el nombre de sarcolema y el citoplasma es denominado sarcoplasma. En el


interior del mismo existe una gran cantidad de haces finos de fibrillas, denominadas miofibrillas, que
ocupan la práctica totalidad del volumen citoplasmático. Estas miofibrillas están constituidas a su vez
por fibras aún más delgadas denominadas miofilamentos.

Las miofibrillas están divididas en una serie de unidades repetidas longitudinalmente llamadas
sarcómeros, estas subunidades se alinean perfectamente a lo largo de la miofibrilla. Cada sarcómero
está delimitado por unas regiones conocidas como discos. El sarcómero de una miofibrilla es la
unidad funcional del músculo estriado.

2
Sus fibras son de color rojo por la presencia de una proteína llamada Mioglobina y uno lo puede
reconocer fácilmente cuando compre la carne para una parrillada. A este tipo de músculo nos
estaremos refiriendo en esta parte del seminario.

MUSCULO LISO

El músculo liso, es llamado también visceral (forma las vísceras


del tubo Digestivo, el estómago por ejemplo); interno (también es
obvio el porqué) y se le llama finalmente involuntario (obedece
solo el sistema nervioso autónomo o de la vida “involuntaria”.
Intenten detener a su estómago cuando se mueve y suena por
ejemplo). No presenta sarcomera. Sus fibras tienen mucho
menos Mioglobina y por lo tanto son blanquecinas, lo
pueden reconocer cuando compran el “mondonguito” para
cocinar un delicioso cau-cau.

MUSCULO CARDIACO
A diferencia del músculo esquelético, el
cardíaco está formado por unidades celulares
separadas llamadas miocitos. Estos miocitos
cardíacos están unidos por sus extremos
mediante especializaciones de unión llamadas
discos intercalares.

Aunque las bandas que se forman de esta


manera son predominantemente paralelas,
los miocitos individuales se ramifican y
forman conexiones oblicuas con las bandas
vecinas, formándose una compleja
organización tridimensional muy diferente del
orden paralelo de las fibras cilíndricas del
músculo esquelético.

El corazón humano late a un ritmo de 60 a100 veces por minuto durante toda la vida. Su contracción
es de tipo miógeno, es decir, no depende de la estimulación nerviosa.
3
CONTRACCIÓN MUSCULAR (MÚSCULO ESQUELETICO)

Todos los músculos tienen en común la capacidad de


ejercer fuerzas de tracción y por ende generar una fuerza
fisiológicamente útil a nuestro organismo. La unidad
responsable de l a capacidad contráctil del músculo es la
sarcómera. La contracción de las sarcomeras de un
músculo es la causa de la contracción del mismo

La sarcomera presenta proteínas contráctiles de varios


tipos. Su estructura básica es la siguiente:
Los filamentos delgados: Actina, Tropomiosina y Troponina
(I, T y C).
Los filamentos gruesos formados por Miosina

La contracción muscular se produce por deslizamiento


de los filamentos gruesos y finos entre sí. Esta interdigitación de los filamentos produce una
disminución de longitud del sarcómero. Durante el acortamiento del sarcómero, los disc os o
líneas Z se acercan uno a otro, aproximándose entre sí.

TIPOS DE CONTRACCIÓN

Contracción Isométrica: es aquella en la que el músculo se contrae pero su longitud no varía.


Evidentemente su tensión si aumenta.
Esto se da por ejemplo, cuando se realizan las demostraciones de los físico-culturistas, en las
competencias de vencidas y cuando un pesista sostiene las pesas en todo lo alto. Estos
ejercicios no son recomendables para conservar una buena salud.
En resumen contracción isométrica = tensión SIN acortamiento.

Contracción isotónica: es aquella en la que el músculo modifica su longitud manteniendo constante


la fuerza que ejerce durante toda la contracción.
Esto se da en la mayoría de los ejercicios, caminar, carrera, natación, ciclismo y otros. Estos si son
recomendables para mantener en estado óptimo nuestra salud.
4
En resumen contracción isotónica = tensión MAS acortamiento.

TAREA N° 2: RESOLVER EN EL PPT

1. Mencione 5 Ejemplos de contracción isotónica y 5 de isométrica aplicadas en el cuerpo


humano.
2. ¿Cómo se realiza la contracción muscular? ¿Es lo mismo en el músculo liso, cardiaco y
estriado?
3. ¿Cómo se realiza el Potencial de Acción en el músculo estriado, liso y cardiaco?

5
SEMINARIO 3

GASES I: VENTILACION PULMONAR. VOLÚMENES Y CAPACIDADES MUSCULARES

Los objetivos de la respiración son suministrar oxígeno a los tejidos y eliminar el dióxido de
carbono. Para alcanzar dichos objetivos, la respiración puede dividirse en cuatro acontecimientos
funcionales principales:

Ventilación pulmonar, que significa el flujo del aire, de entrada y de salida, entre la atmósfera y los
alvéolos pulmones;
Difusión del oxígeno y del dióxido de carbono entre los alvéolos y la sangre;
Transporte del Oxígeno y del dióxido de carbono en la sangre y los líquidos corporales a las células
y desde ellas.
Regulación de la Ventilación y de otras facetas de la respiración.

VENTILACIÓN PULMONAR

MECÁNICA DE LA VENTILACIÓN PULMONAR.

MÚSCULOS QUE PRODUCEN LA EXPANSIÓN Y CONTRACCIÓN DE LOS


PULMONES.

Los pulmones pueden expandirse y contraerse de dos maneras:

Por el movimiento hacia abajo y hacia arriba del diafragma para alargar y acortar la cavidad
torácica.
Por elevación y descenso de las costillas para aumentar y disminuir el diámetro anteroposterior de la
cavidad torácica.

6
La respiración normal tranquila se logra casi totalmente por el primero de ambos sistemas, es decir,
por el movimiento del diafragma. Durante la inspiración, la contracción del músculo
diafragma tira de las superficies inferiores de los pulmones hacia abajo. Después, durante la
espiración, el diafragma simplemente se relaja, y es el retroceso elástico de los pulmones, de la
pared torácica y de las estructuras abdominales el que comprime los pulmones.

Durante la respiración enérgica, sin embargo, las fuerzas elásticas no tienen la potencia suficiente
para provocar la espiración rápida necesaria, de forma que la fuerza adicional requerida se logra
principalmente mediante la contracción de los músculos abdominales, que empujan el contenido
abdominal hacia arriba contra la superficie inferior del diafragma.

El segundo método de expansión pulmonar consiste en elevar la caja torácica. Esta maniobra
expande los pulmones debido a que, en la posición natural de reposo, las costillas se dirigen
hacia abajo, como se muestra en la parte izquierda de la Figura, lo que permite que el
esternón caiga hacia atrás, hacia la columna vertebral. Pero cuando la caja torácica se eleva, las
costillas se proyectan casi directamente hacia adelante, de forma que el esternon se dirige hacia
adelante, alejándose de la columna, lo que hace que el espesor anteroposterior del tórax sea
aproximadamente un 20 % mayor durante la inspiración forzada que durante la espiración.

Los músculos más importantes que elevan la caja torácica son los intercostales externos, pero
también contribuyen los siguientes:
1. Los músculos esternocleidomastoideos que tiran del esternón hacia arriba.
2. Los serratos anteriores que elevan muchas costillas.
3. Los Escalenos, que elevan las dos primeras costillas.

Los músculos que tiran de la caja torácica hacia abajo durante la espiración son:

1. Los rectos abdominales, que tienen el efecto poderoso de tirar hacia abajo de las costillas
inferiores a la vez que, junta con los restantes músculos abdominales, comprimen el contenido
abdominal hacia arriba contra el diafragma.
2. Los intercostales internos.

MOVIMIENTO DEL AIRE DENTRO Y FUERA DE LOS PULMONES, Y LAS PRESIONES QUE PRODUCEN EL
MOVIMIENTO

El pulmón es una estructura elástica que se colapsa como un globo y expulsa todo su aire por la
tráquea si no existe una fuerza que lo mantenga inflado. Además, no hay fijación entre el pulmón
y las paredes de la caja torácica, excepto en el lugar en el que está suspendido del
mediastino por el hilio. Por el contrario, el pulmón flota literalmente en la cavidad torácica, rodeado
de una fina capa de líquido pleural que lubrica los movimientos de los pulmones en el interior de la
cavidad.

Además, la continua aspiración del exceso de líquido a los linfáticos mantiene una ligera succión
entre la superficie de la pleura visceral pulmonar y la superficie de la pleura parietal de la cavidad
torácica. Por tanto, ambos pulmones se mantienen contra la pared torácica como si
estuvieran pegados, excepto que pueden deslizarse libremente, bien lubricados, con la expansión y
contracción del tórax.

7
1. LA PRESIÓN PLEURAL Y SUS VARIACIONES DURANTE LA RESPIRACIÓN

La presión pleural es la presión del líquido en el


estrecho espacio existente entre la pleura pulmonar y
la pleura de la pared torácica. Como se ha señalado
anteriormente, existe una ligera aspiración, lo que
significa que hay una pequeña presión negativa. La
presión pleural normal al comienzo de la inspiración es
de aproximadamente -5 cm de agua, que es la cantidad
de aspiración necesaria para mantener 1os pulmones
abiertos en su nivel de reposo. Después, durante la
inspiración normal, la expansión de la caja torácica tira
de los pulmones con más fuerza todavía y crea una
presión aún más negativa, hasta un valor medio de
unos -7.5 cm de agua. Estas relaciones entre la presión
pleural y el volumen pulmonar cambiante se ilustran en
la Figura de abajo, que muestra en la parte inferior la
creciente negatividad de la presión pleural de -5 a -
7.5 durante la inspiración, y en la parte superior un
aumenta del volumen pulmonar de 0.5 litros. Después, durante la espiración, sucede esencialmente
lo contrario.

2. PRESIÓN ALVEOLAR.

La presión alveolar es la presión del aire en el interior de los alvéolos pulmonares. Cuando la glotis
está abierta y no fluye aire ni hacia el interior ni hacia el exterior de los pulmones, las presiones
en todas las partes del árbol respiratorio, hasta los alvéolos, son iguales a la presión atmosférica,
que se considera la presión de referencia cero en las vías respiratorias, es decir, 0 cm de agua. Para
originar un flujo de aire hacia dentro en la inspiración, la presión en los alvéolos debe caer a un
valor discretamente inferior al de la presión atmosférica (por debajo de 0). La segunda línea oscura
de la Figura (identificada como presión alveolar) muestra que en la inspiración normal la presión
alveolar disminuye aproximadamente a -1 cm de agua. Esta presión ligeramente negativa basta para
desplazar 0.5 litros de aire al interior de los pulmones en los 2 segundos que dura la Inspiración
normal tranquila.
Durante la espiración ocurre lo contrario: la presión alveolar se eleva hasta +1 cm de agua
aproximadamente, y esto hace salir el 0.5 litro de aire inspirado fuera de los pulmones durante los 2
ó 3 segundos de la espiración.

3. PRESIÓN TRANSPULMONAR.

Finalmente, obsérvese en la Figura, la diferencia de presión entre la presión alveolar y la presión


pleural. Esta diferencia se denomina presión transpulmonar, y es la diferencia de presión entre la
presión de los alvéolos y la de las superficies externas de los pulmones, y representa una medida
de las fuerzas elásticas de ¡os pulmones que tienden a colapsar los pulmones en cada grado de
expansión, denominada presión de retroceso elástico.

1
DISTENSIBILIDAD PULMONAR

El grado de expansión de los pulmones por unidad de incremento de la presión


transpulmonar se denomina distensibilidad. La distensibilidad pulmonar total de ambos pulmones
en el ser humano adulto medio es en promedio de unos 200 mL de aire por centímetro de presión
transpulmonar de agua.
La distensibilidad está determinada por las fuerzas elásticas de los pulmones. Estas pueden
dividirse en dos partes:
1. Las fuerzas elásticas del propio tejido pulmonar.
2. Las fuerzas elásticas causadas por la tensión superficial del líquido que reviste las paredes
interiores de los alvéolos y otros espacios aéreos pulmonares.

AGENTE TENSOACTIVO Y TENSIÓN SUPERFICIAL

PRINCIPIO DE LA TENSIÓN SUPERFICIAL.


Cuando el agua forma una superficie con el aire, las moléculas de la superficie del agua
experimentan una atracción especialmente fuerte entre si. Como resultado, la superficie del agua
siempre está intentando contraerse. Esto es lo que evita la disgregación de las gotas de lluvia; es
decir, existe una fuerte membrana contráctil de moléculas de agua en toda la superficie de la gota.
Invirtamos ahora estos principios y veamos qué sucede en las superficies internas de los alvéolos.
También aquí la superficie del agua está intentando contraerse. Esta trata de forzar el aire fuera de
los alvéolos a través de los bronquios y, al hacerlo, hace que los alvéolos intenten colapsarse. El
efecto neto es que se genera una fuerza contráctil elástica de los pulmones completos, que se
denomina fuerza elástica de Tensión superficial.

EL AGENTE TENSOACTIVO Y SUS EFECTOS SOBRE LA TENSIÓN SUPERFICIAL.


El agente tensoactivo es un agente activo de superficie en el agua, lo que significa que reduce
notablemente la tensión superficial del agua. Es segregado por unas células que constituyen
aproximadamente el 10 % de la superficie alveolar. Esta células se denominan: Células Epiteliales
Alveolares de Tipo II (Neumocitos Tipo II).
El agente tensoactivo es una mezcla compleja de varios fosfolípidos, proteínas e iones. Estos, son
responsables de reducir la tensión superficial.
En términos cuantitativos, la tensión superficial de diversos líquidos acuosos es la siguiente:
• Agua pura: 72 dinas/cm.
• Líquidos normales que revisten los alvéolos pero sin agente tensoactivo: 50 dinas/cm.
• Líquidos normales que revisten los alvéolos con cantidades normales de agente
tensoactivo, entre 5 y 30 dinas/cm.

2
PRESIÓN EN LOS ALVEOLOS OCLUIDOS, PRODUCIDA POR LA TENSIÓN SUPERFICIAL.

Si las vías respiratorias que llevan de los alvéolos a los pulmones están bloqueadas, la tensión
superficial (que tiende a provocar el colapso de los alvéolos) creará una presión positiva en los
alvéolos intentando expulsar el aire. La cantidad de presión generada de esta manera en un
alvéolo puede calcularse a partir de la fórmula siguiente:

Para el caso de un alvéolo con un radio de unas 100 micras y revestido de agente
tensoactivo normal, se calcula que es unos 4 cm de presión de agua (3 mmHg).

Si los alvéolos estuvieran revestidos de agua pura sin agente tensoactivo, la presión sería de unos 18
cm de agua, es decir 4,5 veces mayor. Es evidente, pues, la importancia del agente tensoactivo para
reducir la presión necesaria para mantener los pulmones expandidos.

EFECTO DEL TAMAÑO DE LOS ALVEOLOS SOBRE LA PRESIÓN PRODUCIDA POR LA TENSIÓN
SUPERFICIAL.

Obsérvese en la fórmula anterior que la presión generada a consecuencia de la tensión superficial en


los alvéolos se afecta inversamente por el radio del alvéolo, lo que significa que cuanto más
pequeño es el alvéolo mayor es la presión de tensión superficial. Así cuando los alveo1os
tienen la mitad del radio normal (50 micras en vez de 100), las presiones señaladas
anteriormente se duplican. Esto tiene especial importancia en bebés prematuros pequeños,
muchas de los cuales tienen alvéolos de radios inferiores a la cuarta parte de los del adulto.
Además, normalmente no se empieza a segregar agente tensoactivo al interior de las alvéolos hasta
el 6to a 7mo mes de gestación y, en algunos casos, incluso mas tarde. Por consiguiente,
muchos bebés prematuros tienen poco o ningún agente tensoactivo en sus alvéolos, y sus
pulmones tienen una tendencia extrema al colapso, a veces de hasta seis a ocho veces a la de un
adulto normal, lo que ocasiona un trastorno denominado síndrome de dificultad respiratorio
del recién nacido (o síndrome disneico neonatal). Este síndrome es mortal si no se trata
enérgicamente, especialmente con la aplicación adecuada de respiración con presión positiva
continua.

VOLÚMENES Y CAPACIDADES PULMONARES

Un método simple de estudiar la ventilación pulmonar es registrar el movimiento del volumen


de aire que entra y sale de los pulmones, un proceso denominado Espirometría.

3
VOLÚMENES PULMONARES
Los volúmenes pulmonares son cuatro; que sumados, son iguales al máximo volumen al que es
posible expandir los pulmones.

El significado de cada uno de ellos es el siguiente:

El volumen corriente (VC) es el volumen de aire inspirado o espirado en cada respiración normal;
es de unos 500 mililitros.
El volumen de reserva inspiratorio (VIR) es el volumen adicional máximo de aire que se puede
inspirar por encima del volumen corriente normal; habitualmente es igual a unos 3000 mililitros.
El volumen de reserva espiratoria (VER) es la cantidad adicional máxima de aire que se puede
espirar mediante espiración forzada después de una espiración corriente normal; suele ser de
unos 1100 mililitros.
El volumen residual (VR) es el volumen de aire que queda en los pulmones tras la espiración
forzada. Supone en promedio unos 1200 mililitros.

CAPACIDADES PULMONARES
A veces, es deseable considerar juntos dos o más de los volúmenes anteriores. Estas combinaciones
de volúmenes reciben el nombre de capacidades pulmonares. Las más importantes, que
pueden describirse de la siguiente manera:

1. La capacidad inspiratoria (CI) es igual al volumen corriente más el volumen de reserva


inspiratorio. Es la cantidad de aire (unos 3500 mililitros) que una persona puede respirar
comenzando en el nivel de una espiración normal e hinchando al máximo sus pulmones.
2. La capacidad residual funcional (CRF) es igual al volumen de reserva espiratorio más el volumen
residual. Es la cantidad de aire que queda en los pulmones tras una espiración normal (unos 2300
mililitros).
3. La capacidad vital (CV) es igual al volumen de reserva inspiratorio, más el volumen corriente,
más el volumen de reserva espiratorio. Es la máxima cantidad de aire que puede expulsar una
persona de los pulmones después de una inspiración máxima y espirando al máximo (unos
4600mililitros).
4. La capacidad pulmonar total (CPT) es el máximo volumen al que pueden expandirse los
pulmones con el máximo esfuerzo posible (unos 5800 mililitros); es igual a la suma de la
capacidad vital y del volumen residual.

Todos los volúmenes y


capacidades pulmonares
son un 20-25% menores
en la mujer que en el
hombre, y son mayores en
personas altas y atléticas
que en los sujetos
pequeños y asténicos.

4
ESPACIO MUERTO Y SU EFECTO SOBRE LA VENTILACIÍON PULMONAR.

Parte del aire que respira una persona nunca alcanza las zonas de intercambio gaseoso, sino que
llena las vías respiratorias en las que no tiene lugar intercambio gaseoso, como las fosas
nasales, la faringe y la tráquea. Este aire se denomina aire del espacio muerto debido a que no es
útil para el proceso de intercambio de gases; el espacio de las vías respiratorias en las que no hay
intercambio gaseoso se llama espacio muerto.
En la espiración, el aire del espacio muerto se expulsa primero, antes de que el aire de los alvéolos
alcance la atmósfera. Por tanto, el espacio muerto supone una gran desventaja para eliminar
los gases espiratorios de los pulmones.

VOLUMEN NORMAL DEL ESPACIO MUERTO.


El Volumen normal del espacio muerto en un hombre joven es de unos 150 mililitros. Esta cifra
aumenta ligeramente con la edad.

ESPACIO MUERTO ANATÓMICO Y FISIOLÓGICO.

El volumen de todo el espacio del aparato respiratorio (EXCEPTO de los alvéolos y otras zonas de
intercambio gaseoso estrechamente relacionadas con ellos); este espacio se denomina espacio
muerto anatómico.

En ocasiones, algunos de los propios alvéolos no son funcionales o sólo funcionan parcialmente
debido a que no hay flujo por los capilares pulmonares adyacentes o este es muy escaso. Por tanto,
desde el punto de vista funcional, estos alvéolos también deben considerarse espacio muerto.
Cuando el espacio alveolar se incluye en la medición total del espacio muerto se denomina espacio
muerto fisiológico.

En una persona normal, los espacios muertos anatómico y fisiológico son casi iguales debido a
que, en el pulmón normal, todos los alvéolos son funcionales, pero en una persona con alvéolos
parcialmente funcionales o no funcionales en algunas partes de los pulmones, a veces el espacio
muerto fisiológico es hasta 10 veces el volumen del espacio muerto anatómico ó 1 a 2 litros esto está
en relación con determinadas enfermedades pulmonares.

5
SEMINARIO 4
GASES II: DIFUSIÓN HEMATO GASEOSA Y LEYES QUE LA REGULAN. CAMARAS HIPERBÁRICAS

DIFUSION DE GASES A TRAVES DE LA MEMBRANA RESPIRATORIA

PRESIONES PARCIALES (Ley de John Dalton)

En el aparato respiratorio del cuerpo humano, es muy conveniente tener en cuenta, la ley de las
presiones parciales de Dalton; ya que nos permite realizar comparaciones más elásticas entre la
concentración de un gas y la presión total que ejerce, lo cual puede variar independientemente,
por ejemplo; ya sabemos que la concentración de O2 en el aire atmosférico es el mismo a nivel del
mar y en la altura, pero como en la altura existe menor presión atmosférica, tendremos una
muestra de aire con moléculas más separadas, lo que ocasionará una presión parcial de oxígeno
diferente (menor).

Además, la difusión de un gas estará determinada por la gradiente de presiones parciales y no por las
concentraciones. Esto se hace particularmente importante en la sangre en donde la concentración y
la presión parcial no están linealmente relacionadas.

La ley de Dalton establece que cada gas en una mezcla, se comporta como si estuviese aislado,
ocupando todo el volumen posible, ejerciendo la presión parcial que le compete, independiente a la
existencia de otros gases. La suma de las presiones pardales, como ya conocemos, será igual a la
presión total.

La presión parcial de un gas en una mezcla, es fácilmente calculada conociendo la composición de


la mezcla; será igual al producto de la fracción molar (concentración) y la presión total.

Así en aire seco, a una atmósfera de presión (760 mmHg), las presiones parciales de O2 , N2 y CO2
respectivamente serán:

O2 = 21% (760) = 0,21 x 760 = 160 mmHg


N2 = 79% (760) = 0,79 x 760 = 600 mmHg
CO2 = 0.04% (760) = 0,0004 x 760 = 0,30 mmHg

EL TRANSPORTE DE LOS GASES

El proceso de respirar implica el transporte de gases desde un punto de elevada presión parcial
hacia un punto de menor presión parcial. De esta manera el oxígeno es transportado desde el
ambiente, hasta la mitocondria donde es utilizado como comburente; inversamente el CO2, va desde
las células de donde se produce, hacia el aire atmosférico.

PRESIÓN DE VAPOR DE AGUA: PH2O

El hombre no es capaz de almacenar grandes cantidades de aire, por lo tanto, depende de un


intenso intercambio con el medio que lo rodea. Esto se logra gracias al proceso activo de transporte
del volumen requerido de aire desde el ambiente hasta los alvéolos.

6
Durante una respiración en reposo, los gases inspirados adoptan, la temperatura corporal y
también la saturación de vapor de agua que corresponde a los 37ºC de nuestro organismo. Esto se
logra completamente a nivel del tercio inferior de la tráquea.

Cuando el aire no humidificado penetra en las vías respiratorias, se evapora inmediatamente agua de
las superficies de estas vías y lo humidifica. Esto es consecuencia de que las moléculas de agua, como
las moléculas de 1os diferentes gases disueltos, están continuamente escapándose de la superficie
acuosa hacia la fase gaseosa. La presión que ejercen las moléculas de agua se denomina Presión de
Vapor de Agua: PH2O

Debido a que la temperatura ambiente es menor a la corporal, se producirán cambios explicables por
las leyes de los gases. La presión de vapor de agua depende de la ley de Dalton, por lo tanto, ejerce
una presión en forma independiente a la de los otros gases presentes (47 mmHg para los 37°C de la
temperatura corporal).

Todos los gases en contacto con el agua, reciben moléculas de este compuesto que salen por
evaporación, esto se produce en forma continua hasta que la cantidad de moléculas que emergen
de la fase líquida es igual a la que retorna desde la fase gaseosa. Obviamente, el número de
moléculas que salen de la fase líquida esta en relación directa con la temperatura del líquido, ya
que al ser mayor, las moléculas de agua tendrán mayor energía cinética y por consiguiente mayor
movilidad de escape y ejercerán mayor presión parcial.

En el pulmón la temperatura es de 37 °C y si consideramos al aire en equilibrio con el agua, la


presión parcial del vapor de agua en los pulmones será de 47 mmHg, esto equivale,
aproximadamente, a un 6,2% de la mezcla gaseosa a nivel del mar.

Otro efecto interesante, consiste en considerar que cuando inspiramos aire, este se satura de
vapor de agua a 37ºC, y por lo tamo el oxígeno y el nitrógeno en el aire inspirado se diluyen.

DIFUSIÓN GASEOSA

Una vez que el aire inspirado llega a nivel alveolar, tiene lugar el fenómeno de difusión. Este
consiste en el pasaje del oxígeno hacia la sangre pulmonar y del anhídrido carbónico en sentido
opuesto.
Este proceso depende del azaroso movimiento de las moléculas gaseosas que se encuentran a
ambos lados de la membrana alveolo-capilar y que se cruzan o intercambian posiciones en uno y
otro sentido.
Pero existe una circunstancia que hace que este fenómeno sea muy peculiar y es el hecho, que se
tiene que pasar de una fase gaseosa (aire atmosférico) a una fase líquida (sangre).

Es evidente que la capacidad de


difusión de un gas dependerá del
número de moléculas que existan
en uno y otro lado de la
membrana, de esta forma, si en el
lado izquierdo existen mayor
número de moléculas gaseosas que
en el lado derecho, la gradiente será
7
de izquierda a derecha y su valor dependerá de la diferencia de concentraciones a ambos lados de la
membrana.
El intercambio gaseoso pulmonar es pasivo, y depende sólo de la permeabilidad de la membrana
alveolar hacia las moléculas gaseosas.

Solubilidad y Presiones Parciales de los Gases en los Líquidos

La cantidad de gas disuelto en un líquido a temperatura constante, es directamente proporcional a su


presión parcial y a su coeficiente de solubilidad (Ley de Henry).

Presión = Concentración del Gas Disuelto


Coeficiente de Solubilidad

En equilibrio el número de moléculas gaseosas que salen del líquido por unidad de tiempo es
igual al número de moléculas que ingresan; y obviamente, cualquier cambio en la: presión parcial
del gas, genera un cambio en este equilibrio.

El gas dentro de la fase líquida, también ejerce una presión parcial y en equilibrio físicoquímico; las
presiones parciales en ambas fases, son iguales.
A presiones parciales equivalentes a las que existen a nivel alveolar, 100 ml de sangre contienen 0,30
ml de O2; 2,69 ml de CO2 y 1,14 ml de N2 en solución acuosa; pero las cantidades de O2 y CO2
en la sangre circulante, son mucho mayores que las determinadas por la solución física y esto
lógicamente, se debe a que la sangre transporta grandes cantidades de O2 y el CO2 en
combinación química. Los gases combinados químicamente no contribuyen a la presión parcial de los
gases.

Es importante, entonces relevar la presencia de la molécula transportadora de gases por


excelencia: la hemoglobina, ya que si no la presentásemos, nuestras necesidades de oxígeno
tendrían qué suplirse sólo por dilución o solución física y para eso necesitaríamos un volumen
sanguíneo mucho mayor.
Se ha calculado que de no existir hemoglobina se necesitaría 75 veces !!!! el volumen normal de
sangre, para satisfacer nuestros requerimientos basales de oxígeno; es decir 75 x 5 = 375 litros de
sangre !!!!!

Por todo lo escrito y analizado, podemos establecer que el fenómeno de intercambio de gases a nivel
alveolar, es el más importante del pulmón; y que la cantidad O2 y CO2, intercambiando, están
controlados por los requerimientos de nuestro organismo, y limitados por fenómenos biológicos
plausibles de ser interpretados.

De todo esto podríamos concluir:

1. Que la difusión depende de la diferencia de presiones parciales de los gases, entre un área y
otra.
2. La difusión neta será la diferencia .del número de moléculas que se desplazan en direcciones
opuestas.
8
3. Que a difusión también se ve afectada por:
• Solubilidad del gas en el líquido.
• El tamaño del área de contacto para la difusión.
• La distancia que debe difundir el gas (esto está determinado por la membrana alveolo
capilar.)
• El peso molecular del gas. La velocidad de difusión es inversa mente proporciona a la raíz
cuadrada del peso molecular del gas (Ley de Graham).
• La temperatura. En el cuerpo es constante, por tanto no es considerada.

CUANTIFICACIÓN DE LA DIFUSIÓN (LEY DE FICK):


D:Velocidad de Difusión
D = ΔP x A x S x T ΔP: Diferencia de Presión.
dx A: Área de Difusión.
S: Coeficiente de Solubilidad.
T: Temperatura absoluta.
d: Distancia de Difusión.
: Raíz cuadrada del Peso Molecular.

Coeficiente de solubilidad en el agua de los, gases respiratorios

Temperatura Oxígeno Nitrógeno Anhídrido Carbónico


Corporal (O2) (N2) (CO2)
37 ºC 0,024 0,012 0,570

Coeficiente de Difusión de los gases respiratorios: S /

Temperatura Oxígeno Nitrógeno Anhídrido Carbónico


Corporal (O2) (N2) (CO2)
37 ºC 1,0 0,53 20,3

Es por esto que el CO2 es 20 veces más difusible que el O2

UNIDAD RESPIRATORIA.

La Figura 1, muestra la «unidad respiratoria», que está compuesta por el bronquiolo


respiratorio, los conductos alveolares, los atrios y los alvéolos (de los cuales existen unos 300
millones en ambos pulmones, teniendo cada alvéolo un diámetro medio de unos 0.2 milímetros).
Las paredes alveolares son extremadamente delgadas, y en su interior existe una red casi sólida de

9
capilares interconectados, que se muestra en la Figura 2. De hecho, debido a la extensión del plexo
capilar, se ha descrito el flujo de sangre en las paredes alveolares como una "sábana» de sangre que
fluye. Por tanto, es obvio que los gases alveolares están muy, muy próximos a la sangre de los
capilares. En consecuencia. el intercambio gaseoso entre el aire alveolar y la sangre pulmonar se
produce a través de las membranas de todas las porciones terminales de los pulmones, no
meramente en los propios alvéolos. Estas membranas se denominan colectivamente membrana
respiratoria, llamada también membrana pulmonar.

Figura 1 Figura 2

10
11
MEMBRANA RESPIRATORIA.

La Figura 3, muestra la difusión de oxígeno desde el alvéolo al eritrocito y la difusión del


dióxido de carbono en la dirección opuesta. Obsérvense las siguientes capas de la membrana
respiratoria:
1. Una capa de líquido que reviste el alvéolo y que contiene agente tensoactivo que disminuye la
tensión superficial del líquido alveolar.
2. El epitelio alveolar compuesto de células epiteliales finas.
3. Una membrana basal epitelial.
4. Un espacio intersticial fino entre el epitelio alveolar y la membrana capilar.
5. Una membrana basal del capilar que en muchos lugares se fusiona con la membrana basal
epitelial.
6. La membrana endotelial capilar.

A pesar del elevado número de capas, el espesor en


conjunto de la membrana respiratoria en algunas zonas
es de tan sólo 0.2 micras, y en promedio es de 0.6
micras, excepto en los lugares en los que existen
núcleos celulares. Sin embargo, cabe resaltar que aún
tiene que atravesar el plasma sanguíneo, la membrana
del hematíe hasta poder llegar a la Hemoglobina.

Por estudios histológicos se ha calculado que la


superficie total de la membrana respiratoria es de unos
70 metros cuadrados en el adulto normal esto equivale
a la superficie del suelo de una habitación de 7 por 10
metros, y es fácil comprender la
rapidez del intercambio respiratorio de gases.

El diámetro medio de los capilares pulmonares es sólo


de unas 5 micras, lo que significa que los hematíes se
tienen que aplastar para atravesados. Por tanto, la
membrana del hematíe habitualmente toca la pared
capilar, de forma que el oxígeno y el dióxido de
carbono no precisan atravesar cantidades significativas de plasma cuando difunden entre el
alvéolo y el hematíe. También esto aumenta la rapidez de la difusión.

Factores que afectan a la tasa de difusión de gases a través de la membrana respiratoria

Remitiéndonos al apartado anterior sobre la difusión a través del agua, se pueden aplicar los
mismos principios y fórmulas a la difusión de los gases a través de la membrana respiratoria. Por
tanto, los factores que determinan la rapidez del paso de un gas a través de la membrana son:
1) el espesor de la membrana;
2) el área de la superficie de la membrana;
3) el coeficiente de difusión del gas en la sustancia de la membrana, y
4) la diferencia de presión entre los dos lados de la membrana.

12
El espesor de la membrana respiratoria aumenta ocasionalmente por ejemplo, como resultado de
la presencia de líquido de edema en el espacio intersticial de la membrana y en el alvéolo de
forma que los gases respiratorios no sólo han de difundir a través de la membrana, sino también a
través de su líquido. Además, ciertas enfermedades pulmonares producen fibrosis de los pulmones,
que puede aumentar el espesor de ciertas porciones de la membrana respiratoria. Debido a que
la tasa de difusión a través de la membrana es inversamente proporcional al espesor de la
membrana, cualquier factor que aumenta el espesor a más de dos o tres veces el normal puede
interferir signifi- cativamente con el intercambio de gases de la respiración normal.

El área de la superficie la membrana respiratoria puede estar muy disminuida en muchas


situaciones. Por ejemplo, la extirpación de un pulmón disminuye el área total a la mitad. También
en el enfisema, muchos de los alvéolos hacen coalescencia, con la disolución de numerosas paredes
alveolares. Por tanto, las nuevas cámaras son muchos mayores que los alvéolos originales, pero la
superficie total de la membrana respiratoria con frecuencia está disminuida hasta cinco veces por la
pérdida de paredes alveolares. Cuando la superficie total está disminuida entre un tercio y un cuarto
de lo normal, el intercambio de gases a través de la membrana está significativamente interferido,
incluso en condiciones de reposo. Durante los deportes competitivos y otras formas de ejercicio
intenso, hasta la más mínima disminución de la superficie de los pulmones puede causar un grave
detrimento del intercambio respiratorio de gases.

El coeficiente de difusión de la transferencia de cada gas a través de la membrana respiratoria


depende de su solubilidad en .la membrana, y, es inversamente proporcional a la raíz cuadrada de
su peso molecular. La tasa de difusión a través de la membrana respiratoria es casi exactamente
igual a la de la difusión en el agua, por las razones explicadas anteriormente. Por tanto, para una
diferencia de presión dada, el dióxido de carbono difunde a través de la membrana 20 veces más
rápidamente que el oxígeno. El oxígeno a su vez difunde dos veces más rápidamente que el
nitrógeno.

La diferencia de presión a través de la membrana respiratoria es la diferencia entre la presión parcial


del gas en los alvéolos y la presión del gas en la sangre. La presión parcial representa una medida del
número total de moléculas de un gas determinado que golpea la superficie al veo lar de la
membrana por unidad de tiempo, y la presión del gas en la sangre representa el número de
moléculas que intentan escapar de la sangre en la dirección opuesta. Por tanto, la diferencia entre
estas dos presiones es una medida de la tendencia neta del gas a moverse a través de la membrana.
Cuando la presión parcial de un gas en el alvéolo es superior a la presión del gas en la sangre, como
ocurre en el caso del oxígeno, hay una difusión neta de los alvéolos a la sangre; cuando la presión
del gas en la sangre es mayor que la presión parcial en los alvéolos, como ocurre con el dióxido de
carbono, se produce una difusión neta desde la sangre a los alvéolos.

13
CÁMARAS HIPERBÁRICAS

LECTURA OXIGENOTERAPIA HIPERBÁRICA


EFECTOS DEL OXÍGENÓ HIPERBÁRICO SOBRE EL ORGANISMO

Mantiene elevado los niveles de oxígeno en los tejidos (más de cuatro horas en músculos).
Aumenta la tensión de oxígeno en hueso, orina y demás fluidos corporales.
Mejora la micro circulación.
Aumenta la irrigación cerebral.
Disminuye el edema en el SNC.
Acelera la destrucción en glóbulos rojos viejos.
En pacientes diabéticos disminuye los requerimientos aumento de la utilización periférica de la glucosa.
Mejora el metabolismo celular.
Aumenta y estimula la neovascularización.
Mejora la actividad fagocítica de los glóbulos blancos.
Tiene efectos antibacterianos.
Estimula formación del callo óseo.
Efecto antifúngico (mucormícosis y actinomicosis).
Estimula el sistema inmunológico.
INDICACIONES PARA LA APLICACIÓN DEL OXÍGENO HIPERBÁRICO

De acuerdo con las indicaciones de la Undersea and Hiperbaryc Medical Society (UHMS) podemos dividir
las indicaciones para la aplicación de la Oxígenoterapia Hiperbárica, en dos grandes grupos:

1. Indicaciones Tipo I Aceptadas)


2. Indicaciones Tipo II (Recomendadas)

Indicaciones Tipo I (Aceptadas)


• Infecciones en los tejidos por flora aerobia
• Radionecrosis de tejidos blandos y óseos. y/o anaerobia. . Injertos o colgajos
• Enfermedad de la descompresión. comprometidos.
• Intoxicación aguda por monóxido de carbono • Micosis refractarias (mucormicosis
(CO). yactinomicosis).
• Embolia gaseosa aguda. • Edema cerebral agudo.
• Gangrena gaseosa. • Quemaduras.
• Sepsis por anaerobios y/o bacteroides. • Anemia por hemorragia aguda.
• Oteomielitis refractaria. • iIeo-paralítico.
• Síndrome de aplastamiento y
compartimental.

Indicaciones Tipo II (Recomendadas)

• Lesiones traumáticas de médula espinal en radiación.


su periodo inicial. • Esclerosis múltiple.
• Injerto de huesos. • Insuficiencia arterial retiniana aguda.
• Accidente cerebro-vascular agudo • Pioderma gangrenoso.
(trombótico o hemorrágico). . Consolidación de • Síndromes isquémicos periféricos.
fracturas. • Úlceras de miembros (de 'estasis, decúbito,
• Abscesos intrabdominales e intracraneales. varicosas).
• Lepra lepromatosa. • Pie diabético.
• Meningitis. • Insuficiencia vascular cerebral.
• Colitis seudo membranosa.
• Mielitis, cistisis, enteritis, proctitis, post

CONTRAINDICACIONES

La aplicación de Oxígeno Hiperbárico tiene dos tipos de contraindicaciones:


•Absolutas
• Relativas.

Contraindicaciones Absolutas
Infecciones virales en fase aguda.
Presencia de bullas o cavernas en el pulmón. En estas circunstancias está contraindicada cualquier
actividad a hiperpresión debido a que se puede obstruir la comunicación de la bulla con el resto del
tejido pulmonar durante la descompresión y originar un estallido en la misma por aumento del volumen
(Ley de Boyle).
Embarazo.

Contraindicaciones Relativas.

Neumotórax. Debe ser evacuado por tubo de toracotomía, antes del tratamiento.
Procesos bronquiales obstructivos. Deben ser tratados para prevenir el, neumotórax o la embolia
traumática.
Esferocitosis congénita. El oxígeno hiperbáricó aumenta la fragilidad de los hematíes.
Epilepsia.
Fiebre de origen desconocido.
Neoplasia 'maligna sin tratar.
Antecedentes de neuritis óptica

Efectos Adversos

El tratamiento hiperbárico tiene efectos adversos que se pueden evitar o minimizar sus consecuencias
poniendo el máximo cuidado en su aplicación, siguiendo las reglas de seguridad con el mayor de los
celos y siendo aplicado el tratamiento por profesionales especializados y debidamente entrenados
en centros calificados e idóneos. Tales efectos adversos son los siguientes:

Barotraumatismo Timpánico.
Efecto Paul Bert Toxicidad del oxígeno a nivel del S.N.C. en condiciones hiperbáricas en pacientes
susceptibles.
Efecto Lorraine Smith: Alteración del surfactante pulmonar por exposición crónica a la oxigenación
hiperbárica.

TAREA N° 3 RESOLVER EN EL PPT

1. Presentar en su seminario un cuadro sinóptico o mapa conceptual sobre la Lectura Oxigenoterapia


Hiperbárica.
2. ¿Qué es la enfermedad de Membrana Hialina?
3. ¿Por qué en la enfermedad llamada “Fibrosis Pulmonar” no puede el paciente respirar
adecuadamente?
4. En la Lectura describen un término “Fibroplasia Retrolental”. Defina el concepto.
5. ¿Por qué no se puede aplicar la oxigenoterapia hiperbárica en el embarazo?
SEMINARIO 5
TERMODINAMICA: PRINCIPIOS, SISTEMAS TERMODINÁMICOS Y CONDUCCIÓN DE CALOR

La energía se manifiesta de muchas formas en la naturaleza; una de esas manifestaciones es el calor,


energía que usamos para cocinar alimentos, fundir metales, mover máquinas, incrementar la temperatura
de un cuarto frío y en muchas acciones más de la vida cotidiana.

Sin embargo, generalmente cuando las personas hablan de calor lo confunden con la temperatura, es
decir, usan estas palabras como si fueran sinónimos, pero cada una tiene su propia unidad y aparato de
medición por lo que no pueden utilizarse como términos iguales.

La energía puede presentarse de muy diferentes formas y pude cambiar de una a otra. Muchos tipos de
energía pueden convertirse en calor. La energía electromagnética (luz), la electrostática (o eléctrica), la
mecánica, la química, la nuclear, el sonido y la térmica, pueden calentar una sustancia haciendo que se
incremente la velocidad de sus moléculas. Si ponemos energía en un sistema éste se calienta, si quitamos
energía se enfría. Por ejemplo, si estamos fríos podríamos ponernos a saltar para entrar en calor.

Estos son algunos ejemplos de los diferentes tipos de energía que pueden convertirse en Energía
térmica (calor).

La energía mecánica se convierte en energía térmica siempre que botamos una pelota. Cada vez que la
pelota rebota en el suelo parte de la energía de su movimiento (energía cinética) se convierte en
calor, haciendo que la pelota cada vez rebote menos.
La energía térmica puede ser transferida de unos objetos a otros haciendo que se calienten.
Cuando calentamos agua en una olla, el calor de la estufa hace que las moléculas de la olla
empiecen a vibrar más deprisa, haciendo que la olla se caliente. El calor de la olla hace a su vez que las
moléculas de agua se muevan más deprisa calentándose. Por lo tanto cuando calentamos algo no
estamos más que incrementando la velocidad de sus moléculas.
La energía eléctrica se convierte en energía térmica cuando usamos estufas eléctricas, tostadores o
bombillas.
Nuestros cuerpos convierten a energía química de los alimentos que comemos en calor.La luz del Sol
(energía solar) se convierte en calor y hace que la superficie de la Tierra esté caliente.

Cuanta más energía se mete en un sistema, más activas se ponen sus moléculas. Cuanto más rápidas se
mueven las moléculas, más energía térmica o calor producen. La cantidad de calor en una sustancia está
determinada por qué tan rápido se mueven sus moléculas, que a su vez depende de cuánta energía
tiene el sistema.
CALOR Y TEMPERATURA

ANTECEDENTES:

Los científicos del siglo XVIII experimentaron con sustancias que se encontraban a distinta temperatura,
poniéndolas en contacto, al hacerlo observaron que la sustancia de mayor temperatura transmitía
“algo” a la de menor temperatura. Esta sustancia era capaz de atravesar los medios materiales y le
dieron el nombre de “calórico”. Actualmente le llamamos calor y es identificado como una forma de
energía y no como una sustancia material.

TEORÍA MOLECULAR

Esta teoría nos permite comprender la diferencia entre calor y temperatura y entre las ideas principales
están las siguientes:

Todos los cuerpos están constituidos por partículas llamadas moléculas y éstas por átomos.
Las partículas que forman parte de un cuerpo se encuentran en constante movimiento.
Toda partícula en movimiento tiene energía cinética.
Si una partícula incrementa su movimiento incrementa su energía cinética
El movimiento interno que tienen las partículas que forman parte de un cuerpo se conoce con el
nombre de calor.

CALOR

Se describe como una energía interna de los cuerpos producida por el movimiento continuo de
partículas (energía cinética)
El calor es la energía que tiene un objeto debida al movimiento de sus átomos y moléculas que están
constantemente vibrando, moviéndose y chocando unas con otras. Cuando añadimos energía a un objeto,
sus átomos y moléculas se mueven más deprisa, incrementando su energía de movimiento o calor.
Incluso los objetos más fríos poseen algo de calor porque sus átomos se están moviendo.
Su concepto es el siguiente: “Energía cinética total de las moléculas de un cuerpo”

UNIDAD DE MEDICIÓN DEL CALOR

El calor es una magnitud y la unidad que se usa para medirlo es la caloría la cual se define de la siguiente
manera: “Una caloría es la cantidad de calor que requiere un gramo de agua para incrementar su
temperatura en un ºC.

1 caloría (cal) = 4.186 Joule


1 Joule = 0.24 cal

1. ¿Qué pasaría si las partículas de un cuerpo no se mueven?

No habría energía cinética lo cual originaría que tampoco existiera calor, pues este se debe al
movimiento de partículas.

2. ¿Qué se requiere para que exista calor?

Se requiere movimiento de partículas.


3. En el siguiente cuadro: ¿Cómo se obtienen las calorías?

CANTIDAD DE TEMPERATURA TEMPERATURA CALORÍAS


AGUA INICIAL (Ti) FINAL(Tf)
1gr 20°C 21°C 1cal
1gr 20°C 22°C 2cal
1gr 20°C 23°C 3 cal
5gr 20°C 21°C 5 cal
5gr 20°C 22°C 10 cal
5gr 20°C 23°C 15 cal

Las calorías (Q) se obtienen de la diferencia de temperatura (Δt ó Tf -Ti) y después se multiplica
por la masa (m). Si se convierte al lenguaje matemático (fórmula) tendríamos:

Q= m(Δt) ó Q= m (Tf -Ti)

CALORIMETRÍA

La calorimetría se encarga de medir el cambio de calor ya sea en una reacción química o en algún
cambio físico, mediante el uso de un calorímetro.

TEMPERATURA

Es la forma de expresar por medio de una cantidad, que tan caliente o frío está un cuerpo con
respecto a otro,
La temperatura es la sensación física que nos produce un cuerpo cuando entramos en contacto con éste.
La temperatura es una medida del calor o energía térmica de las partículas en una sustancia.
La temperatura no depende del número de partículas en un objeto y por lo tanto no depende de su
tamaño. Por ejemplo, la temperatura de un vaso de agua hirviendo es la misma que la temperatura de una
olla de agua hirviendo, a pesar de que la olla sea mucho más grande y tenga millones y millones de
moléculas de agua más que el vaso.
Nosotros experimentamos la temperatura todos los días. Cuando hace calor o cuando tenemos fiebre
sentimos calor y cuando está nevando sentimos frío. Cuando estamos hirviendo agua, hacemos que la
temperatura aumente y cuando estamos haciendo polos o paletas de helado esperamos que la
temperatura baje.
Su concepto es el siguiente: “Energía cinética promedio de las moléculas de un cuerpo”.

CONCLUSIONES:

Todos sabemos que cuando calentamos un objeto su temperatura aumenta. A menudo pensamos
que calor y temperatura son lo mismo. Sin embargo este no es el caso. El calor y la temperatura están
relacionadas entre si, pero son conceptos diferentes.
El calor es la energía total del movimiento molecular en una sustancia, mientras temperatura es una
medida de la energía molecular media.
El calor depende de la velocidad de las partículas, su número, su tamaño y su tipo.
La temperatura no depende del tamaño, del número o del tipo. Por ejemplo, la temperatura de un vaso
pequeño de agua puede ser la misma que la temperatura de un cubo de agua, pero el cubo tiene más
calor porque tiene más agua y por lo tanto más energía térmica total. Por ejemplo, la temperatura de
un vaso pequeño de agua puede ser la misma que la temperatura de un cubo de agua, pero el cubo
tiene más calor porque tiene más agua y por lo tanto más energía térmica total.
El calor es lo que hace que la temperatura aumente o disminuya. Si añadimos calor, la temperatura
aumenta. Si quitamos calor, la temperatura disminuye. Las temperaturas más altas tienen lugar cuando las
moléculas se están moviendo, vibrando y rotando con mayor energía.
Si tomamos dos objetos que tienen la misma temperatura y los ponemos en contacto, no habrá
transferencia de energía entre ellos porque la energía media de las partículas en cada objeto es la misma.
Pero si la temperatura de uno de los objetos es más alta que la otra, habrá una transferencia de energía del
objeto más caliente al objeto más frío hasta que los dos objetos alcancen la misma temperatura.
La temperatura no es energía sino una medida de ella, sin embargo el calor sí es energía.

Piensa cuál es la respuesta a la siguiente pregunta: ¿Qué objeto contiene más calor, un recipiente de agua
hirviendo o un iceberg gigante?

LEYES DE LA TERMODINÁMICA

La termodinámica, es el estudio de la relación entre calor, trabajo y energía y, especialmente de la


conversión de la energía en trabajo.

EQUILIBRIO TÉRMICO: Con esto se puede deducir que equilibrio térmico ocurre cuando dos cuerpos con
diferentes temperaturas se ponen en contacto y uno de ellos empieza a perder calor porque transmite
energía al cuerpo que se encontraba con una menor temperatura, es decir, gana calor.

Q ganado = Q perdido

LEY CERO DE LA TERMODINÁMICA

Esta ley se refiere a que si un cuerpo A tiene equilibrio térmico con un cuerpo B y este último con otro
cuerpo denominado C; entonces A y C están en equilibrio térmico. No fue formulada formalmente hasta
después de haberse enunciado las otras tres leyes. De ahí que recibe la posición 0.
Cuerpo A = Cuerpo B CuerpoB = Cuerpo C

Cuerpo A = Cuerpo C
1° LEY DE LA TERMODINÁMICA:

También conocido como principio de conservación de la energía para la termodinámica. “La Energía no se
crea ni se destruye sólo se transforma”.

Esto nos permite intuir que, la diferencia de calor (Q) absorbido por un sistema, al pasar de un estado a
otro, menos el trabajo (W) realizado; que es independiente del camino seguido por la transformación al
inicio y al final; es igual a la energía interna (ΔU) del sistema.

Que aplicada a la termodinámica:

DA
2 LEY DE TERMODINÁMICA

Esta ley regula la dirección en la que deben llevarse a cabo los procesos termodinámicos y, por lo tanto,
la imposibilidad de que ocurran en el sentido contrario. Debido a esta ley también se tiene que el flujo
espontáneo de calor siempre es unidireccional, desde los cuerpos a temperatura más alta a aquellos de
temperatura más baja.

También establece, en algunos casos, la imposibilidad de convertir completamente toda la energía de un


tipo en otro, sin pérdidas. Esta ley apoya todo su contenido aceptando la existencia de una magnitud
física llamada entropía tal que, para un sistema aislado (que no intercambia materia ni energía con su
entorno), la variación de la entropía siempre debe ser mayor que cero.

RA
3 LEY DE LA TERMODINÁMICA

Afirma que es imposible alcanzar una temperatura igual al cero absoluto.

Al llegar al cero absoluto (0 K) cualquier proceso de un sistema se detiene.


Al llegar al 0 absoluto (0 K) la entropía alcanza un valor constante.

SISTEMAS TERMODINÁMICOS

La palabra sistema se usa en física para designar un cuerpo (o grupo de cuerpos) sobre el cual fijamos
nuestra atención a fin de estudiarlo.

Un sistema termodinámico está limitado por una superficie cerrada real o imaginaria capaz de interactuar
térmicamente con su entorno; es decir, puede o no intercambiar calor con el medio externo. Ejemplos:
Gasolina que combustiona en el cilindro de una máquina. Una mitocondria en la cual se está realizando
en ciclo de Krebs

La región no incluida en el sistema termodinámico constituye el exterior o medio ambiente.

Abiertos: Ingreso y salida de materia y energía. Los animales intercambian energía con el exterior,
consumen “materia” en forma de alimento y la eliminan.

Cerrados: No ingreso ni salida de materia pero sí de energía. Un reloj de cuerda porque requiere un
aporte de energía pero no de materia.
Aislados: Si el sistema no intercambia materia ni energía con el exterior. Un termo que conserva el café
caliente, porque el embace no permite el intercambio de materia y la energía no sale de él.
TRANSMISIÓN DEL CALOR

El calor es una energía en tránsito, siempre pasa del cuerpo de más temperatura al de menor temperatura,
esta energía se puede transmitir de tres formas; por conducción, convección y radiación.

1. CONDUCCIÓN

Forma de transmitir calor que se presenta en los sólidos, en los que una partícula le transmite calor a otra
partícula contigua. Entre los sólidos existen materiales que son muy buenos conductores del calor
destacando entre ellos los metales, la plata es el mejor conductor de calor le sigue el cobre y después el
aluminio. También existen sólidos que son malos conductores del calor o aislantes, entre los que se
encuentran el vidrio, la madera, la paja y el corcho.

2. CONVECCION

Esta forma de transmitir calor se presenta en los fluidos (líquidos y gases), y se da por movimiento de
masas (corrientes).

3. RADIACIÓN

Todos los cuerpos que tengan una temperatura distinta al cero absoluto radian calor a su alrededor
produciendo ondas caloríficas, que son capaces de viajar en el vacío y en el espacio sin provocarle ningún
cambio, esta energía se convierte en calor hasta que choca con un cuerpo que no le permita pasar, esta
forma de transmitir calor se define así: “forma de transmitir calor por medio de radiaciones caloríficas que
son absorbidas por otros cuerpos provocando que sus partículas vibren a mayor velocidad”.
*¿Y la evaporación qué es?

Absorción del calor. La radiación absorbida por un cuerpo depende de varios factores entre ellos los
siguientes:
Su color: los colores obscuros absorben más calor que los colores claros.
Su textura: Los cuerpos con superficies rugosas absorben menos calor que los cuerpos con
superficies lisas.
Su tamaño: A mayor tamaño de la superficie mayor absorción.

¿Qué es el frasco de Dewar?


Actualmente se conoce con el nombre de termo y se usa para
conservar alimentos calientes o fríos durante más tiempo. Para su
elaboración se usaron conocimientos sobre la transmisión del calor
como los siguientes:

1. Su interior está hecho de un material que es mal conductor del


calor, generalmente es vidrio o plástico
2. Su parte interna tiene un color claro (generalmente plateado)
para evitar perder calor por radiación.
3. Generalmente el recipiente interior se encuentra aislado del
recipiente exterior, es decir, se evita perder calor por convección.
SEMINARIO 6
TERMODINAMICA II: INSTRUMENTOS DE MEIDICIÓN. REGULACION DE TEMPERATURA. ADAPTACIONES
BIOLOGICAS. FIEBRE, HIPERTERMIA E HIPOTERMIA.

TEMPERATURA

La temperatura es la forma de expresar por medio de una cantidad, que tan caliente o frío está un cuerpo
con respecto a otro. La temperatura es la sensación física que nos produce un cuerpo cuando entramos en
contacto con él.

La temperatura es una medida del calor o energía térmica de las partículas en una sustancia. La
temperatura no depende del número de partículas en un objeto y por lo tanto no depende de su
tamaño. Por ejemplo, la temperatura de un vaso de agua hirviendo es la misma que la temperatura de una
olla de agua hirviendo, a pesar de que la olla sea mucho más grande y tenga millones y millones de
moléculas de agua más que el vaso.

Nosotros experimentamos la temperatura todos los días. Cuando hace calor o cuando tenemos fiebre
sentimos calor y cuando está nevando sentimos frío. Cuando estamos hirviendo agua, hacemos que la
temperatura aumente y cuando estamos haciendo polos o paletas de helado esperamos que la
temperatura baje.

Su concepto es el siguiente: “Energía cinética promedio de las moléculas de un cuerpo”.

LA DILATACIÓN. Los efectos de la energía calorífica sobre los cuerpos se presentan como un aumento
en la temperatura, un cambio de estado o un incremento en su volumen (dilatación térmica). El estudio
de la dilatación le ha permitido al hombre construir el termómetro, aparato que usamos para medir la
temperatura y cuyo funcionamiento se basa en la dilatación.

AGITACIÓN TÉRMICA. El movimiento que tienen las partículas de un cuerpo (agitación térmica) es el
que origina la existencia de la energía calorífica, pero cuando el movimiento se incrementa también
se incrementa el espacio que existe entre las partículas.

DILATACIÓN TÉRMICA. También se conoce simplemente como dilatación, y se define como el aumento
de volumen que ocurre en un cuerpo debido al aumento de su temperatura. Por lo general los sólidos,
líquidos y gases se dilatan cuando aumenta la temperatura y se contraen cuando esta disminuye. El agua
es un caso especial pues esta se dilata también con el frío, se dice que el agua no está dilatada cuando se
encuentra a 4°C.

APLICACIÓN DE LA DILATACIÓN. Uno de los usos que se le da a la dilatación es en la elaboración de


termómetros, instrumentos que en su interior contienen un fluido, el de mayor uso es el que contiene
mercurio.

MERCURIO. Es un líquido metálico que se dilata uniformemente, su punto de congelación es de 39°c y su


punto de ebullición es de 356.7°C, esto permite que el termómetro hecho con esta sustancia pueda medir
temperaturas entre estos dos puntos.
¿Por qué al caminar durante mucho tiempo los zapatos nos aprietan? Porque nuestros pies se
dilatan por el calor.

¿Por qué en las vías del tren se deja un espacio entre un riel y otro riel? Porque con el calor las vías del
tren se dilatan y para evitar que al aumentar su tamaño estas se deformen al hacer presión una contra otra,
se deja un pequeño espacio para evitar lo anterior.

ESCALAS DE TEMPERATURA

Los diferentes termómetros que existen se basaron en ideas con apariencia distinta, al usar diferentes
puntos de partida en sus mediciones, pero como todos miden la agitación térmica de las moléculas, lo
único que cambia es la escala empleada por cada uno de sus inventores.

Las escalas térmicas o escalas de temperatura más importantes son la Fahrenheit, la Celsius (o relativas)
y la Kelvin (o absoluta). Cada escala considera dos puntos de referencia, uno superior y el otro inferior, y
un número de divisiones entre las referencias señaladas.

1. ESCALA FAHRENHEIT

En 1714 Daniel Gabriel Fahrenheit creó el primer termómetro de mercurio, al que le registra la escala
Fahrenheit y que actualmente es utilizado en los países de habla inglesa. Esta escala tiene como referencia
inferior el punto de fusión de una mezcla de sales con hielo (0°F) y como referencia superior el
punto de ebullición del agua (212°F). Entre estas dos referencias existen 180 divisiones.

2. ESCALA CELSIUS

Fue creada en 1742 por Andrés Celsius, es la más utilizada en el mundo, su referencia inferior esta basada
en el punto de fusión del hielo (0°C) y la superior en el punto de ebullición del agua (100°C). Entre estas dos
referencias existen 100 divisiones.

3. ESCALA KELVIN

Fue creada en 1848 por William Thompson, Lord Kelvin, ésta escala es la que se usa en la ciencia y esta
basada en los principios de la termodinámica, en los que se predice la existencia de una temperatura
mínima, en la cual las partículas de un sistema carecen de energía térmica. La temperatura en la cual las
partículas carecen de movimiento se conoce como cero absoluto (0°K).

COMPARACIÓN DE ESCALAS

Para comprender mejor la relación que existe entre las tres escalas térmicas se recomienda introducir los
tres termómetros dentro de un recipiente con una sustancia líquida, se puede colocar agua y observar
la temperatura que registra cada termómetro, por ejemplo si el termómetro Celsius registra 0°C, los
otros 32°F y 273°K. A continuación se aplicaría calor para incrementar la temperatura y se
observaría que cuando el termómetro Celsius aumenta 1°C, en el Fahrenheit se incrementa 1.8°F y en el
kelvin 1°K.

TABLA COMPARATIVA

Teniendo en un recipiente agua a 0°C se aplica calor para ir incrementando la temperatura, en dicho
recipiente se encuentran al mismo tiempo un termómetro Celsius, uno Fahrenheit y uno Kelvin. Con lo
comprendido hasta ahora observe la siguiente tabla: se ha completado (en rojo) la información que faltaba.
Convirtiendo al lenguaje matemático obtenemos las
°C °F °K
siguientes fórmulas:
0 32 273
1 33.8 274 CONVERSIÓN CELSIUS A FAHRENHEIT:
2 35.6 275 °F= (°C) (1.8) + 32
3 37.4 276
CONVERSIÓN CELSIUS A KELVIN:
4 39.2 277
°K= 273+ °C
5 41 278

LA TEMPERATURA EN UN SISTEMA BIOLÓGICO Y MECANISMOS QUE LO REGULAN

INTRODUCCIÓN

Debemos saber que un organismo vivo como el ser humano es considerado como un sistema termodinámico
abierto, en estado estacionario. Esto significa que existe transferencia de energía y de materia hacia el medio que
nos rodea, pero, que a pesar de ello la temperatura se mantiene constante.

La velocidad de las reacciones químicas de nuestros procesos fisiológicos depende de mantener una
adecuada temperatura corporal. Así las reacciones enzimáticas se producen efectivamente, en un estrecho
margen de variación térmica. Debajo de éste dejan de funcionar y si se sobrepasa el límite superior se precipitan
y desnaturalizan en forma irreversible

Esto nos impele destacar que la regulación de la temperatura corporal debe tener mecanismos de control muy
finos. Para aquellos animales que los presentan se les da la categoría de homeotermos (temperatura constante
sin importar la de su medio ambiente), y para los que no los poseen se les llama poiquilotermos, y se
caracterizan porque sus organismos adoptan la temperatura del entorno.

Esto implica que la cantidad de calor que se produce en nuestro cuerpo (termogénesis) se iguala con la
cantidad que se pierde (termólisis). Sin embargo, la homeotermia se establece de manera adecuada y completa
sólo en las regiones profundas de nuestro cuerpo o núcleo central. Esta región constituye alrededor del 80% de
nuestra masa corporal.

El resto de nuestro organismo llamado muchas veces corteza, se comporta


poiquilotérmicamente. Debido que la mayoría de los órganos del núcleo central poseen una
concentración semejante y abundante de agua, la capacidad calorífica apenas se modifica, esto determina
la condición necesaria para que la temperatura se mantenga constante, es decir, que el balance de
intercambios sea nulo; lográndose que la cantidad de calor producida resulte igual a la cantidad perdida por
radiación, convección, evaporación y también por conducción.
TERMORREGULACION

I. VARIACIONES DE LA TEMPERATURA CORPORAL: CONCEPTOS BÁSICOS

ANIMALES HOMEOTERMOS Y ANIMALES POIQUILOTERMOS.

Los animales homeotermos o de sangre caliente (mamíferos y aves) son aquellos que mantienen una
temperatura corporal central relativamente constante, a pesar de las fluctuaciones de la temperatura
ambiental, regulando así en un estrecho margen de variación.
Los mamíferos invernantes son un caso especial en la regulación de la temperatura corporal y en la ingestión de
líquidos y alimentos, pero son homeotermos, con la capacidad de reducir sustancialmente su temperatura y
volver a elevarla espontáneamente hasta 37° C, por medio de un aumento de su tasa metabólica.

Los animales poiquilotermos, llamados también de sangre fría, invertebrados, peces, anfibios y reptiles, tienen
una temperatura corporal central que baja con el frío y aumenta con el calor y la regulan en un amplio
margen de variación, pudiendo llegar hasta varios grados centígrados.

TEMPERATURA CENTRAL Y SUPERFICIAL

El organismo se puede dividir, a efectos de entender estos conceptos, en una parte central o nuclear y una
parte superficial o más en contacto con el medio externo ambiental.

La temperatura central o profunda. Se origina en el “núcleo central del organismo” constituido por los
contenidos de la cabeza, cavidad torácica y abdominal o según otros autores, en los órganos profundos y de alto
metabolismo como hígado, cerebro, corazón y músculos esqueléticos. Esta temperatura es notablemente
constante, variando menos de 0,6 ° C día tras día. De hecho, un individuo desnudo puede quedar
expuesto a temperaturas bajas, del orden de 12 ° C , o relativamente altas; por ejemplo de 60° C, conservando
sin embargo, una temperatura interna casi constantes.

La temperatura central está representada por las temperaturas oral, rectal, esofágica, membrana del
tímpano, hipotalámica o de la sangre al pasar por cualquiera de los órganos de la parte central o nuclear. La más
representativa es la T° rectal.

La temperatura superficial. La piel y el tejido celular subcutáneo constituyen la superficie. La T° superficial


aumenta y disminuye con la del medio ambiente, y es la temperatura importante cuando nos referimos a la
capacidad de la piel para perder calor hacia el ambiente.
Por lo tanto, la temperatura central es la que es regulada y mantenida dentro de límites bastante estrechos.
TEMPERATURA CORPORAL NORMAL

El concepto de T° corporal es extraído de los conceptos anteriores. Y es una suma de la temperatura


central y superficial. Ningún nivel de temperatura puede considerarse normal, puesto que las mediciones de
muchas personas normales han puesto de manifiesto límites de temperatura normales, desde menos de 36°
C a más de 37.2 ° C.

La temperatura normal promedio se considera por lo general entre 36,7 y 37 ° C cuando se mide en la boca, y
alrededor de 0,6 °C mayor cuando se mide en el recto.

La temperatura corporal varía con el ejercicio y con la temperatura del medio, pues los mecanismos reguladores
no son 100% eficaces. Cuando el cuerpo produce exceso de calor por el ejercicio intenso, la temperatura rectal
puede alcanzar hasta 38-40 °C. Por otra parte cuando el cuerpo queda expuesto a tiempo en extremo frío, la
temperatura rectal muchas veces puede caer hasta valores considerablemente inferiores a 36,5 °C.

El estudio de la termorregulación obliga a considerar:

a. Producción de calor (Termogénesis).


b. El transporte del calor desde el núcleo central hacia la superficie.
c. Las pérdidas de calor en la superficie corporal (Termólisis).

II. PRODUCCIÓN DE CALOR (TERMOGÉNESIS).

1. METABOLISMO BASAL.

Es la cantidad de calor que produce el sujeto por metro cuadrado de superficie corporal y por hora, hallándose
despierto, en ayunas desde 12 horas anteriores, en reposo físico y mental y en un ambiente de temperatura
agradable.

El calor se produce primariamente en las partes anatómicas del organismo que hemos denominado central o
nuclear, a pesar de que esta parte sólo representa un tercio de la masa corporal total.

2. AUMENTO DE LA ACTIVIDAD MUSCULAR: TIRITAR

En la porción dorsomedial de la parte posterior del hipotálamo, cerca del tercer ventrículo, se encuentra un
área llamada centro motor primario para los escalofríos. Normalmente se encuentra inhibida por señales
provenientes del centro del calor, pero se excita cuando le llegan señales frías desde la piel y médula espinal.

Este centro se activa cuando la temperatura corporal disminuye incluso una fracción de grado por debajo del
nivel crítico; a continuación transmite señales productoras de escalofríos que pasan por haces bilaterales hacia
el tallo cerebral, se transmiten desde allí hacia las columnas laterales de la médula espinal y llegan hasta las
neuronas motoras anteriores.

Estas señales no son rítmicas ni producen sacudidas musculares reales, más bien incrementan el tono de los
músculos esqueléticos de todo el cuerpo. Cuando el tono se eleva por arriba de cierto nivel crítico, empiezan
los escalofríos, los que son resultado de oscilaciones de retroalimentación del mecanismo reflejo de
estiramiento del huso muscular.
3 CATECOLAMINAS: EXCITACIÓN SIMPÁTICA QUÍMICA DE LA
PRODUCCIÓN DE CALOR

La estimulación simpática, o de la adrenalina y noradrenalina, incrementan de inmediato el metabolismo celular.


Este efecto denominado termogénesis química, se debe a la capacidad de la adrenalina y noradrenalina de
desacoplar la fosforilación oxidativa, con lo cual se hace necesaria una mayor oxidación de los alimentos, para
obtener los compuestos de fosfato de alta energía, requeridos por la función normal del organismo.
El grado de termogénesis química que tiene lugar en un animal, es casi directamente proporcional a la
cantidad de grasa parda que existe en sus tejidos. Es un tipo de grasa que contiene gran cantidad de
mitocondrias en sus células, y éstas cuentan con inervación simpática poderosa.
En el ser humano adulto, que casi no tiene grasa parda, es raro que la termogénesis química aumente la
producción de calor en más de un 10 a 15 %. Sin embargo, en lactantes, que si tienen una pequeña cantidad
de grasa parda en el espacio interescapular, la termogénesis puede aumentar la producción de calor hasta
en un 100 %. Lo que quizá es un factor muy importante para conservar la temperatura corporal normal del
recién nacido.

4. HORMONAS TIROIDEAS

El enfriamiento del área preóptica del hipotálamo, también aumenta la producción de la hormona
neurosecretoria, factor liberador de tirotropina por el hipotálamo, que siguiendo los vasos portales llega
hasta la adenohipófisis, estimulando la secreción de tirotropina.
La tirotropina estimula la liberación de tiroxina por la glándula tiroides, que a su vez incrementa el
metabolismo celular de todo el cuerpo. El mecanismo tiroideo no ocurre de inmediato, sino que requiere de
varias semanas.
La exposición de los animales a frío extremo durante varias semanas, puede hacer que su tiroides
aumente de volumen hasta 20-40 %. Sin embargo, el hombre rara vez se expone al mismo grado de frío y no
se sabe cual sea la importancia cuantitativa del método tiroideo de adaptación al frío en la especie humana.
Mediciones realizadas en personal militar residente durante varios meses en el Ártico, desarrolla un
aumento de intensidad del metabolismo; los esquimales también presentan valores de metabolismo muy altos.
Por tanto, el efecto estimulante continuo del frío para el tiroides, puede explicar la mayor incidencia de
bocio tiroideo tóxico, en personas que viven en climas fríos que en personas que viven en climas calientes.
III. MECANISMOS DE TRANSFERENCIA DE CALOR EN EL
ORGANISMO

Una vez producido el calor, éste es transferido y repartido a los distintos órganos y sistemas. Este
proceso se realiza por los mecanismos de conducción, convección y por el mecanismo de intercambio de
calor por contracorriente

1. CONDUCCIÓN

Es el flujo de calor por gradiente, el fundamento físico es el de transferencia de energía calorífica


entre moléculas. La conductancia física es de escasa importancia debido a la poca conductancia
fisicotérmica de los diferentes tejidos del cuerpo en especial el adiposo (calor específico 3.21 KJ/K/°C)

2. CONVECCION

Es la transferencia de calor a distintas partes del cuerpo, a través de la circulación sanguínea. Este
mecanismo es sin duda el más importante, ya que la sangre al presentar gran cantidad de agua, se convierte
en la sustancia con mayor calor específico 3,8 KJ/K/°C. Los cambios en el flujo cutáneo son responsables del
control de la transferencia de calor entre la parte central o nuclear del organismo y la piel. La piel es un
órgano complejo, cuyo flujo sanguíneo es controlado primariamente por las necesidades termorreguladoras
del organismo.

En la piel, además de su rica red capilar y plexos venosos de gran capacidad, existen anastomosis
arteriovenosas en las superficies palmares de manos y pies, así como en los dedos, orejas y nariz. Estas
anastomosis tienen gran importancia funcional, dado que a través de ellas se realiza una buena parte de
la regulación de la temperatura. Su apertura o cierre según las necesidades del organismo, conlleva
ganancia o pérdida de calor.

El flujo sanguíneo cutáneo excede con mucho las necesidades nutricionales de la piel. Esto contrasta con el
flujo sanguíneo a otros tejidos, como pueden ser del músculo esquelético, el cerebro o el miocardio. El
flujo sanguíneo de la piel puede llegar a multiplicarse por 100 al pasar de un medio ambiente frío a otro
caliente. Una piel caliente, es un almacén de calor desde el cual la sangre puede redistribuirlo entre
otras partes del organismo. El control de esta redistribución es ejercido por el sistema nervioso
simpático a través del control de arteriolas y vénulas. En conclusión, el flujo sanguíneo cutáneo
representa un mecanismo muy efectivo para impedir o permitir la pérdida de calor por el organismo

3. MECANISMO DE INTERCAMBIO DE CALOR POR CONTRACORRIENTE

La temperatura sanguínea no se mantiene constante en todos los vasos sanguíneos. Así por ejemplo, en el
caso de una persona que se encuentre en reposo en un medio ambiente confortable, la temperatura de
la sangre en las arterias braquial y radial es de aproximadamente 36.5 y 36 °, respectivamente.
Sin embargo, si a este individuo se le cambia a un medio ambiente frío, dichas temperaturas descienden
a valores de 31 y 21 °C respectivamente. Estos cambios vasculares vegetativos (vasoconstricción), ocurren
sin que el individuo experimente malestar alguno. Con el frío, las venas superficiales se constriñen y el
retorno de la sangre al corazón se realiza a través de las venas profundas.
Precisamente la sangre arterial se enfría, a medida que fluye por el brazo hacia los dedos, debido a
que cede calor a la sangre fría que fluye en dirección opuesta, hacia el corazón por las venas profundas
adyacentes.
Así, la sangre arterial que sale del ventrículo a una temperatura de 37 °C se enfría hasta llegar a unos 16 °C
en el recorrido que va desde el corazón hasta la mano. Paralelamente, la sangre venosa de retorno se va
calentando y al llegar al nivel del hombro lo hace a una temperatura de casi 38 °C, lo que indica la eficiencia
de este mecanismo de intercambio de calor por contracorriente.

En un ambiente cálido la sangre es desviada hacia el plexo venoso superficial evitando, de este modo, el
mecanismo por contracorriente. Esto da lugar a que grandes cantidades de calor sean transferidas hacia
el medio ambiente.

IV. INTERCAMBIO DE CALOR CON EL MEDIO AMBIENTE Y PÉRDIDAS DE CALOR (TERMÓLISIS).

Las pérdidas de calor en la superficie


corporal y su intercambio con el medio
ambiente, se realiza por los

Cuando la producción de calor es igual a


su pérdida, existe un estado denominado
de balance térmico durante el cual la
temperatura central del organismo se
mantiene constante.

1. RADIACIÓN.
Es la transferencia de calor por ondas electromagnéticas y constituye la forma más importante de pérdida
de calor en el cuerpo humano, alcanzando un total de 60 %. Esta forma de pérdida no se puede
controlar ya que depende de la emisión de rayos infrarrojos. Se puede ganar o perder calor dependiendo de
que la piel se encuentre más fría o más caliente que los objetos del entorno.

2. CONDUCCIÓN.
Es la transferencia de calor molécula a molécula, en sólidos, líquido o gases. Es un mecanismo dependiente
de la conductividad de la sustancia y de las diferencias de temperatura entre los puntos de contacto. Es
un mecanismo poco importante para el organismo ya que por el enorme poder aislante de la grasa
corporal, solamente perdemos por esta forma un 3 % del calor corporal. Este es un mecanismo mediante le
cual se pierde o se gana calor.

3. CONVECCION.
Ocurre cuando el calor de nuestro cuerpo es trasladado o retirado por un fluido que puede ser el aire o el
agua (por ejemplo cuando estamos frente a un ventilador). Por convección del aire se pierde
aproximadamente el 15 % del calor corporal. Al igual que el anterior, se puede ganar o perder calor.

4. EVAPORACIÓN.
Este proceso se basa en el hecho de que la transformación de cualquier líquido en vapor, sin cambiar su
temperatura, requiere calor. Para que se evapore 1 g de sudor de la superficie de la piel se requieren
aproximadamente 0.58 Kcal, las cuales se obtienen de la piel. La evaporación se realiza gracias al
sudor y puede ser de dos formas, una imperceptible, insensible y constante denominada perspiración y
otra más significativa y ostensible llamada sudoración. Constituye en condiciones normales un 22 %
del total de calor que se pierde.

De este modo, la evaporación del sudor es un mecanismo por medio del cual se enfría la piel y
consecuentemente el organismo. En contraste con los mecanismos de calor antes descritos, este último sólo
puede provocar pérdida de calor.

V. REGULACIÓN DE LA TEMPERATURA
El sistema consiste en una serie de receptores superficiales y profundos y en un centro integrador
localizado en el hipotálamo, cuya misión es recibir e integrar la información de un punto de referencia codificado
en el propio SNC que son los 37° C

TERMORRECEPTORES

• En el tejido celular subcutáneo encontramos receptores para el calor y el frío. Los receptores para el
frío son más abundantes, 10 veces más que los de calor.
• Se desencadenan efectos reflejos inmediatos. Producción de escalofríos, inhibición del proceso de
sudación, promoción de la vasoconstricción cutánea.
• Receptores profundos en médula espinal, vísceras abdominales, alrededor de grandes venas y en el área
preóptica del hipotálamo Identifican sobre todo frío y no calor.

INTEGRACIÓN CENTRAL

HIPOTÁLAMO ANTERIOR: Núcleos preópticos y anterior, contienen gran número de neuronas sensibles al
calor. Son los lugares de partida de las órdenes reguladoras de la termólisis (se oponen al calentamiento):
• Vasodilatación: Inhibición de los centros simpáticos del hipotálamo posterior que producen
vasoconstricción.

• Sudoración: Por impulsos transmitidos por vías neurovegetativas hacia la médula, y de ahí siguiendo
las vías simpáticas, a la piel de todo el cuerpo, estimulando las glándulas sudoríparas que tienen inervación
colinérgica y también adrenérgica.

• Disminución de la producción de energía: Se inhiben en forma enérgica los mecanismos de


producción excesiva de calor como escalofríos y termogénesis química.

HIPOTÁLAMO POSTERIOR: Es responsable de las órdenes para la termogénesis (se oponen al


enfriamiento):

• Vasoconstricción cutánea: por estimulación de los centros simpáticos hipotalámicos.


• Piloerección: Significa que el pelo se endereza desde su base, por estimulación simpática del músculo
del folículo piloso y permite aprisionar una gruesa capa de “aire aislante”.
• Aumento de la producción de calor: Tiritar, excitación simpática y elevación de la tiroxina.

VI. BALANCE TERMICO

La Tº C central se mantiene constante por este balance entre la ganancia y la pérdida de calor. Cuando tal
equilibrio existe, no hay cambio en la temperatura media del organismo, ni tampoco en la cantidad de calor
almacenado. Este concepto se representa en forma de balanza.
El organismo produce una determinada cantidad de calor en el proceso catabólico de los principios
inmediatos y pierde igualmente una determinada cantidad de calor por los mecanismos antes descritos,
principalmente los de radiación, convección y evaporación.

Es claro que determinados factores, tales como enfermedades, consumo de alimentos, tiritonas y el
ejercicio físico aumentan la producción de calor y tienden a elevar el balance térmico, produciendo una
elevación de la Tº central y otros por el contrario, una pérdida de calor. Los factores externos que
determinan la perdida de calor son la Temperatura, humedad del aire, velocidad de las corrientes de
aire y la Tº de los objetos alrededor.

A 35ºC los mecanismos de pérdida de calor se vuelven ineficientes y toda pérdida de calor ocurre
solamente por evaporación del sudor, que adquiere en este caso una importancia vital.
Existen diferencias significativas en cuanto al balance térmico entre el hombre y la mujer. Para
determinadas condiciones, la mujer tiene ciertas ventajas fisiológicas sobre el hombre en la capacidad de
regular la temperatura corporal.

TRASTORNOS DE LA TERMORREGULACIÓN

1. FIEBRE

Es la alteración más común de la temperatura; se establece cuando existe una modificación en el nivel de
referencia natural (punto de ajuste) que se establece en el hipotálamo. Durante un episodio febril, el
sistema regulador térmico funcionan pero, se ha cambiado el punto de referencia. En lugar de 37ºC la
regulación se produce en torno a un valor más elevado; por ejemplo del orden de los 38 ºC – 39ºC.

a. FASE DE ESCALOFRÍOS. Por


consiguiente el inicio del acceso febril
está marcado por las reacciones
termorreguladoras características de la
lucha contra ei frío: escalofríos, tiritones,
vasoconstricción cutánea por esta razón
él esté fase se le conoce como la de
"escalofríos". Debe usted entender que
el organismo se comporta "como si
tuviera frío" porque así lo indica el
hipotálamo que tiene su punto de ajuste
muy elevado.

b. FASE DE ESTABILIDAD TÉRMICA. Posteriormente la, persona llega a producir calor hasta llegar a una
homeostasis térmica con el nuevo valor del punto de ajuste es decir nuestro cuerpo llega a tener 39°C de
temperatura y el hipotálamo "ve" cumplidas sus órdenes. Esta es 1a fase de estabilidad térmica, pero con
valores elevados de temperatura corporal. Obviamente altera algunas funciones celulares.

c. FASE DE CRISIS. Finalmente, se logra recuperar el valor normal del punto de ajuste; espontáneamente o
por la ingesta de algún medicamento (un antipirético por ejemplo), esto hace que el organismo reaccione
tratando de perder el calor acumulado hasta conseguir nuevamente la homeostasis térmica. Por lo tanto el
cuerpo suda y se produce vasodilatación, a esto se denomina periodo de "crisis".

La modificación en el valor del punto de ajuste térmico, se produce por !a presencia de una gran variedad de
estímulos exógenos que incluyen a bacterias y sus toxinas, hongos, virus, espiroquetas, reacciones inmunes,
hormonas (progesterona), fármacos, etc. A estas sustancias se denominan “pirógenos exógenos” y
se postula que actúan por medio de una sustancia intermediaria llamada “pirógeno endógeno” (PE), o
citoquinas endógenas, la más importante es la interleuquina (IL) -1 que es un producto de los monocitos y
macrófagos (tipos de glóbulos blancos). Esta sustancia PE/IL-1 indica muchas de las llamadas respuestas de
la fase aguda de la inflamación que se caracteriza entre otras cosas por fiebre.

El blanco de la PE/IL-1, además de los centros reguladores de la temperatura en el hipotálamo anterior, son
los linfocitos B y T, las células mieloides de la médula ósea roja, los neutrófilos maduros (otro tipo de
glóbulos blancos) los fibroblastos, el músculo estriado, los hepatocitos (células del hígado) y las neuronas
cerebrales responsables de la ondas lentas del sueño. Se sabe que en el hipotálamo la PE/IL-1 actúa
induciendo la síntesis de prostaglandinas (Pg) de la serie E (PgE - 1) y esta a su vez promoviendo el
Amp-cíclico (sustancia que activa funciones celulares). Las acciones antipiréticas de la y de los otros
Antinflamatorios NO esteroideos (AINES) que actúan como antipiréticos pueden atribuirse a la acción
de bloqueo sobre la ciclo Oxigenasa, que es la enzima que produce las prostaglandinas.

2. HIPERTERMIA
Es el aumento de la Tº central sin que cambie el punto de referencia. En el ejercicio físico, es debida al
exceso de calor producido por la contracción muscular y se alcanza un nuevo punto estable en un nivel más
elevado ( 39ºC), llegándose a un equilibrio entre el exceso de calor producido y su pérdida.

3. AGOTAMIENTO POR CALOR


Incluyen cefaleas, náuseas, vómitos, zumbidos escalofríos y diarreas. El paciente puede estar
inconsciente con Tº rectal superior a 40ºC .

4. SINCOPE POR CALOR


En personas no aclimatadas, que realizan ejercicios extenuantes, puede producir desviación de grandes
volúmenes de sangre a los vasos cutáneos dilatados, disminuye el Retorno Venoso y cae la Presión
Arterial, entonces se produce Isquemia cerebral y pérdida de conocimiento transitoria.

5. GOLPE DE CALOR O SCHOCK TERMICO


Urgencia médica, la Tº rectal es de 41-43 ºC. Hay taquicardia severa, paciente inconsciente con reflejos muy
disminuidos o abolidos, delirio, convulsiones, Shock térmico

6. HIPOTERMIA EXTREMA.
Puede llegar a límites mortales por debajo de los 20ºC., provocando insuficiencia circulatoria y anoxia.

TAREA N° 4: RESOLVER EN EL PPT

1. Mencione cuáles son los receptores para el frío y el calor en la piel.


2. ¿Cuáles son las Escalas de la Temperatura? ¿Cuáles son sus límites?
SEMINARIO 7
HIDROSTATICA MEDICA I

PRINCIPIO DE PASCAL PRINCIPIO DE ARQUIMEDES

INTRODUCCIÓN

La Hidrostática se encarga de estudiar los fluidos en reposo y las fuerzas y presiones que lo afectan.
Existen científicos que plantean que no es cierto que existan los cuatro estados fundamentales de la
materia sólido, líquido, gaseoso y plasmático. Sólo existen fluidos y éstos son variaciones del estado de
los fluidos. Por lo tanto, en el universo no existen sólidos sino un constante intercambio de moléculas
entre las sustancias que acercan sus superficies.
Vivimos inmersos en el fondo de una gran capa de fluido La atmósfera y nuestro planeta está
cubierto en sus 34 partes por otro fluido El Agua. La energía proveniente del sol genera cambios
en estos fluidos, produciéndose lo que denominamos clima y así por ejemplo, el ciclo del agua, que
determina la presencia de lluvias necesarias para la vida. El acto de respirar es el resultado de las
propiedades de los fluidos

En el interior del planeta también existen fluidos que en ocasiones se desplazan durante
erupciones volcánicas, así mismo, las diversas formaciones geográficas dependen de la existencia y
prevalencia de estas corrientes de fluidos.

En nuestro organismo también encontramos la presencia de fluidos El agua constituyendo el


60% del peso corporal del adulto (varía según sexo y edad), los gases presentes en el aparato
respiratorio, a nivel intestinal, senos paranasales y los fluidos corporales (Líquido cefalorraquídeo, pe
rilinfa, etc ) llamados coloides biológicos. En general, nuestro organismo se encuentra en estado coloidal
o plasmático.
CONCEPTOS BÁSICOS

HIDROSTÁTICA
El origen de esta palabra proviene de dos voces griegas ¨Hidros¨ que significa agua y ¨Stática¨
que puede interpretarse como ¨sin movimiento¨
La hidrostática estudia los fluidos en reposo y las fuerzas y presiones que los afectan.

FLUIDO
Se refiere a la materia que puede fluir, pudiendo trasladar su masa desde una zona
de mayor presión a otra de menor presión y que puede cambiar de forma debido a la acción
de pequeñas fuerzas. Los fluidos poseen
partículas cuyas fuerzas de atracción (Fuerzas de Cohesión) no son lo suficientemente potentes
para mantener su masa en una forma definida.

Existen tres tipos de fluidos LIQUIDOS GASES Y PLASMAS.


Los gases carecen de fuerzas de cohesión y los líquidos poseen fuerzas de cohesión muy débiles,
lo que permite separar de manera sencilla a pequeñas porciones de materia.

FLUIDO PLÁSTICO.- Los sólidos, poseen grandes fuerzas de cohesión y requieren de grandes
presiones para cambiar su forma. Sin embargo algunas sustancias que consideramos sólidos, se
comportan como fluidos muy lentos. El plomo es un buen ejemplo de ello. Si lo golpeamos
cambia con mucha facilidad a la presión a este tipo de materia se denomina fluido plástico. El
vidrio es otro ejemplo de sólido con propiedades de fluido. Al analizar su estructura molecular
se observa que sus átomos se organizan en forma azarosa y no siguen el orden relativo
existente en un sólido. El comportamiento de los llamados fluidos Plásticos está en relación a la
magnitud de la presión.

PRESIÓN

Se define como la fuerza que se ejerce por unidad de área.

P=F/A

Estableciéndose una relación directa entre presión y fuerza y una relación inversa
entre presión y área. La presión no sólo depende del valor de la fuerza ejercida, sino también del
área A sobre la cual se distribuye la fuerza.
Una vez establecido el valor de A, la presión será proporcional a la magnitud de F. Una
misma fuerza podrá producir diferentes presiones, dependiendo del área sobre la cual actúa.
Si el área fuese muy pequeña podríamos obtener grandes presiones, incluso con fuerzas
pequeñas. Por esa razón, los clavos tienen punta. Por lo mismo, las agujas de punta roma no son tan
útiles para coser como las quetienen punta fina y si han visto alguna película ambientada en una
geografía con nieve, habrán observado que los “zapatos” para nieve parecen raquetas de tenis o que si
algún descuidado viajero deja sus esquíes y desea caminar en la nieve, súbitamente se encuentra, como
quien dice “con la nieve en el cuello.

La Unidad en el sistema internacional para la presión es el Pascal (Pa) y se define como N/m2
Si reorganizamos la fórmula inicial y hallamos la fuerza en función de la presión, esto sería:
F=PxA

Nosotros convivimos día a día con las fuerzas y presiones generadas por los fluidos y es por
eso que usualmente no nos percatamos de ellas.

PRESIÓN HIDROSTÁTICA

Es la presión ejercida por un fluido en reposo. Es la presión que existe en el interior del agua,
actuando fuerzas perpendiculares a la superficie presionada.
Se puede determinar la PRESION que ejerce este fluido, hallando su peso. Pero debido
a que el peso de un fluido depende de su densidad, podremos hallarlo de la siguiente manera:

P=hxdxg

P es PRESIÓN
h es LA ALTURA DE LA CANTIDAD DE FLUIDO d es LA DENSIDAD DEL FLUIDO
g es LA ACELERACIÓN DE LA GRAVEDAD

Esto significa que la presión que ejerce un fluido depende de manera directa de la
densidad y de la altura que tenga. Es decir habrá mayor presión si el fluido es más denso y si el punto es
más profundo.
Esta fórmula se cumple para los fluidos líquidos a excepción de los gases.

¿POR QUÉ?

Porque es un fluido compresible, y su densidad no es constante, es decir, a mayor profundidad en


una columna de gas, la densidad será mayor ya que el gas se encontrará más comprimido y viceversa.
Los Líquidos poseen una densidad constante y por lo tanto la presión que ejercerá en el fondo
será la misma en cada punto, sin importar la forma del recipiente que lo contiene.
PROPIEDADES DE LOS FLUIDOS

1. Un fluido en reposo no puede ejercer una fuerza paralela a una superficie por la falta de rigidez,
por lo tanto, un fluido no posee coeficiente de rozamiento estático o de fricción. Cuando está en
movimiento sí lo hace.
El líquido sinovial lubrica las superficies óseas entre las articulaciones y durante el movimiento
presenta un coeficiente de rozamiento de 0,01 siendo muy importante ya que reduce el rozamiento
de las fuerzas de contacto.

2. LEY DE PASCAL
En ausencia de la gravedad y sin considerar el peso del fluido, la presión en un fluido en reposo, es la
misma en todas partes. Cuando se ejerce una presión sobre un líquido ésta se transmite con
igual intensidad y en todas direcciones. Esto es el PRINCIPIO DE PASCAL.
Si se aplica una presión o fuerza como se observa en el diagrama, el cambio en la presión
se transmitirá de manera equitativa a todas las partes del fluido.
El primero en darse cuenta y describir como se trasmite la presión en los fluidos, fue el
gran científico y filósofo francés Blas Pascal, entre los años1600.

APLICACIONES
- La prensa hidráulica
- Los frenos hidráulicos
- El elevador hidráulico

MAQUINAS HIDRAULICAS

Si el principio de Pascal establece que la presión aplicada a un fluido se trasmite igualmente


por todo el fluido, es posible trasmitir fuerza utilizando fluidos en vez de cuerpos rígidos como
lo hacemos con las palancas.
El fluido en una máquina hidráulica, generalmente es un tipo de aceite que se coloca bajo
presión, mediante un pequeño cilindro que se conecta con un cilindro de mayor diámetro.
La presión es la misma (P=FxA), pero debido al mayor diámetro del segundo cilindro, la
fuerza total va a ser mayor, por ende, el cilindro menor deberá viajar.

Donde se necesiten grandes fuerzas, estas máquinas pueden producirla, como por ejemplo, en
el sistema de frenos de nuestros automóviles o en las llamadas gatas que sirven para levantarlos.
El mismo principio, pero utilizando gas, adquirirá el adjetivo neumático y esto lo podemos percibir
al escuchar el sonido característico de los frenos utilizados por los camiones que tienen un sistema
neumático y no hidráulico
He aquí otro interesante experimento que deseo realicen y posteriormente comenten.
PROBLEMA

Si el área en A es 0,02 m2 y el área en B es 0,1 m2 y la fuerza ejercida en A es de 180 N . Calcular la


presión en ambos cilindros y la Fuerza ejercida por el cilindro B .

3. EFECTO DE LA GRAVEDAD SOBRE LOS FLUIDOS.


La importancia de la fuerza de gravedad sobre un fluido depende de la densidad del
fluido.

- A igual profundidad en distintos líquidos, hay mayor presión cuanto mayor sea su densidad. Por
ejemplo, la densidad del mercurio es 13 g/cm3 y la del agua es 1g/cm3. Entonces, a la misma
profundidad, la presión será mayor en el mercurio. Recordar la fórmula: P = d . g . h y observar la
relación proporcional directa entre presión y densidad.

- El aumento de presión con la profundidad está relacionado con la densidad del fluido.
Recordemos a los gases que son compresibles. En el fondo del mar las moléculas de aire están
comprimidas y según la fórmula d=m/v (d es densidad, m es masa y v es volumen) a mayor
masa y menor volumen se incrementa la densidad, aquí encontramos grandes presiones, mientras
que en la sierra a 3500 m de altitud por ejemplo, las moléculas están dispersas (Menos masa y mayor
volumen) siendo el aire menos denso y por consiguiente con bajas presiones.

- La presión depende de la profundidad. La presión en la parte inferior del fluido (Pi) es mayor que en la
superficie (Ps) debido al peso del propio fluido. Tenemos:

Pi = Ps + Peso del fluido Pi


= Ps + Fg/A
- La presión en un fluido es la misma para todos los puntos de igual profundidad y la diferencia
de presión entre dos puntos A y B a diferentes alturas está determinado por:

Pi = Ps + d . g . h

PRINCIPIO DE ARQUIMEDES.

Recuerden la famosa historia entre Hierón rey de Siracusa (Siglo III AC) y Arquímedes. Hierón
entregó una cantidad de oro a un joyero para elaborar una corona, pero sospechaba de un
engaño. Encargó a Arquímedes para determinar si la corona estaba hecha de oro puro o había
sido adulterada, obviamente, no debería dañarse la corona. Absorto en la preocupación para
solucionar el problema tomó un baño y para suerte de él, la tina estaba algo llena y mientras se
sumergía descubrió la solución al enigma. Cuenta la leyenda que salió desnudo de las calles de
Siracusa gritando Eureka! que significa lo hallé o lo encontré.

El principio de Arquímedes es un principio de Hidrostática y consiste en que las cosas pesan


menos cuando se sumergen en el agua ya que pasan de una zona de menor densidad a otra de
mayor densidad. Cuando sumergimos un objeto en un fluido como el agua, el objeto presiona el agua
y también el agua ejerce presión sobre el objeto, lo que causa el cambio de peso del objeto
sumergido. Se podría definir de la siguiente manera: “LA PÉRDIDA DEL PESO DE UN OBJETO
SUMERGIDO EN UN FLUIDO ES IGUAL AL PESO DEL FLUIDO DESPLAZADO”.

En ocasiones el principio de Arquímedes se define en términos de la fuerza que el


fluido ejerce en el objeto sumergido, a esto se denomina la fuerza de empuje (FE) y ésta es
igual al peso del fluido desplazado o a la variación del peso del objeto sumergido. Hallando
cualquiera de estas dos cantidades determinaremos la fuerza de empuje (FE). Siempre se debe
considerar a la fuerza de empuje con una dirección contraria a la gravedad, debido a que las partes
inferiores de un objeto sufren mayor presión que las partes superiores en el fluido.

En Medicina el principio de Arquímedes se usa mucho en fisioterapia, los pacientes que han
sufrido fracturas o lesiones parecidas empiezan a fortalecer sus músculos y a aumentar
su fuerza realizando ejercicios sumergidos en tinas ya que de ésta manera sus cuerpos pesarán
menos.

VARIACION DE LA PRESION CON LA PROFUNDIDAD

En el esquema analizado, si aplicamos el principio de Pascal, podemos darnos


cuenta que en el punto B existirá una mayor presión, debido a que se encuentra a una mayor
profundidad. SI calculamos la diferencia entre las fuerzas obtendremos la fuerza de empuje (FE)

Así tendremos que:


EMPUJE Y DENSIDAD

Existe una relación directa entre presión y fuerza y entre densidad y presión F = PxA (A mayor presión,
mayor fuerza)
P = d . g. h (A mayor densidad, mayor presión)
En conclusión cuanto más denso sea un fluido, habrá mayor presión en él y ejercerá una mayor
fuerza de empuje.

APLICACIÓN
¿Por qué flotamos más fácilmente en el agua de mar que en la piscina?
3 3
Porque el agua de mar (d = 1025 Kg/m ) es más densa que el agua de la piscina (d = 1000 Kg/m )
y por lo tanto la fuerza de empuje que ejerce el agua de mar es mayor.
Una bola de hierro se hunde fácilmente en el agua pero no en el mercurio.
¿Por qué?
¿En cuál de los dos fluidos existe mayor fuerza de empuje? COMPORTAMIENTO DE UN SÓLIDO
EN UN LÍQUIDO.

Los sólidos al sumergirse en un líquido son empujados hacia arriba, a esta fuerza vertical
se llama EMPUJE
Pueden darse tres situaciones:
1. Si el peso del objeto es mayor a la FE , el objeto se hunde. Entonces el volumen desplazado es igual al
volumen del objeto y la densidad del objeto es mayor a la densidad del líquido.
2. Si el peso del objeto es menor a la FE, el objeto flota. Entonces el volumen desplazado e igual al
volumen del objeto que se encuentra debajo de la superficie del líquido y la densidad del objeto es
menor a la del líquido.
3. Si el peso del objeto es igual a la FE, es decir están en equilibrio, el objeto queda suspendido dentro
del líquido. Esto es conocido como el EMPUJE NEUTRO. Aquí la densidad del objeto es igual a la
densidad del líquido.

FUERZAS DE COHESION Y ADHESION.

Las fuerzas de cohesión son aquellas que se establecen entre las partículas de una
sustancia, mientras que las fuerzas adhesión ocurren entre las partículas de dos sustancias
diferentes. En los fluidos las fuerzas cohesivas son muy débiles.
Muchas veces preguntamos a nuestros alumnos si saben por qué el agua moja y
recibimos respuestas muy peculiares. Lo cierto es que esto le ocurre a las fuerzas de adhesión. El
agua nunca mojará a una superficie con la que no se pueda adherir, por ejemplo: a un papel
encerado o a los plásticos impermeables, pero si colocamos algunas gotas de agua en papel
periódico veremos cómo sus moléculas se adhieren prontamente.

VISCOCIDAD.

También es una característica de los fluidos y se puede definir como la resistencia a fluir,
existen muchos ejemplos como la miel, los aceites para motores de automóvil y la melaza.
Estos fluidos se caracterizan por tener mayores fuerzas cohesivas y un flujo muy lento,
se puede explicar cómo que las partículas tienen mucha dificultad para separarse unas de
otras y por lo tanto, cuando baja la temperatura, la viscosidad aumenta
El vidrio puede considerarse como un fluido con la más alta viscosidad, tanta que no le
permite fluir. Por otro lado, la sustancia que tiene la menor viscosidad determinada por el hombre
es el helio líquido al que se le considera un superfluido. La sangre tiene un rango de viscosidad
constante en una persona normal ya que la temperatura en el cuerpo humano se mantiene constante.

EL PRINCIPIO DE BERNOULLI

Debido de que acabamos de hablar de las sangre y ésta es un fluido en movimiento,


permítanme proponer un concepto de hidrodinámica.
Daniel Bernoulli fue un físico matemático suizo que vivió en el siglo XVIII y fue el que utilizó por primera
vez el término hidrodinámica.
Su contribución consistió en describir por vez primera el efecto que ejerce la velocidad
sobre la presión en un fluido en movimiento. Observe el diagrama
Según el diagrama: ¿Por qué la presión disminuye cuando la velocidad del
fluido se incrementa y por qué aumenta cuando la velocidad se reduce? Este capítulo se tratará en
detalle en el seminario de Hidrodinámica.

TENSION SUPERFICIAL

Si llenamos completamente un vaso con agua y observamos detenidamente, veremos que


la superficie del agua “se curva’ y que al agregar agua lentamente y luego gota a gota, ésta no se
cae del vaso con facilidad. Este fenómeno lo podemos explicar con la tensión superficial.

El límite entre el agua y el aire es lo que denominamos la interfase. A nivel molecular


observamos que a causa de las atracciones intermoleculares (Fuerzas de cohesión), las moléculas
en la superficie son atraídas hacia el interior del líquido, determinando que el líquido tienda a
minimizar su superficie. Este fenómeno de atracción de moléculas superficiales hacia el interior
del líquido, ocurre lentamente y por ello podemos decir que existen más moléculas del lado del
líquido que del lado del aire y por lo tanto las del lado del líquido ejercen mayor fuerza de
cohesión y llegamos a la conclusión de que no existen superficies ya que veremos moléculas
de agua saliendo hacia el aire y viceversa.

Estas fuerzas de cohesión ejercida en mayor intensidad y en mayor cantidad sobre las
moléculas de la superficie es lo que llamamos tensión superficial. De esta forma resulta sencillo
entender el porque las gotas y en general la superficie de los líquidos adoptan la forma convexa.

La tensión superficial NUNCA aumenta pero sí puede disminuir por acción de agentes
surfactantes o tensioactivos.
AGENTE SURFACTANTE O TENSIOACTIVO

Es toda sustancia capaz de reducir o romper la tensión superficial, pueden ser sales como el
cloruro de sodio, los lípidos y las ácidos grasos. Los jabones y las proteínas desnaturalizadas
son los mejores surfactantes.

En el cuerpo humano encontramos agentes surfactantes tales como las enzimas


lacrimales, las enzimas salivales, el jugo biliar y el surfactante pulmonar.

A nivel pulmonar, la secreción mucosa que recubre los 200 m 2 de superficie alveolar tiene
una tensión superficial de 50 din/cm, requiriendo de una gran presión para romper las
fuerzas de cohesión y expandir un alvéolo. Como se estudiará más adelante, el surfactante
pulmonar producido por los Neumocitos tipo II, reduce drásticamente la tensión superficial y
por lo tanto se requiere de menor presión para expandir un alvéolo.

CAPILARIDAD

Es el ascenso de un fluido a lo largo de un tubo o capilar.

EL VACIO

La noción de que el aire ejerce presión, es usualmente más fácil de entender que el
concepto del vacío, ya que el vacío es nada !!!. Platón y Aristóteles manifestaban que el
vacío no existe y era imposible, ya que la naturaleza aborrece el vacío. Tal vez por eso
es que este concepto es a menudo difícil de aceptar. Por la época de Galileo, se empezó a
aclarar la situación a cerca del vacío y se tenía la noción de que la materia viaja hacia los espacios
vacíos debido a su mayor presión.
Uno de los primeros vacíos en ser reconocidos fue el llamado vacío Torricelli logrado
por Evangelista Torricelli (asistente y sucesor de Galileo en Florencia) durante su
experimentación acerca de la presión atmosférica.

A Torricelli se le acredita la invención del primer barómetro llamado también tubo de


Torricelli.

De manera sencilla éste tipo de barómetro consiste en un tubo de aproximadamente un


metro de longitud, lleno de mercurio que se coloca de manera invertida dentro de un
recipiente que también contiene mercurio. El peso del mercurio que es 13,6 más denso que
el agua, causa que el mercurio descienda desde el tubo hacia el recipiente, pero no consigue
evacuarse totalmente, debido a que la presión atmosférica que ejerce el aire sobre la
superficie del recipiente, se trasmite (por el principio de Pascal) a todo el fluido y logra detener
el descenso de la columna de mercurio. Como el descenso es parcial, en la parte superior del
tubo, queda un vacío.

En conclusión vacío es ausencia de materia, ausencia de moléculas de aire y por lo


tanto no hay presión. En realidad no existe el vacío absoluto, siempre quedará algo de
materia, algunas moléculas.

27
SEMINARIO N° 9
HIDROSTATICA MÉDICA II.
La Presión Arterial y la Presión Venosa.

INTRODUCCIÓN

Si aplicamos los conocimientos de la hidrostática al estudio e interpretación del


funcionamiento de nuestro organismo, llegaremos a la conclusión de que es el aparato
cardiovascular el ideal para encontrar momentos fisiológicos que requieran de
aplicación física.
El aparato cardiovascular es una red compleja de tubos de diverso calibre
que son los vasos sanguíneos, por los que transita un fluido viscoso que es la sangre,
impulsada por una bomba aspirante e impelente, que es el corazón.
Evidentemente las aplicaciones físicas más importantes para la comprensión de
la fisiología cardiovascular, se dan en los conceptos de hidrodinámica que veremos en
el próximo seminario, pero también se pueden aplicar los conceptos de hidrostática ya
que la sangre no fluye con la misma velocidad por todos los vasos sanguíneos.
El aparato cardiovascular posee tres tipos de vasos sanguíneos, las arterias, los
capilares y las venas. De los tres son las arterias las que poseen la mayor velocidad y
presión, mientras que en las venas ocurre todo lo contrario, realizando una
generalización, podríamos decir que la sangre casi se encuentra estática. También
podríamos aceptar que al medir la presión arterial en una persona estamos
generalizando a la sangre corno si estuviera sin movimiento, esto toma su máxima
importancia cuando hacemos la medición de la presión arterial teniendo en cuenta la
postura de la persona.

¿Qué tipo de aparato circulatorio tiene el ser humano?


¿Qué vasos tienen mayor presión?
¿De dónde procede la presión de las arterias?
¿Qué vasos tienen sangre con mayor velocidad?

28
LA PRESION ARTERIAL

La primera medición de la presión arterial, fue realizada por Stephen Hales en el


año de 1733. Hales colocó un tubo de vidrio lleno de agua (de manera vertical)
penetrando sobre la arteria femoral de un caballo, encontrando que la sangre se elevó
hasta una altura de tres metros por encima del nivel del corazón del caballo. Esto
equivale a la altura de una columna de mercurio de
188 mm.
Claro que en la actualidad se utilizan tubos con mercurio ya que su mayor
densidad permite medir la presión arterial mediante un tubo relativamente
corto. (Diagrama N°2)

Diagrama N°2

En medicina la medición de la presión arterial la realizamos mediante un


instrumento clínico llamado esfingomanómetro o también tensiómetro. Existen de
varios tipos, siendo los modelos más difundidos el denominado aneroide ( de
“reloj”) cuyo manómetro tiene forma circular y es accionado por presión de aire y el
tensiòmetro de mercurio, que es sin lugar a dudas el más exacto y el que muy rara vez
se “descalibra”. El denominado tensiómetro de mercurio es y será siempre el
tensiómetro de referencia, con una eficacia y resistencia mucho mayor que las que
atribuyen a los tensiómetros electrónicos o digitales modernos.

29
La presión a una determinada profundidad del líquido es siempre la misma en
todas las direcciones, esto lo conocemos como el principio de Pascal, y esta
presión puede calcularse mediante la ecuación: P = h.d.g. También sabemos que la
forma del recipiente no altera el valor de la presión así en el esquema siguiente:

La presión en los puntos señalados (a la altura Fi), será la misma sin importar la
forma de los recipientes. Esto se confirma de manera intuitiva debido que los
niveles de la superficie del líquido son iguales.

En fisiología médica consideramos a la presión atmosférica como nuestro


punto de referencia (presión cero (0) ). Así las presiones mayores a la atmosférica las
consideramos “positivas” y a las menores “negativas”. De tal manera que cuando
decimos que una persona tiene una presión arterial de 90 mm de Hg, estamos
manifestando que es una presión 90 mm Hg por encima de la presión atmosférica.
La presión hidrostática causada por la altura de una columna de líquido es muy
importante en fisiología cuando se tiene en consideración la postura.
La presión arterial que medimos en los pies de una persona que se encuentra
echada “boca arriba” (decúbito dorsal), es esencialmente la misma que posee en el
corazón o con mayor precisión, en la salida de la aorta; por que todos los vasos
sanguíneos están a nivel cero. Cuando se pone de pié, lógicamente debemos aumentar
la presión hidrostática causada por la columna de sangre de los vasos arteriales que se
encuentran por encima de los pies.

30
Si ésta columna tiene una altura de 130 cm, se suma una cantidad de
100 mm Hg, esto debido a que la densidad del mercurío es aproximadamente
13 veces la de la sangre.

Esta situación implica que un médico siempre tiene que tener en cuenta que el
punto referencial para considerar un nivel cero en la medición de la presión arterial
será el nivel del corazón. Por lo tanto cuando se realizan las mediciones de la presión
arterial, los manómetros (esfigmomanómetros) utilizados deberán estar ubicados a la
altura del corazón. También los manguitos deberán aplicarse en el brazo a la altura del
corazón.
Es ya una convención que se mida la presión arterial sobre la arteria braquial,
por encima del codo y como ya hemos dicho, a la altura del corazón. El paciente
puede estar sentado.

31
Existe la poco significativa controversia acerca del brazo que debe utilizarse
para la medición de la presión arterial, los puristas manifiestan que el brazo elegido
siempre debe ser el izquierdo, debido a una consideración anatómica.
Una de sus tareas para este seminario, será averiguar acerca de la conveniencia
de medir la presión arterial en el brazo izquierdo. Les doy una pista en el siguiente
diagrama:

En realidad la presión arterial puede medirse sobre cualquier arteria, no sólo la


braquial, esto implica que también se pueda medir sobre las arterias de los miembros
inferiores, pero lógicamente el requisito indispensable es que el paciente deba estar
echado.

32
TIPOS DE PRESION ARTERIAL

Todos los valores de presión arterial que hemos utilizado en el diagrama N°5
son valores promedio, o para ser más precisos son valores de Presión Arterial Media
(PAM).
Esto implica que existan varios tipos de presión arterial. El asunto es así: Sabemos que
la presión arterial es la fuerza que ejerce la sangre sobre
las paredes arteriales.
Sabemos también que existen dos momentos fisiológicos importantes, uno
cuando la fuerza que ejerce la sangre sobre las arterias se ve incrementada por
la contracción del ventrículo, es decir con la sístole o momento en el que el
corazón impulsa la sangre por las arterias.
El otro es, cuando la fuerza de contracción del ventrículo ya no se ejerce sobre
la sangre, es decir es el momento del reposo del corazón o diástole. En este instante la
presión dependerá solamente del volumen sanguíneo y del estado de la pared arterial,
si se quiere físicamente será más hidrostática y menos hidrodinámica.
De esta manera se determinan los dos tipos principales de presión arterial.

La Presión Arterial Sistólica (PAS), que como su nombre lo indica es la que


depende de la sístole es decir del momento fisiológico de contracción del corazón, en
una persona adulta normal, su valor de aproximadamente 120 mm Hg. Como es el
valor más alto que se mide, se le suele llamar presión máxima.

La Presión Arterial Diastólica (PAD), es aquella que depende del volumen


sanguíneo y del estado de las paredes arteriales, se establece durante el intervalo
en el que el corazón “descansa” es decir durante la fase de diástole. Su valor en una
persona adulta normal es aproximadamente de 80 mm Hg. Claro ya se dieron cuenta
que será el valor más pequeño y por lo tanto se le denomina también presión mínima.

33
Como los momentos de sístole se producen de manera secuencial y constante,
se determina una presión arterial calculada, para utilizarla como promedio, esta es la
denominada.
Presión Arterial Media (PAM), que se define como la presión promedio con la
transita la sangre por todo el sistema arterial y se calcula con la siguiente ecuación:

Presión de Pulso (PP), es otra presión calculada se denomina también


diferencial y se calcula restando la presión diastólica a la sistólica.

MEDICION DE LA PRESION ARTERIAL.

Aunque la medida de la presión arterial es hoy día una exploración rutinaria, siguen
siendo los resultados de la misma los que permiten diagnosticar la hipertensión,
independientemente de otras exámenes o test de laboratorio. Su correcta
determinación reviste, por tanto, gran importancia ya que una sobrestimación de la
misma puede inducir un diagnóstico erróneo en un enfermo sano con la probable
aplicación de un tratamiento innecesario.

La medida de la presión arterial deberá ser, por tanto, realizada con un equipo
adecuado que garantice su exactitud y reproducibilidad tanto individual como
interindividual. Existen dos métodos el directo y el indirecto.

El método directo
se puede realizar acoplando mediante una aguja catéter una arteria a un tubo
manómetro en forma de “U” que contenga mercurio (semejante al mostrado en el
diagrama N°2). Obviamente esto no se realiza de manera corriente y práctica ya que
implica punzar una arteria lo que siempre tiene sus riesgos.

El método indirecto, es el que se utiliza de manera corriente, se realiza


mediante un esfigmomanómetro. El fundamento es el siguiente; procedemos a inflar
una, manga o “manguito” neumático, que previamente hemos colocado alrededor del
brazo. Al inflarse esta especie de globo transmite la presión de manera indirecta por
los tejidos del brazo hasta llegar a la arteria braquial

34
comprimiéndola y colapsándola. En este momento la circulación en la arteria
disminuye al mínimo.
Mediante un estetoscopio auscultamos a la arteria en la región cercana al
codo (distal al manguito) en la zona correspondiente al área del hueso cúbito, es
decir la proyección del dedo meñique.

Una vez establecida una presión mayor a la sistólica, se “desinfla” el manguito


de manera gradual, sostenida y lenta. Al ir diminuyendo la presión del manguito, el
flujo en el vaso se restaura originando unos ruidos característicos del flujo turbulento
que progresivamente pasa a flujo laminar y que permiten el cálculo de las presiones
arteriales diastólica y sistólica.

En determinado momento, se escuchará un primer ruido característico


denominado en medicina “ruido de Korotkov”, esto marcará la presencia de la presión
sistólica. Los ruidos seguirán apareciendo hasta que varíen de tono y finalmente
desaparezcan. Esta última situación determinará la presencia de la presión diastólica o
mínima. Existen dos tendencias que consideran el inicio de la presión diastólica en
momentos diferentes, algunos indican que la presión diastólica debe medirse cuando
los ruidos de Korotkov cambian de tono, mientras que otros determinan el valor de la
presión diastólica cuando desaparecen los ruidos. Esto en realidad no tiene mucha
importancia ya que la diferencia entre uno y otro suele ser de entre 5 a 10 mm Hg.

La Asociación Americana de Cardiología más eclécticamente, permite que se


informen los dos valores como presión diastólica si así lo prefiere el médico. De esa
manera no es raro encontrar en los textos norteamericanos expresiones como la
siguiente: Presión Arterial 120 / 75 - 70 mm Hg. Lo que quiere decir que el profesional
que ha medido la presión arterial encontró en el paciente una presión arterial sistólica
de 120 mm Hg y una presión arterial diastólica cuyos ruidos de Korotkov cambiaron de
tono a los 75 mm Hg y cesaron a los 70 mm Hg.

35
FACTORES QUE INFLUYEN

Para que las medidas de la presión arterial sean reproducibles por otro observador, es
necesario estandarizar el procedimiento, teniendo en cuenta los factores que influyen:

• Ambiente: Lo ideal, es que el local donde se realice la medida, deba ser lo más
tranquilo posible, sin ruidos y con una temperatura e iluminación agradables.
• Paciente: el paciente deberá permanecer en reposo durante 5 minutos antes
de efectuar la medida de la presión, sentado confortablemente en un sillón
adecuado con el brazo a explorar relajado y apoyado, con la palma hacia arriba.
El brazo debe estar descubierto.
• Observador: los profesionales que realizan las medidas de la presión
arterial deberán tener un entrenamiento similar. Deberán estar
familiarizado con el sonido del estetoscopio y tener la capacidad de discriminar
sonidos correspondientes a las fases de Korotkov.

36
Preguntas para discutir:

01. Si una persona acude al médico y al medirle la presión arterial se anota en la


historia clínica el siguiente valor: PA 100/70 mmHg
Determine la presión arterial media. Halle la presión de pulso.

02. A qué presión promedio transcurre la sangre de una persona con una
presión sistólica de 160 mm Hg y una presión diastólica de 100 mm Hg.

03. ¿Qué ocurriría si una persona tuviese una presión de pulso igual a cero. Puede
ocurrir éste fenómeno?

04. ¿Qué importancia tiene medir la presión arterial?

05. ¿Qué significa que una persona tenga presión arterial normal?

LA PRESION VENOSA.

Al inicio del seminario, manifestamos que en las venas es donde la presión


sanguínea es mínima y la velocidad de la sangre también, por lo tanto la interrogante
obligada será acerca de las determinantes de la presión venosa.

‘Claro, la primera pregunta sería si, ¿las venas tienen presión?

• La respuesta es que sí, pero su valor es bajo, ya que las altas presiones que se
establecen en las arterias disminuye dramáticamente en los capilares y como
nuestro aparato circulatorio es cerrado, luego de pasar por los capilares, la sangre
llega a las venas que actúan como reservorios o vasos de captación de volumen
(de capacitancia).

• Luego podemos decir que el sistema venoso es convergente (lleva de regreso


al corazón), trabaja a bajas presiones y grandes capacidades o volúmenes.

• Por lo tanto el primer factor de la presión de la sangre venosa será el


volumen sanguíneo. El volumen sanguíneo en las venas es el 75% del total
existente en nuestro organismo, mientras que en las arterias manejan el 20% del
volumen total; y el 5% restante se encuentra en los capilares.

• Si consideramos los valores de la presión venosa, nos daremos con la


sorpresa que en los pies existe una presión de aproximadamente 13 a 15 mm Hg
mientras que en el corazón (aurícula derecha) es de O (cero) a 3 mm Hg. Esto
obviamente despierta la curiosidad e inmediatamente nos preguntamos y ¿Cómo
hace el organismo para mejorar el flujo de la sangre venosa hacia el corazón?

37
Con una gradiente tan baja (13 - 3 = 10 mm Hg), el organismo activa ciertos
mecanismos para mejorar el retorno venoso hacia el corazón.

FACTORES QUE FAVORECEN EL RETORNO VENOSO

1. Las válvulas venosas bicúspides o de Galeno, son válvulas uni


direccionales que permiten el flujo sanguíneo solo hacia el corazón y que
se encuentran particularmente en las venas de las extremidades, sobre todo
en las venas que tienen un diámetro mínimo de un milímetro. Su deterioro o
falta congénita, determina la dilatación de las venas afección que
denominamos várices.
Las venas intratoráxicas, cerebrales e intraabdominales no poseen dichas
válvulas.

38
2. El masaje o “bomba” muscular, la sangre “atrapada” en las venas de los
miembros inferiores puede movilizarse mediante el movimiento muscular
isotónico propio del ejercicio o por contracción isométrica de los músculos
de los miembros inferiores. Se puede llegar a producir hasta una presión de
85 mm Hg de ésta manera, esto produce una compresión a manera de
chisguete que dirige la sangre hacia el corazón.

Hidrostáticamente podemos entender que una persona en posición de pie o


sentada generará mayor presión en la parte inferior de la columna hidrostática (la
sangre), esto debido a que nuestro sistema circulatorio no tiene vasos rígidos sino más
bien distensibles. Esta situación se modifica gracias a la contracción muscular y la
presencia de las válvulas venosas. (Ver diagrama N°9).
Seguramente en alguna ocasión han permanecido por mucho tiempo de pie o
sentados (en un viaje en automóvil, por ejemplo) y deben haber tenido la sensación de
presentar los pies “hinchados” (los zapatos ajustados), esto demuestra simplemente el
aumento de la presión hidrostática a nivel de sus pies. Luego al llegar a su destino o en
algún momento de descanso durante el viaje, el chofer suele decir “señores bajen
para que estiren las piernas” y ustedes bajan a “estirar las piernas” y las
molestias terminan. Pero lógicamente, como buenos estudiantes de medicina
ninguno de ustedes creerá que sus piernas se han estirado, sino sería el método más
seguro para aumentar de talla. Lo cierto es que al caminar ponen en
funcionamiento a la

39
“bomba” muscular y de esa manera se moviliza mayor cantidad de sangre y la
presión de la columna hidrostática disminuye.

3. La presión negativa del tórax, este factor se debe a que los pulmones dentro
del tórax se encuentran “inflados”, es decir como si nosotros tuviésemos un
globo invertido dentro de nuestra boca y luego aspiremos para inflarlo pero
dentro de nuestra boca. El globo permanecerá inflado mientras hagamos
succión, es decir menor presión que la atmosférica (presión negativa). Pues de
esa misma forma se encuentran nuestros pulmones dentro del tórax.
Entenderán que durante el proceso de “tomar” aire o inspiración, la presión
se hace más negativa y por eso el aire ingresa mientras que en el proceso de
espiración el pulmón regresa a su “inflado” normal. El asunto finalmente
implica que el tórax permanentemente tiene presión negativa que se hace más
negativa durante la inspiración (rangos de -3 a -4 mm Hg o de -3 a -7 mm
Hg), esto obviamente ayuda al retorno de la sangre venosa desde los miembros
inferiores hacia el corazón (que se encuentra en el tórax). De manera muy
simplista, es como si el tórax “succionara” la sangre de las piernas hacia el
corazón.

4. El vis at ergo, esta frase latina debe interpretarse como la fuerza remanente o
residual o inercia, que proviene de la gran parte que disminuye casi en su
totalidad a nivel de los capilares. Pero siempre algo queda, este remanente,
discreto, casi insignificante pero existente es el llamado vis at ergo.

Estos son pues, los factores que determinan la presión venosa y


favorecen su retorno al corazón.

40
A. Valores considerando una columna sanguínea hidrostática continua.
B. Valores con la interrupción por la contracción de los músculos esqueléticos.

Tarea N° 5: RESOLVER EN EL PPT

01. ¿Qué comentarios puedo hacer sobre el estado de una persona que tiene presión
venosa (central) con valores normales?

02. ¿Y si tiene valores elevados, que comentarios le merece?

03. ¿Y si los valores se encuentran bajos o muy bajos, qué pasará?

04. ¿Cómo cree que se mide la presión venosa? ¿Existen esfigmomanómetros venosos?

05. ¿Qué es más grave que una persona se corte una arteria, o una vena?
¿Por qué?

OBLIGATORIO PRESENTAR EN LA SIGUIENTE CLASE:

Leer la Lectura Hipertensión y Efecto de la Bata Blanca:

1. Hacer un cuadro sinóptico o mapa conceptual de la lectura.


2. ¿Qué opina sobre el caso?
LECTURA

Rev Cubana Cardiol Cir Cardiovasc 2010;16(1):17-24

Hipertensión y efecto de bata blanca

The high blood pressure and the white coat effect

Dr. Sc. David García BarretoI; Dr. Ernesto Groning RoqueII; Dr. Raymid García FernándezI; Dr. Sc.
Prof. Alberto Hernández CañeroI

I
Instituto de Cardiología y Cirugía Cardiovascular. Ciudad de La Habana, Cuba.
II
Facultad de Ciencias Médicas Dr. Miguel Enríquez. Ciudad de La Habana, Cuba.

RESUMEN

La hipertensión de bata blanca (HTABB) es aquella en que la presión arterial en el consultorio o en el


hospital, es mayor que fuera de ellos. Es una variable discreta (todo o nada), que tiene el riesgo de
que se catalogue a una persona normal como hipertensa. El efecto de bata blanca (EBB) es aquel en
que la presión arterial en la consulta, es más alta que el promedio de presiones registradas fuera del
medio hospitalario. En este caso se trata de una variable continua y el paciente puede ser hipertenso
o no. El EBB puede magnificar o sobrevalorar la hipertensión. Ambas entidades son debidas a una
respuesta adrenérgica causada por alarma y son más frecuentes de lo que se supone. También
ambas entidades pueden llevar al diagnóstico erróneo de resistencia al tratamiento, en cuyo caso el
paciente se ve expuesto a efectos adversos de la medicación. La persona con HTABB es
habitualmente normotensa, no tiene ataque a órgano diana y no requiere tratamiento
antihipertensivo.

Palabras clave: Hipertensión arterial, tratamiento, bata blanca, diagnóstico, prevalencia.

ABSTRACT

White coat hypertension characterizes persons who have higher blood pressure in a clinical
environment however normal during activity in other surroundings. It is a discrete (yes or no)
variable that has the risk of being confused with true hypertension. The white coat effect is a
continuous magnitude that reflects a common increase in blood pressure by the presence of a
doctor. In this case the subject can be hypertensive or not. White coat effect can over-estimate
blood pressure. Both entities are caused by an adrenergic alarm response, and they are more
frequent than supposed. Also they can mislead and cause pseudo resistance to treatment exposing
the patient to adverse effects. White coat hypertension occurs mostly in patients with normal blood
pressure, without target organ damage who do not need antihypertensive drug treatment.

Key words: High blood pressure, white coat, treatment, prevalency.


INTRODUCCIÓN

La hipertensión de bata blanca (HTABB) es aquella en la que la presión arterial está dentro de límites
considerados normales en el domicilio o en ambientes habituales, mientras que se eleva a cifras
consideradas de hipertensión en el consultorio o en otro medio hospitalario.1 Esta definición lleva
implícito que la persona con HTABB sea habitualmente normotensa y que tenga un bajo riesgo de
hacer hipertensión.2

El efecto de bata blanca (EBB) es la magnitud de presión arterial que habitualmente tiene una
persona cuando le registran la presión arterial en un consultorio o en un ambiente hospitalario. El
EBB se presenta en la gran mayoría de las personas, sean hipertensas o no, pero la medida en el
consultorio es más alta que el promedio de las medidas fuera de este. El efecto es una variable
continua, mientras que la HTABB es discreta, la persona la presenta o no.3 Todos los pacientes con
HTABB tienen EBB.

La HTABB puede confundirse con una verdadera hipertensión, mientras que el EBB puede causar una
sobrevaloración de esta. En ambos casos el error diagnóstico puede llevar a la administración
innecesaria de medicamentos antihipertensivos.

En la figura 1 puede verse una gráfica obtenida por un MAPA de una persona con HTABB, mientras
que en la figura 2 puede observarse uno con el EBB.

Esta revisión hace un recuento de nuestra experiencia con la HTABB, el efecto de bata blanca, y su
relación con el tratamiento médico empleando como medio diagnóstico el monitoraje ambulatorio
de la presión arterial (MAPA).

Prevalencia del efecto y de la HTABB

Más de la mitad de las personas tienen una presión arterial mayor en el consultorio que fuera de él.
Por otra parte, la HTABB depende mucho de la relación entre el supuesto paciente y el que registra la
presión arterial. Mancia et al.4midieron la presión intra-arterial en pacientes 5 a 7 días después de
ingresados en un hospital. A cada paciente se le advirtió que en algún momento pasarían a tomarle
la presión arterial en el brazo que no estaba cateterizado. La mitad de las veces un médico hizo el
registro; en las restantes, fue una enfermera la encargada de hacerlo. Cuando el médico hizo la
primera lectura, la presión arterial se elevó en promedio 22/14 mm Hg con un máximo de 74 mm Hg
y no disminuyó a niveles basales hasta pasados 10 minutos. En cambio, cuando la enfermera realizó
los registros, la elevación de presión no llegó ni a la mitad de las encontradas por el médico y se
recuperó antes de 10 minutos. En otra experiencia semejante Little et al.5 corroboraron estos
resultados.

Dependiendo del entorno, del procedimiento diagnóstico del que registra la presión y, sobre todo,
del límite de presión que se considere normal, la prevalencia de HTABB varía de 12 % a 53,2 %. 6 En
nuestra experiencia es más de un 20 % empleando MAPA como medio diagnóstico.

Se ha planteado que la prevalencia aumenta con la edad del paciente y que es particularmente alta
en aquellos de edad avanzada con hipertensión sistólica aislada.7,8
FISIOPATOLOGÍA

Aunque la fisiopatología ha sido poco estudiada es evidente que la HTABB es una respuesta
adrenérgica de alerta ante el peligro de ser declarado hipertenso o descontrolado, a pesar del
tratamiento. Mucho de esto se genera de la frase tremendista: "la hipertensión es un asesino
silencioso". No obstante, esta observación sólo está fundamentada en la similitud que tiene la
elevación de la presión con la que se produce cuando se aplican pruebas para buscar una descarga
adrenérgica, como la aritmética oral, las tarjetas Stroop, la introducción de una mano en agua
helada, etcétera. Por ejemplo, la paciente de la figura 1, con una respuesta clara de HTABB, fue
sometida a una prueba de matemática oral entre 8 y 8:30 h. En esta prueba se le pidió que restara 7
de un número de 3 cifras y que siguiera restando 7 de cada resultado obtenido; todo ello sin
equivocarse y a la mayor rapidez posible. Como puede verse, presentó una elevación de la presión
sistólica y de la frecuencia cardiaca con menor efecto de bata blanca que cuando se hizo el primer
registro en la consulta, pero semejante en duración y con magnitud mayor que la del promedio en
actividad. Durante la noche presentó otra elevación sistólica porque, según relató, se levantó de la
cama por haber oído un ruido.

Las tarjetas Stroop, llevan el nombre de un color escrito en otro color, por ejemplo: el nombre rojo
escrito en verde. Se le pide a los pacientes que digan el nombre del color (verde) y no lo que está
escrito mostrándole las tarjetas rápidamente.9

Diagnóstico de HTABB

La presión arterial en medios habituales puede medirse con:

1. Un esfigmomanómetro en el domicilio o trabajo del paciente por una persona allegada, entrenada
y que maneje un aparato bien calibrado. Las medidas deben hacerse en días diferentes, al menos 5
veces y comparar con los de la consulta (2 veces por lo menos).

2. Un aparato digital para el registro personal.

3. Un registro ambulatorio de 24 h (MAPA) haciendo la primera o las 2 primeras medidas en la


consulta.

Se debe sospechar la HTABB:

· Cuando el paciente refiere presentar cifras consideradas normales que alternan con cifras ligeras o
medianamente elevadas, sobre todo, de presión sistólica.

· Cuando hay gran diferencia entre una y otra medida realizada en la consulta.

· Cuando no hay evidencia de afectación hipertensiva a un órgano.

· Cuando a pesar de controlar los factores de riesgo y en particular, la ingesta de sodio y la obesidad,
la presión arterial no disminuye con el tratamiento médico bien administrado.

· Cuando a pesar de tener tiempo de evolución, la supuesta hipertensión no ha causado daño a


órganos diana.
La HTABB no sólo suele confundirse con una forma ligera o moderada de hipertensión primaria sino
también con otras causas de hipertensión transitoria como por ejemplo: el dolor o la ansiedad que
éste provoca, fumar un cigarro aproximadamente media hora antes de medirla10 o tomar café o té
unos 15 minutos antes.11 Una causa frecuente de hipertensión transitoria en la consulta es la del
paciente al que se le registra la presión con la vejiga urinaria llena. La vejiga posee barorreceptores
que se activan y mandan señales adrenérgicas cuando la pared se distiende.12 Esto provoca elevación
de la presión arterial que vuelve a la normalidad cuando el paciente orina. Una causa de sesgo en el
diagnóstico de hipertensión es el registro en el hospital cuando el paciente va a ser sometido a un
estudio y mucho más si este es cruento. En estos casos es raro que no presente HTABB. Otro medio
donde es habitual que se presente la HTABB es en el Cuerpo de Guardia, sobre todo, si hay dolor.

Pronóstico

El pronóstico de la HTABB y el del efecto de bata blanca se plantea que es benigno, pero hay pocos
trabajos que hayan seguido la historia natural del proceso durante mucho tiempo.13

Pickering et al.14 han encontrado que en 3 a 5 años, de un 10 a un 30 % de los que presentan HTABB,
evolucionan hacia una hipertensión. Aunque el verdadero pronóstico está determinado por la
morbilidad y la mortalidad, más que por las cifras de hipertensión. Pierdomenico SD., et al.15 han
encontrado que el riesgo de morbimortalidad es intermedio entre el normotenso y el hipertenso
documentado, mientras que en un meta-análisis de 233 ensayos clínicos se llegó a la conclusión de
que la HTABB era parte inicial de la historia natural de una hipertensión establecida.16

El mayor problema radica en el error diagnóstico que puede o suele generar. En el caso de la HTABB:
ser declarado hipertenso sin serlo; mientras que en el EBB: sobrevalorar el grado o la intensidad de
las cifras de presión arterial. En ambos casos, el efecto reducido o nulo del tratamiento médico
puede llevar a que la persona sea considerada resistente al tratamiento, entendiendo como tal las
cifras de presión arterial (< 140/90 mm Hg ) que no disminuyen o no se acercan a las consideradas
normales a pesar de estar recibiendo 3 o más medicamentos antihipertensivos, incluido
diuréticos. Redon et al.17 plantean que la mitad de los pacientes catalogados como resistentes tienen
HTABB. En un estudio más reciente se le considera una de las principales causas de resistencia.18

Tratamiento

La HTABB no requiere tratamiento alguno, si acaso es necesario ayudar a establecer hábitos de vida
sanos que prevengan el desarrollo posterior de una hipertensión. El problema surge cuando el
paciente llega al médico tomando tres o más medicamentos antihipertensivos (Fig. 3). En primer
lugar, hay que compartir con él la sospecha de que sea una HTABB (no hay evidencia de afectación
de órgano diana, hay variaciones grandes entre tomas de presión de acuerdo con medio y quien la
registre, etc.). El objetivo es lograr que con un mínimo de medicamentos o sin el empleo de ellos, la
presión arterial se mantenga dentro de límites aceptables fuera del medio hospitalario.

Por supuesto, todo lo anteriormente expuesto pone en evidencia la necesidad de clasificar al


hipertenso, no solo por sus cifras de presión sino por el deterioro orgánico que ocasiona esta
entidad.
SEMINARIO 10
HIDRODINÁMICA MÉDICA I

INTRODUCCIÓN

Creo sin temor a equivocarme, que estamos preparados para acometer el entendimiento de los
principios de hidrodinámica que nos permitirán comprender la hidrodinámica del aparato
circulatorio que se denomina fisiológicamente HEMODINÁMICA, para el próximo seminario.

CONCEPTOS IMPORTANTES

• Líquido ideal.- Es aquel que no tiene rozamiento (viscosidad), es decir no ejerce resistencia al
desplazamiento o tránsito del mismo.
• Líquido real.- Es aquel que tiene rozamiento (viscosidad)

• Trayectoria.- Es el recorrido que genera una partícula de un líquido en movimiento. La velocidad de


la misma puede ser constante o no si es constante se dice que el régimen del fluido es estacionario.
• Flujo o caudal.- Este término siempre nos ocasiona algún problema en medicina, a diferencia de la
ingeniería nosotros manejamos el término flujo para los fenómenos de transporte a través de los
líquidos. Pero como el español es muy rico, los médicos y fisiológicos hemos adoptado el término
caudal para nombrar este concepto. Obviamente los dos términos son válidos pero vale la
aclaración. Algo más, en inglés no existe esta dicotomía y solamente se utiliza el término flujo (flow)
para ambas circunstancias. Ahora si flujo o caudal.
• Flujo o caudal.- Es la relación que existe entre el volumen de líquido que atraviesa una determinada
área de sección transversal en un tiempo dado.

∆V
FoC=
∆t

• Velocidad del caudal o velocidad de flujo.- Es el desplazamiento que realiza una partícula del
líquido en un tiempo determinado.
Si la partícula presenta una velocidad promedio de “v” y recorre una distancia “X” en un tiempo
dado; la expresión sería:

∆X = velocidad x ∆t

Durante ese tiempo (∆t) habrá atravesado un determinado volumen del líquido que puede
expresarse como área de la base por la altura.
∆V = Abase x h

Pero la altura será el desplazamiento realizado por la partícula, entonces:

∆V = Abase x ∆X

Reemplazando ∆X = v x ∆t tenemos:

∆V = Abase x velocidad x ∆t

Pasando ∆t al primer miembro de la ecuación, para obtener flujo,

Tenemos:

Flujo o Caudal = Abase x velocidad

F o C = Abase x velocidad
La conclusión que podemos obtener de esta ecuación es la siguiente:

Velocidad = Flujo o caudal , por lo tanto


Área de la base

Si el flujo es constante (como en la circulación sanguínea), a mayor área (sección transversal) le


corresponde menor velocidad.
Y esto como sabemos ocurre en los capilares.

EL PRINCIPIO DE BERNOULLI

En un seminario anterior, correspondiente a la hidrostática, tocamos de manera referencial este


tema y les manifesté que era un principio de hidrodinámica.

Antes una información complementaria. Daniel Bernoulli fue un científico suizo que nació en el
año de 1700. Descubrió que el aire que se mueve a mayor velocidad ejerce menos presión que el
aire que se mueve a menos velocidad. Este es el principio que logra que los aviones y helicópteros
vuelen. La forma de las alas y hélices esta hecha de tal manera que el aire que viaja por la
parte superior del ala viaja más rápido que el aire de la parte inferior de la misma. La razón es que
al ser curva en la parte superior, las moléculas de aire tienen que recorrer mayor distancia en el
mismo tiempo y por lo tanto lo hacen a mayor velocidad.

El principio de Bernoull indica “que la presión ejercida por un fluido disminuye a medida que la
velocidad del fluido se incrementa”.

Si consideramos un volumen constante de un líquido que se mueve a una velocidad también


constante tendremos un flujo o caudal constante.

Esto lo debemos entender de la siguiente manera, si tengo un tubo y por un extremo coloco un
“cilindro” de líquido por el otro se desalojará un “cilindro” equivalente del mismo líquido.
Para que esto suceda es necesario aplicar una presión (P) por un extremo, lo que origina el
desplazamiento del volumen, es decir se produce un trabajo.
Además el sistema que estamos diseñando, adquiere una determinada velocidad y por lo tanto
(como en los ejercicios de seminarios anteriores) aparece una energía cinética y si nuestro sistema
se encuentra a mayor altura que nuestro nivel referencial tendremos también energía potencial.

Resumiendo:

La energía que recibe el sistema será:

El trabajo que ocasiona su desplazamiento (W)

La energía cinética que le da la velocidad del desplazamiento (Ec)

La energía potencial de la altura con respecto al nivel de referencia (Ep).

El sistema = W + Ec +Ep

Pero como dijimos al inicio, el caudal es constante, por lo tanto la energía debe mantenerse
constante en los dos extremos del tubo.

Si los llamamos extremo 1 y 2 respectivamente tendremos:

E1 = W1 + Ec1 + Ep1

E2 = W2 + Ec2 + Ep2

Y como E1 = E2, tendremos:

W1 + Ec1 + Ep1 = W2 + Ec2 + Ep2

Ahora coloquemos las determinantes de cada uno de los


componentes de esta igualdad:

Del W será la Presión (P)


FÍSICA MÉDICA
De la Ec será: ½ m v2
De la Ep será D h

Todo esto, por lo ya estudiado anteriormente.


Entonces la ecuación formada puede expresarse de la siguiente manera:

P1 +½ m v12 + D h1 = P2 +½ m v22 + D h2

Ahora si realizan un análisis dimensional se darán cuenta que, cada uno de los sumandos tiene las
dimensiones correspondientes a la presión.

Asumiendo que nuestro sistema se encuentra al mismo nivel, tendremos que D h1 = D h2 y por lo
tanto se pueden cancelar.
Además sabemos que como la D = M/V. Podemos expresar M = D x V y
como el volumen es constante D = M.

Por lo tanto, la ecuación también será igual a:

De esta relación podemos sacar tres conclusiones:


FÍSICA MÉDICA

Al aumentar la velocidad, la presión disminuye y al disminuir la velocidad la presión aumenta.

Es decir hemos realizado la deducción el principio de Bernoulli. NOTA.- No tomamos en cuenta la


densidad porque es constante ya que se trata de un mismo líquido.

SEGUNDA:
Atendiendo al segundo sumando del primer miembro de la ecuación (1/2 D v2), tenemos que hemos
deducido una fórmula de presión de líquido en función a la velocidad, a ella la llamaremos presión
cinemática.
FÍSICA MÉDICA
TERCERA

Finalmente concluimos que la Presión Hidrodinámica, será la presión resultante de la presión


hidrostática más la presión cinemática de un fluido.

P. hidrodinámica = P. hidrostática + P. cinemática

A la luz de estos nuevos conocimientos analicemos este esquema ya presentado en un seminario


anterior:

Fenómeno de Venturi

Como se muestra en la figura, en la parte de mayor constricción (B) la velocidad aumenta y por lo
tanto se incrementa la incrementa cinética.
Como la energía debe mantenerse constante la presión hidrostática en ese punto disminuye.

En B: P2 < P1

A esto se le conoce como el Fenómeno de Venturi. Ahora observamos este otro esquema:
Figura 3

Tubo de Pitot
FÍSICA MÉDICA
En el caso A, el tubo “enfrenta” al líquido (las flechas indican el sentido en el que se desplaza),
mientras que en el caso B el tubo se coloca perpendicular al desplazamiento del mismo.
La presión en el tubo A, es mayor, por la sencilla razón de que estamos midiendo la presión
hidrodinámica, es decir la hidrostática más la correspondiente a la velocidad del líquido, es decir la
presión cinemática. Mientras que en la B solamente estamos midiendo la presión hidrostática.
Los sistemas señalados y explicados como en el caso A, se denominan tubos de Pitot y su
desarrollo se conoce con el nombre de Fenómeno de Pitot.

LA VISCOSIDAD

Se define como la resistencia al desplazamiento o también como la oposición de los líquidos reales a
la deformación.

FUJO O CAUDAL LAMINAR

Si el líquido es ideal siempre tendrá un caudal o flujo sin rozamiento, en el caso de los líquidos reales
no ocurre esto y por lo tanto se producen dos tipos de situaciones que dependen de como fluya o se
desplace el líquido, estos son el flujo laminar y el turbulento.
El flujo o caudal laminar se origina cuando el desplazamiento se realiza de manera parecida a como se
desplazan las cartas de un mazo completo sobre la mesa de juego (superpuestas que se deslizan unas
sobre otras). Como seguramente entienden la carta “pegada” a la mesa casi no se desplaza
mientras que las superiores si; finalmente la más superficial alcanza la máxima velocidad y se
desplaza mucho más.

Flujo laminar
FÍSICA MÉDICA

Figura 5

Velocidades en el flujo laminar

Coeficiente de viscosidad (η). Como la viscosidad es análoga a la fricción, el coeficiente de


viscosidad es análogo al coeficiente de rozamiento. Debemos recordar siempre que la energía
utilizada para superar a la viscosidad se degrada en calor y que cuanto mayor es el coeficiente de
viscosidad mayor es la fuerza necesaria para hacer fluir el líquido.

Un coeficiente de viscosidad unitario, sería aquel que nos permitiese ejercer una fuerza unitaria que
logre el desplazamiento de una superficie líquida (lámina) de 1cm2, situada a 1cm de distancia del
plano inferior fijo, con una velocidad de un cm/s.
FÍSICA MÉDICA

Figura 6

Coeficiente de viscosidad unitario (η)

Si la fuerza que permite este desplazamiento del líquido descrito en el esquema anterior es de una DINA
(1 dina) entonces estaríamos frente a la unidad de rozamiento que es el Poise (en honor a Poiseville).

El agua, líquido de comparación por excelencia presenta una viscosidad a 20°C de 0.01 Poise (0.01 P) o 1
centipoises (1cP).

Debido a que el Poise (P) generalmente es una unidad muy grande para los líquidos corporales, es
frecuente encontrar en centipoises (cP) los coeficientes de viscosidad de los ejemplos biológicos.
FÍSICA MÉDICA

Ejemplos de viscosidades:

Agua 1.005 cP
Alcohol etílico 1.2 cP
Glicerina 1.5 cP
Mercurio 1.55 cP
Aceite de Oliva 84 cP
Sangre 2a4 cP
Plasma 2 cP
Suero 1.7 cP
Líquido cefalorraquídeo 1.024 cP
Orina 1.00 a 1.14 cP

RESISTENCIA

Es la oposición al flujo hidrodinámico producida por los recipientes o superficies contenedoras.


La resistencia al flujo en un tubo esta determinada primariamente por el radio del mismo, como
suponen a menor radio más resistencia y viceversa. La otra determinante será la gradiente de
presión, así la resistencia puede expresarse mediante la relación entre la gradiente
de presión (P1 – P2) y el flujo o caudal.

P1− P2
R=
FoC
FÍSICA MÉDICA

LEY DE POISEUILLE

Este importante físico francés del siglo antepasado (XIX), estudió los fluidos líquidos y su tránsito
por pequeños tubos dándose cuenta de manera experimental que el flujo o caudal para una
determinada gradiente de presión, es proporcional a la cuarta potencia!!! del radio del tubo e
inversamente proporcional a la viscosidad del líquido. Cuando un líquido fluye
de manera laminar en un tubo, la distribución de las
velocidades es diferente por la sencilla razón de que no existe superficie libre. Así que las capas
que se moverán con mayor velocidad serán aquellas que se encuentran más cerca del eje del
tubo.
De la siguiente manera:

La ecuación de Poiseuille es así:

Donde:

FoC = Flujo o caudal

-∆ P = (P1 – P2) Gradiente de presión

r4 = radio del tubo elevado a la cuarta potencia!!!

η = viscosidad

L = longitud del tubo


FÍSICA MÉDICA

De esto podemos concluir que el flujo o caudal a través de un tubo cilíndrico es directamente
proporcional a la gradiente de presión y a la cuarta potencia del valor del radio del tubo e
inversamente proporcional a la longitud del tubo y la viscosidad del fluido.

Pero de todo esto lo que deben reconocer sin lugar a dudas es la enorme importancia que
presenta el radio del tubo, las variaciones de sus dimensiones por pequeñas que sean, tendrán
inmensos efectos, así por ejemplo si el radio se duplica, el flujo o caudal se multiplica dieciséis
veces!!!.

FLUJO O CAUDAL TURBULENTO

Podríamos decir que el régimen laminar que hemos estudiado hasta ahora es el ideal o el de más
fácil comprensión, pero lo cierto es que éste ocurre dentro de ciertos limites de velocidad.
Cuando se superan esos límites, el líquido ya no se desplaza de manera laminar y si se quiere
“ordenada”, más bien se mezclan formando “remolinos” o turbulencias.

Así cuando ustedes abren el caño de sus casas, la salida del agua no debe causar mayor ruido, lo
que usualmente se siente es el golpe del agua sobre los platos o el aguadero. Pero en ocasiones
algo pasa y el agua sale “haciendo burbujas” y su salida deja de ser silente para convertirse en
ruidosa y característica. El flujo o caudal de salida cambió de un sistema laminar a un sistema
turbulento y ruidoso.

Velocidad crítica.- Se denomina así a la velocidad que debe superar un líquido para cambiar de flujo
laminar a turbulento. La velocidad crítica depende de la viscosidad del líquido, de la densidad
del mismo y de las características del conducto.
FÍSICA MÉDICA

Como se darán cuenta, es fácil lograr una velocidad crítica modificando un poco la superficie del
tubo.

Eso es precisamente lo que hacemos cuando usamos el manguito del tensiómetro. Provocamos
un flujo turbulento para interpretarlo como ruidos de Korotkov y así poder determinar la
presión sistólica; cuando liberamos de la deformación provocada por el manguito a la arteria
braquial, el flujo laminar se restituye y de esa manera ya no hay ruidos y de paso determinamos
la presión diastólica. Pero como comprenderán, la circulación sanguínea se realiza por impulsos
provocados por cada sístole ventricular y por lo tanto existirán personas que con solo esta
variación normal de presión pulsátil generen flujos turbulentos momentáneos. Por eso
existen algunas que se les escucha “ruídos de Korotkov” sin necesidad de presionar sus arterias
con el manguito.

El número de Reynolds (Nr). Es un valor matemático que oscila alrededor de 2000 y nos
sirve para presumir si el flujo es turbulento o laminar. No se vayan a preocupar mucho acerca del
valor exacto ya que hasta la fecha es una situación sin solución, así que acordemos ahora que
para nosotros el valor del número de Reynolds será de

2000.
FÍSICA MÉDICA

Aquí les traigo algunos otros que se encuentran en diversos textos de física:

Cromer Nr < 1000 Flujo laminar


Flujo inestable
1000 < Nr < 1500

Nr > 1500 Flujo turbulento

Sears Nr < 2000 Flujo laminar

2000 < Nr < 3000 Flujo inestable

Nr > 3000 Flujo turbulento

Pero
recuerd
en
para nosotros: Nr < 2000 Flujo laminar

Nr > 2000 Flujo turbulento


FÍSICA MÉDICA

SEMINARIO 11

HIDRODINAMICA II

HEMODINÁMICA

Es la parte de la fisiología que aplica las leyes y principios físicos de la hidrostática y la hidrodinámica
en el estudio y comprensión de la manera como se realiza la circulación de la sangre en el aparato
cardiovascular.
Sabemos que biológicamente el aparato cardiovascular consiste en dos bombas y dos circuitos
conectados en serie. Este sistema es de tipo doble completo y cerrado. Mecánicamente se le puede
definir como un circuito continuo, a volumen constante, con una bomba hidráulica de cuatro cámaras
pero de función doble (dos cámaras para cada función). Las dos cámaras derechas manejan sangre
venosa y las dos izquierdas arterial.
FÍSICA MÉDICA

FLUJO O CAUDAL SANGUINEO

El flujo o caudal sanguíneo que llega a los órganos se traslada desde el corazón a través de las arterias
que se ramifican de la aorta, de esta manera el órgano recibe lo necesario para su metabolismo, el
flujo sanguíneo en el aparato cardiovascular se expresa en términos del volumen sanguíneo por unidad
de tiempo (FoC = V/t). Así por ejemplo, el gasto cardíaco o débito cardíaco es un flujo se define
como la cantidad de sangre que sale del corazón en un minuto se calcula en aproximadamente 5 litros
por minuto (por esta razón también se le denomina Volumen minuto).

VELOCIDAD DE FLUJO O CAUDAL SANGUÍNEO

La velocidad del flujo sanguíneo (velocidad lineal) es el desplazamiento que realiza una “partícula
hipotética” de sangre en una unidad de tiempo y usualmente se expresa en centímetros por
segundo. El promedio de la velocidad de flujo multiplicado por el área de sección transversal del
tubo, determina o es igual al flujo: F o C = A x v para el caso de los líquidos (incomprensible) que
fluyen a través de un tubo único pero con secciones transversales de diferentes diámetro, el flujo
se mantendrá igual en todas las secciones transversales por diversas que sean, pero la velocidad
lógicamente variará de acuerdo a la siguiente relación: v = F / A es decir, que cuanto mayor sea el
diámetro de la sección transversal, menor será la velocidad.
El aparato cardiovascular es un sistema formado por una red de tubos ramificados y debe tenerse en
cuenta que la sumatoria total de las áreas transversales de todas las ramificaciones es más grande
que el área total de la sección transversal del tronco principal es decir la aorta, esto significa que el área
total de la sección transversal se incrementa desde la aorta hacia las arterias, arteriolas y capilares.
De maneracorrespondiente, el promedio de la velocidad del flujo disminuye, haciéndose mínimo
el nivel de los capilares.
Figura 2. Áreas de sección transversal y velocidad de flujo

Área de Sección
Transversal Cm2

Velocidad cm/s
FÍSICA MÉDICA

Figura 3. Velocidad de flujo y áreas de sección transversal

Área de sección transversal

Velocidad 10 cm/s 1 cm/s 5 cm/s

LA VISCOSIDAD SANGUÍNEA

Conocemos este concepto y lo definimos como la fricción de un fluido o la resistencia al


desplazamiento.
Los líquidos ideales presentan una viscosidad constante y se les suele llamar sistemas Newtonianos o
ideales cumpliendo con la ley de Poiseuille.
La sangre está constituida por una porción más fluida que es el plasma dentro de la cual se hallan en
suspensión los elementos formes (eritrocitos, leucocitos y plaquetas) siendo los glóbulos rojos los
elementos más abundantes. El porcentaje total de los glóbulos rojos llega hasta el 45% de la
sangre, llamándose a este porcentaje el HEMATOCRITO.

Figura 5

La sangre

Plasma 55%

Glóbulos rojos 45%

La sangre como se dan cuenta, no es un líquido ideal y por lo tanto su viscosidad no es homogénea
ni constante, siendo de esa manera un sistema NO Newtoniano que cumple parcialmente con la ley
de Pouseuille.
FÍSICA MÉDICA

Aceptamos unos 2 a 4 centipoises (cP) como valores normales de viscosidad para la sangre, pero
lógicamente el régimen de interpretación será diferente en un lugar como la aorta y otro en
uno como los capilares.

Puede decirse que la sangre se comporta macroscópicamente como un líquido real pero en los
capilares no es así.

Es conocido que mientras el vaso sanguíneo tenga un diámetro 50 veces mayor al diámetro de los
glóbulos rojos (el de un glóbulo rojo normal es de 7.5 micras) el comportamiento será Newtoniano o
ideal y que por la ley de Pouseuille el coeficiente de viscosidad será constante. Pero cuando la
sangre se desplace por un capilar el asunto será diferente.

La explicación es esta:

Si nos percatamos adecuadamente las dos variables de interpretación son el diámetro del vaso
y la velocidad de circulación, pues bien, cuando estamos en un vaso grande como la aorta la
velocidad es máxima ocasionando que los glóbulos rojos tiendan a reunirse en el centro del tubo
sanguíneo al eje del flujo y por lo tanto hacia las paredes del vaso sanguíneo solamente queda
el plasma. La medición de la viscosidad de la sangre a ese nivel tendrá un valor que se aproxime al del
plasma (valor mínimo).

Todo lo contrario ocurrirá en el capilar, como el área de sección transversal de los capilares es la
máxima, la velocidad a ese nivel será la mínima. Esto permite que los glóbulos rojos puedan
acercarse a las paredes, rozar e incrementar la viscosidad. Algo más, los glóbulos rojos entre sí
también se asocian cuando la velocidad de circulación es muy lenta y todo esto contribuye al
incremento de la viscosidad.

Quiere decir, que los valores extremos de viscosidad se darán en los hipotéticos y extremos
casos en los que la sangre solo tenga plasma (valor mínimo y sistema Newtoniano) o que solo
tenga glóbulos rojos (valor máximo). De esta conclusión es fácil comprender el por que una persona
que tenga pocos glóbulos rojos tendrá una sangre menos viscosa y una que tenga un
hematocrito muy alto (como los habitantes de la sierra) tendrá una viscosidad incrementada.

Lo maravilloso de todo esto es que las circunstancias favorecen al propósito fisiológico. En la aorta
el propósito es el traslado o flujo de la sangre, por lo tanto no es adecuado que los glóbulos
rojos se encuentren en contacto con las paredes del vaso; mientras tanto en el capilar debe
realizarse los fenómenos de intercambio gaseoso entre los glóbulos rojos y el tejido circundante y
por lo tanto si es necesario y muy necesario el contacto de los glóbulos rojos con las superficies
de los capilares.
FÍSICA MÉDICA

Figura 6

Viscosidad de la sangre

Aorta o vaso grande


Mayor velocidad
Menor viscosidad

A. Glóbulos más centrales, pared del vaso roza con el plasma solamente.

Capilares
Menor velocidad
Mayor viscosidad

B. Glóbulos más periféricos, pared del vaso roza con el plasma y con los glóbulos rojos, éstos forman
“pilas”
FÍSICA MÉDICA

RELACIÓN ENTRE PRESIÓN Y FLUJO

Siempre se necesita una gradiente de presión para que exista flujo. La gradiente de presión en nuestro
aparato circulatorio está determinada por la presión arterial y venosa como se ilustra en la figura 7.

Figura 7

Presión en mm Hg (PAM)

En esta debemos notar como cuestión más importante que la principal caída de presión ocurre a nivel de
las arteriolas, esto significa que a ese nivel se encuentra el lugar de mayor resistencia del árbol
vascular.
FÍSICA MÉDICA

Claro que las arteriolas NO son los vasos sanguíneo de menor radio (lo son los capilares) pero existen
dos situaciones que deben tomarse en cuenta, primero las arteriolas son mucho más estrechas que los
vasos que las “alimentan” (las arterias) lo que ocasiona gran resistencia debido a la gran presión
que traen las arterias y segundo, existen mucho menos arteriolas que capilares, éstos al ser tan
abundantes generan una menor resistencia total. Así que en su conjunto el lugar de resistencia dominante
de nuestro aparato cardiovascular serán las arteriolas.

RESISTENCIA Y LA ECUACIÓN DE POISEUILLE

La resistencia hemodinámica es la oposición al flujo de la sangre que realizan los vasos sanguíneos
principalmente. A menor radio del vaso mayor resistencia. La resistencia se expresa en función de la
gradiente de presión y el flujo o caudal: R = (P1 – P2) / F o C. Otra determinante de la resistencia será la
viscosidad de la sangre y esto se integra en la ecuación de Porseuille.

π
F o C = (P1 – P2) r4
8ηL

De esta ecuación, no nos cansaremos de repetirlo, lo más importante es la relación que existe entre el Flujo
o Caudal con el radio que está afectado con una potencia de cuatro (4).

También debemos aclarar que la física para los médicos es un instrumento de interpretación de los
fenómenos biológicos que ocurren dentro de un ser humano y que no debe tomarse al ciento por ciento de
lo que se expresa matemáticamente. En la ecuación de Poiseuille tenemos un buen ejemplo de ello, ésta
se puede aplicar en ingeniería asumiendo lo siguiente:

1. Un tubo rígido y cilíndrico, cuyo largo sea de mucho mayor longitud que su radio.

2. Que el líquido que transite por el sea ideal, es decir que su coeficiente de viscosidad sea
constante.

3. En flujos con sistema laminar, es decir que no sea pulsátil ni mucho menos turbulento.

4. Que la viscosidad del fluido en las paredes del tubo sea de acero.

4
FÍSICA MÉDICA

Pues bien, como se dan cuenta el aparato circulatorio no cumple con ninguno de los requisitos, los
vasos sanguíneos no son rígidos, la sangre no es un líquido ideal y su régimen es NO Newtoniano, el flujo
sanguíneo es pulsátil e incluso normalmente turbulento en algunos segmentos del aparato cardiovascular
y el último requisito cae por si solo al considerar a la sangre dentro de los sistemas No Newtonianos.
Sin embargo la ley de Poiseuille es útil para ayudarnos en obtener aproximaciones que nos faciliten la
comprensión de los eventos fisiológicos.
Creo sin lugar a dudas que la demostración de la importancia de la cuarta potencia del radio, es lo más
trascendente de todo esto.
Si colocamos la fórmula de la resistencia R = (P1 –P2) / F, en función de la ecuación de Poiseuille, tendremos:

R = (P1 – P2) / F = (1/r4) . L . n .(8/π)


Esta ecuación enfatiza lo que manifestamos.

Ahora también es importante destacar que nuestro aparato circulatorio tiene un conjunto de vasos
sanguíneos que se van ramificando y que por lo tanto van generando mayor o menor resistencia
según sea el caso. Para simplificar las cosas podemos asumir que en nuestro aparato cardiovascular, se
darán dos situaciones con respecto a nuestros vasos sanguíneos.
Vasos que generan resistencia en serie y en paralelo.

RESISTENCIA EN SERIE

Si observamos la figura, nos daremos cuenta que este no es el caso que se presente con mayor frecuencia
en nuestro organismos, pero vean como es de tanta eficiencia para aumentar la resistencia. Esto si se da
en los casos de estrechamientos de una misma arteria, como ocurre en la enfermedad arterioesclerótica.
Podemos concluir que la resistencia total es la suma de las resistencias individuales y que el aumentar en
serie ocasiona un aumento de la total.

R total = R1 + R2 + R3

5
FÍSICA MÉDICA

RESISTENCIAS EN PARALELO

La resistencia total de un sistema de tubos ordenados en forma paralela será diferente. Esto es lo que
aproximadamente sucede en el organismo. Matemáticamente la resistencia total se obtendrá de sumar
la inversa de cada resistencia y en consecuencia adicionar una resistencia en paralelo más disminuirá la
resistencia total de la red de vasos.

Resistencia en paralelo

FLUJO O CAUDAL LAMINAR Y TURBULENTO EN LA CIRCULACIÓN


La circulación sanguínea presenta un flujo laminar en la mayor parte de su recorrido pero como es un
sistema biológico y la sangre es un líquido que dista mucho de ser ideal, encontraremos regiones con
flujos turbulentos de manera normal.

Cuando la turbulencia ocurre, el líquido forma remolinos y vértices y las “partículas” del líquido se
mueven de un lugar a otro del tubo de manera irregular. Esta mezcla violenta del líquido consume
energía, y por lo tanto el flujo turbulento requiere para su manutención, de un mayor gradiente de
presión en comparación con el flujo laminar.

Sabemos que en las condiciones ideales para la ecuación de Poiseuille, la velocidad crítica para la
turbulencia puede predecirse mediante el número de Reynolds.

Este puede encontrarse con la siguiente fórmula:

6
FÍSICA MÉDICA

Nr = v.d.D

Donde:

Nr = Número de Reynolds
v = velocidad del flujo
d = diámetro del tubo
D = Densidad del líquido
η = coeficiente de viscosidad

Es importante recordar que hemos fijado el número de Reynolds en un valor de 1200 para predecir la
aparición de turbulencia o no en la sangre. Muchos textos mencionan el valor de 2000 como límite para
la aparición de turbulencia, este valor del número data del año de 1949 y fue determinado por dos
médicos llamadosN. Coulter y J. Pappenheimet.

El asunto fue que ellos estudiaron fundamentalmente la aorta proximal y en ese lugar si se puede
encontrar un valor semejante e incluso mucho mayor, pero conforme nos alejamos por ella encontramos
valores Diferentes y menores. Ustedes se darán cuenta que siendo el coeficiente de viscosidad el
denominador de la fórmula del Número de Reynolds; conforme nos vayamos alejando el inicio de la
aorta o si quieren, acercando a los capilares el denominador se incrementará casi al doble (recuerde la
viscosidad de la sangre es de 2 a 4cP) y el valor del númeo cae por debajo de 1000. Así que para establecer
un criterio general de todo el circuito vascular elegimos el valor de 1200.

Una cosa más, se habrá dado cuenta que si el valor del número de Reynolds en la aorta proximal es
mayor a 2000 en ese lugar y de manera normal existirá flujo turbulento. La aparición del flujo
turbulento también puede generarse por la aparición de obstrucciones como las placas ateromatosas de
la arterioesclerosis y en un sistema como el vascular, la turbulencia generada por obstrucciones
pequeñas se convertirá nuevamente en flujo laminar unos centímetros después de superada la misma.

TAREA N° 6: RESOLVER EN EL PPT

Leer la Lectura ESTADO DE CHOQUE. FASCICULO CUARTO. AUTOR Dr. Salvador Martínez Dubois.
(NOTA: solo leer hasta antes de Tratamiento de Choque Hipovolémico) Comentarlo en clase.
Vínculo: http://highered.mcgraw-
hill.com/sites/dl/free/9701068734/786175/martinez_cirugia_4e_cap_muestra_19.pdf

7
FÍSICA MÉDICA

SEMINARIO 12
BIOELECTRICIDAD

POTENCIAL ELECTROQUIMICO

La cantidad de iones que se muevan a través de la membrana depende de:


1. Cantidad de canales abiertos (Conductancia de membrana)
2. Fuerza neta

CONDUCTANCIA DE MEMBRANA
La conductancia de la membrana se refiere al número de canales que están abiertos en la membrana. Por
ejemplo, la conductancia del Sodio, es proporcional al número de canales abiertos que permitan al sodio
pasar a través de la membrana. No indica que habrá una difusión neta de iones a través de los canales.

Cuando los iones fluyen a través de los canales, el potencial de la membrana de la célula cambia.

Los canales pueden clasificarse en 3 tipos:

1. Canales sin compuerta: Como no tienen puertas, siempre están abiertos. Por ejemplo, todas las
células poseen canales sin compuertas de potasio. Esto quiere decir, que siempre habrá un fluido neto de
potasio a través de estos canales, a menos que el potasio se encuentre en equilibrio.
2. Canales dependientes de voltaje: Estos canales se abren o cierran e respuesta a cambios en el
voltaje de la membrana. Por ejemplo, muchas células excitables poseen este tipo de canales, los cuales
suelen estar cerrados en condiciones de reposo y se abren cuando la membrana se despolariza.
3. Canales dependientes de ligando: Es un complejo que incluye un receptor que se abrirá solo con una
sustancia especifica (ligando)

FUERZA NETA

Es la suma de 2 fuerzas independientes:

• Fuerza de Concentración: Determinada por la diferencia de concentración a través de la membrana.


A mayor diferencia de concentración, mayor será la fuerza.

• Fuerza eléctrica: Determinada por la diferencia eléctrica a través de la membrana. La dirección de la


fuerza está basada en el hecho que las cargas iguales se repelen y las opuestas se atraen. Por convención, el
potencial a través de la membrana se describe por la carga que se encuentra en el lado intracelular de la
membrana. La fuerza eléctrica que sería necesaria para evitar la difusión de un ion según su gradiente de
concentración puede medirse mediante la ecuación de NERNST y representa el potencial de equilibrio del
ion. Los iones siempre van a difundir en la dirección que lleve el potencial de membrana hacia su potencial
de equilibrio.

8
FÍSICA MÉDICA

POTENCIAL DE REPOSO

Cuando la célula no está estimulada por corrientes depolarizantes supraumbrales, se dice que se encuentra
en un potencial de membrana en reposo.

El potencial de membrana en reposo es -90Mv. Se mantiene negativo debido a:


• K+ está saliendo constantemente
• Accion de la Bomba Na/k
• Canales de Fuga de Na

Definiciones

• Despolarización: El potencial negativo intracelular se mueve hacia cero. Se hace más positivo)

• Hiperpolarización: El potencial negativo intracelular se hace más negativo

POTENCIAL DE ACCIÓN

Un potencial de acción o también llamado impulso eléctrico, es una onda de descarga eléctrica que viaja a lo
largo de la membrana de la célula. Los potenciales de acción se utilizan en el cuerpo para llevar información
entre unos tejidos y otros, lo que hace que sean una característica microscópica esencial para la vida de los
animales. Pueden generarse por diversos tipos de células corporales, pero las más activas en su uso son las
células del sistema nervioso para enviar mensajes entre células nerviosas o desde células nerviosas a otros
tejidos corporales, como el músculo o las glándulas.

9
FÍSICA MÉDICA

Muchas plantas también generan potenciales de acción que viajan a través del floema para coordinar su
actividad. La principal diferencia entre los potenciales de acción de animales y plantas es que las plantas
utilizan flujos de potasio y calcio mientras que los animales utilizan potasio y sodio.

Los potenciales de acción son la vía fundamental de transmisión de códigos neurales. Sus propiedades
pueden frenar el tamaño de cuerpos en desarrollo y permitir el control y coordinación centralizados de
órganos y tejidos.

Siempre hay una diferencia de potencial o potencial de membrana entre la parte interna y externa de la
célula (por lo general de -90 mV). La carga de una célula inactiva se mantiene en valores negativos (el interior
respecto al exterior) y varía dentro de unos estrechos márgenes. Cuando el potencial de membrana de una
célula excitable se despolariza más allá de un cierto umbral (de 65mV a 55mV app) la célula genera (o
dispara) un potencial de acción

Muy básicamente, un potencial de acción es un cambio muy rápido en la polaridad de la membrana de


negativo a positivo y vuelta a negativo, en un ciclo que dura unos milisegundos. Cada ciclo comprende una
fase ascendente, una fase descendente y por último una fase hiperpolarizada (ver fases del potencial de
acción). En las células especializadas del corazón, como las células del marcapasos coronario, la fase meseta
de voltaje intermedio puede aparecer antes de la fase descendente.

Los potenciales de acción se miden con técnicas de registro de electrofisiología (y más recientemente, con
neurochips de EOSFET). Un osciloscopio que registre el potencial de membrana de un punto concreto de un
axón muestra cada etapa del potencial de acción, ascendente, descendente y refractaria, a medida que la
onda pasa. Estas fases juntas forman un arco sinusoidal deformado. Su amplitud depende de dónde ha
alcanzado el potencial de acción al punto de medida y el tiempo transcurrido.

10
FÍSICA MÉDICA

El potencial de acción no se mantiene en un punto de la membrana plasmática, sino que viaja a lo largo de la
membrana. Puede desplazarse a lo largo de un axón a mucha distancia, por ejemplo transportando señales
desde el cerebro hasta el extremo de la médula espinal. En animales grandes como las jirafas o las ballenas la
distancia puede ser de varios metros.

FASES DEL POTENCIAL DE ACCIÓN

Las variaciones potencial de membrana durante el potencial de acción son resultado de cambios en la
permeabilidad de la membrana celular a iones específicos (en concreto, sodio y potasio) y por consiguiente
cambios en las concentraciones iónicas en los compartimientos intracelular y extracelular. Estas relaciones
están matemáticamente definidas por la ecuación de Goldman, Hodgkin y Katz (GHK).

Los cambios en la permeabilidad de la membrana y el establecimiento y cese de corrientes iónicas durante el


potencial de acción refleja la apertura y cierre de los canales iónicos que forman zonas de paso a través de
membrana para los iones. Las proteínas que regulan el paso de iones a través de la membrana responden a
los cambios de potencial de membrana.

Cuando la celula se despolariza hasta llegar a un UMBRAL, se desencadena un Potencial de Acción.


Usualmente se requiere un aumento súbito en el potencial de membrana de 15 a 30 mV. El potencial de
acción se inicia cuando el canal de sodio dependiente de potencial se abre, haciendo que la permeabilidad
del sodio supere ampliamente a la del potasio Los potenciales subumbral, se conocen como potenciales
electrónicos

Fase de Despolarización

La despolarización inicial es el estímulo que causa que los canales de sodio dependientes de voltaje se abran,
o que incrementa la conductancia de la membrana al sodio. El mismo estimulo también hace que esos

11
FÍSICA MÉDICA

canales se cierren tardíamente.

Fase de Repolarización

Durante la repolarizacion temprana, los canales de sodio dependientes de potasio empiezan a cerrarse, lo
que elimina el flujo de sodio a través de la membrana.
Luego los canales de voltaje dependiente de voltaje se abren, aumentando la conductancia de la membrana
al potasio.

12
FÍSICA MÉDICA

Hiperpolarización

Las gradientes originales se restablecerán a través de la bomba Na/K

PROPAGACIÓN

En los axones amielínicos, los potenciales de acción se propagan como una interacción pasiva entre la
despolarización que se desplaza por la membrana y los canales de sodio regulados por voltaje.

Los potenciales de acción de membrana pueden representarse uniendo varios circuitos RC, cada uno
representando un trozo de membrana.

Cuando una parte de la membrana celular se despolariza lo suficiente como para que se abran los canales de
sodio dependientes de voltaje, los iones de sodio entran en la célula por difusión facilitada. Una vez dentro,
los iones positivos de sodio impulsan los iones próximos a lo largo del axón por repulsión electrostática, y
atraen los iones negativos desde la membrana adyacente.

Como resultado, una corriente positiva se desplaza a lo largo del axón, sin que ningún ion se esté
desplazando muy rápido. Una vez que la membrana adyacente está suficientemente despolarizada, sus
canales de sodio dependientes de voltaje se abren, realimentando el ciclo. El proceso se repite a lo largo del
axón, generándose un nuevo potencial de acción en cada segmento de la membrana.

13
FÍSICA MÉDICA

Velocidad de propagación

Los potenciales de acción se propagan más rápido en axones de mayor diámetro, si los demás parámetros se
mantienen. La principal razón para que ocurra es que la resistencia axial de la luz del axón es menor cuanto
mayor sea el diámetro, debido a la mayor relación entre superficie total y superficie de membrana en un
corte transversal. Como la superficie de la membrana es el obstáculo principal para la propagación del
potencial en axones amielínicos, el incremento de esta tasa es una forma especialmente efectiva de
incrementar la velocidad de la transmisión.

Un ejemplo extremo de un animal que utiliza el aumento de diámetro de axón como regulador de la
velocidad de propagación del potencial de membrana es el calamar gigante. El axón del calamar gigante
controla la contracción muscular asociada con la respuesta de evasión de depredadores del animal. Este
axón puede sobrepasar 1 mm de diámetro, y posiblemente sea una adaptación para permitir una
activación muy rápida del mecanismo de escape. La velocidad de los impulsos nerviosos en estas fibras es
una de las más rápidas de la naturaleza, para los que poseen neuronas amielinicas.

Factores que determinan la velocidad del potencial de acción:


1. Tamaño del potencial de acción
2. Diámetro de la célula
3. Mielinización

Conducción saltatoria

En axones mielínicos, la conducción saltatoria es el proceso por el que los potenciales de acción parecen

14
FÍSICA MÉDICA

saltar a lo largo del axón, siendo regenerados sólo en unos anillos no aislados (los nodos de Ranvier). La
conducción saltatoria incrementa la velocidad de conducción nerviosa sin tener que incrementar
significativamente el diámetro del axón.
Ha desempeñado un papel importante en la evolución de organismos más complejos cuyos sistemas
nerviosos necesitan transmitir rápidamente potenciales de acción a largas distancias. Sin conducción
saltatoria, la velocidad de conducción requeriría incrementos drásticos en el diámetro del axón, a tal punto
que podrían resultar en la formación de sistemas nerviosos excesivamente grandes para los cuerpos que
deben alojarlos.

Mecanismo detallado

El principal obstáculo para la velocidad de transmisión en axones amielínicos es la capacitancia de la


membrana. La capacidad de un condensador puede disminuirse bajando el área de un corte transversal de
sus placas, o incrementando la distancia entre las placas. El sistema nervioso utiliza la mielinización para
reducir la capacitancia de la membrana. La mielina es una vaina protectora creada alrededor de los axones
por las células de Schwann y los oligodendrocitos, células de la neuroglía que aplastan sus citoplasmas
formando láminas de membrana y plasma. Estas láminas se arrollan en el axón, alejando las placas
conductoras (el plasma intra y extracelular) entre sí, disminuyendo la capacitancia de la membrana.

El aislamiento resultante redunda en un conducción rápida (prácticamente instantánea) de los iones a


través de las secciones mielinizadas del axón, pero impide la generación de potenciales de acción en estos
segmentos. Los potenciales de acción sólo se vuelven a producir en los nodos de Ranvier desmielinizados,
que se sitúan entre los segmentos mielinizados. En estos anillos hay un gran número de canales de sodio
dependientes de voltaje (hasta cuatro órdenes de magnitud superior a la densidad de axones amielínicos),
que permiten que los potenciales de acción se regeneren de forma eficaz en ellos.

Debido a la mielinización, los segmentos aislados del axón actúan como un cable pasivo: conducen
los potenciales de acción rápidamente porque la capacitancia de la membrana es muy baja, y minimizan la
degradación de los potenciales de acción porque la resistencia de la membrana es alta. Cuando esta señal
que se propaga de forma pasiva alcanza un nodo de Ranvier, inicia un potencial de acción que viaja de nuevo
de forma pasiva hasta que alcanza el siguiente nodo, repitiendo el ciclo.

15
FÍSICA MÉDICA

Minimización de daños

La longitud de los segmentos mielinizados de un axón es importante para la conducción saltatoria. Deben ser
tan largos como sea posible para optimizar la distancia de la conducción pasiva, pero no lo suficiente como
para que la disminución en la intensidad de la señal sea tanta que no alcance el umbral de sensibilidad en el
siguiente nodo de Ranvier. En realidad, los segmentos mielinizados son lo suficientemente largos para que la
señal que se propaga pasivamente recorra al menos dos segmentos manteniendo una amplitud de señal
suficiente como para iniciar un potencial de acción en el segundo o tercer nodo. Así se eleva el factor de
seguridad de la conducción saltatoria, permitiendo que la transmisión traspase nodos en caso de que estén
dañados.

PERIODO REFRACTARIO

Se define como el momento en el que la célula excitable no responde ante un estímulo y por lo tanto no
genera un nuevo Potencial de Acción. Se divide en dos: Periodo Refractario Absoluto (o Efectivo) y Periodo
Refractario Relativo.

• El Periodo Refractario Absoluto: No importa que tan fuerte sea el estímulo, no generará un
segundo potencial de acción. Es debido a una inactivación de voltaje de los canales de sodio. Su duración
determina la frecuencia de los potenciales de acción.
• Periodo Refractario Relativo: Periodo durante el cual, un estímulo mayor de lo normal, puede
generar un segundo potencial de acción.
El Periodo Refractario varía de célula a célula, y es una de las características que permiten decir si una célula
es más o menos excitable que otra. En otros casos como el músculo cardiaco, su amplio Periodo Refractario
le permite la increíble capacidad de no tetanizarse.

El correcto funcionamiento del cuerpo necesita que las señales lleguen de un extremo a otro del axón sin
pérdidas en el camino. Un potencial de acción no sólo se propaga a lo largo del axón, sino que se regenera
por el potencial de membrana y corrientes iónicas en cada estrechamiento de la membrana en su camino.
En otras palabras, la membrana nerviosa regenera el potencial de membrana en toda su amplitud a medida
que la señal recorre el axón, superando los límites que impone la teoría de líneas de transmisión.

16
FÍSICA MÉDICA

SEMINARIO 13
LA LUZ, EL COLOR Y LA VISIÓN

INTRODUCCIÓN

Todos quienes hemos venido al mundo con "buenas condiciones" de salud somos seres privilegiados porque
nuestros ojos nos permiten apreciar todo aquello que nos rodea, ésto en gran medida se debe a la
existencia de la luz. es gracias a este hecho en que se puede estudiar la naturaleza de un modo directo,
mediante la observación. Se dice con mucho acierto que la luz es para el ojo lo que el sonido es para el
oído. A semejanza del sonido, la luz es una perturbación (onda), pero ésta se distingue claramente de
las otras, porque para propagarse no necesita de ningún medio mecánico, pues se ha descubierto que la luz
es una onda electromagnética que se puede propagar a través del espacio vacío.
La vista es el sentido del que más dependen los seres humanos. Por este motivo se sabe más de la vista de
que cualquier otro sentido, y se han realizado muchos esfuerzos en la investigación científica básica y clínica
para examinar su funcionamiento. Alrededor del 40% de las fibras nerviosas del cerebro transportan
información relacionada con la función visual; por lo tanto, el daño cerebral a menudo se refleja en
algún tipo de disfunción visual.
El sistema visual recibe la información luminosa, los cuales son captados por los fotorreceptores retinianos,
y el procesamiento inicial de las señales visuales se producen en la retina. Aunque esta estructura inerva
varias zonas del diencéfalo y mesencéfalo, muchos axones retinianos terminan en los núcleos de relevo
del tálamo, que a su vez inervan una gran región de la corteza en el lóbulo occipital. Desde allí, la
información visual es enviada a diversas regiones de la corteza cerebral que controlan gran parte de los
lóbulos temporal y parietal.

17
FÍSICA MÉDICA

EL ESTIMULO VISUAL: LA LUZ VISIBLE ESTRUCTURADA POR EL MUNDO


La luz visible es una banda de energía en el espectro electromagnético, que es un continuo de energía
electromagnética, energía radiada en forma de ondas producidas por cargas eléctricas. Es posible
describir la energía del espectro por su longitud de onda: la distancia entre los picos de las ondas
electromagnéticas. Las longitudes de onda del espectro electromagnético van desde las muy cortas de
los rayos gamma (alrededor de 10-12 metros) a las largas ondas de radio (aproximadamente 104
metros.
La luz visible es la energía del campo electromagnético que somos capaces de ver, va desde los 400 a los 700
nanómetros (nm; un nanómetro = 10-9 metros). Para los seres humanos y algunos otros animales,
las longitudes de onda de la luz visible están asociadas con los colores del espectro. Desde la época de
James C. Maxwell hasta nuestros días se han descubierto varios tipos de onda electromagnética, los
cuales a pesar de ser todos de la misma naturaleza, presentan ciertas circunstancias características. Así
por ejemplo:

A. Rayos Gamma (γ) son las ondas que corresponden a las más altas frecuencias. Este tipo de radiación
lo emiten los núcleos atómicos al desintegrarse, como por ejemplo en las explosiones de una bomba
atómica.
Estos rayos producen daños irreparables a las células animales.

B. Rayos X: fueron descubiertos por el alemán Wilhelm Roentgen, ganando por ello el Nobel de Física
en 1901. estos rayos tienen la propiedad de atravesar con facilidad las sustancias de baja densidad
(músculos del hombre), y son absorbidos por cuerpos de alta densidad (huesos). Esta propiedad es
empleada en las radiografías.

C. Radiación Ultravioleta: estas radiaciones tienen una mayor frecuencia que la radiación violeta:
Hasta 1018 Hz. No son visibles, pero pueden imprimir ciertos tipos de placas fotográficas. Pueden dañar el
ojo humano.

D. Ondas Luminosas: este grupo de ondas electromagnéticas tiene frecuencias de orden de


4,6x1014 Hz y 6,7x1014 Hz y son capaces de estimular el ojo humano. En orden decreciente de
frecuencias se componen de las siguientes radiaciones: Violeta, azul, verde, amarillo, anaranjado, rojo y
añil; a todo el conjunto se le llama luz.

E. Radiación Infrarroja: estas se encuentran a continuación de la radiación roja, y la emiten en gran


cantidad los cuerpos calientes. Esta es la radiación que recibimos de una fogata, y que nuestro cuerpo tiene
la propiedad de absorberlos. Es este tipo de transmisión de calor que se denomina radiación.

12 Hz.
F. Microondas: se llama así a aquella radiación de frecuencias un tanto menores: de 108Hz a 10
Se utilizan mucho en las telecomunicaciones, transmisiones telefónicas, celulares, TV (vía satélite),...,etc.
En la actualidad también se utilizan en la cocina, con el nombre de horno de microondas.

18
FÍSICA MÉDICA

G. Ondas de Radio: son las que poseen las más bajas frecuencias, como máximo: 108 Hz. Reciben
este nombre porque se emplean en las estaciones de radiofusión. En las antenas de estas estaciones se
logran acelerar los electrones de manera oscilatoria y contínua, lo cual permite la generación de ondas
electromagnéticas, las mismas que logran transportan los mensajes o programas de la estación a los
radiorreceptores, en donde las ondas aceleran los electrones de la antena receptora, y estos estímulos
eléctricos son finalmente convertidos en imágenes y/o sonido.

Naturaleza de la luz

La luz es una forma de energía radiante ondulatoria existente en todo el universo, que al incidir sobre los
órganos sensoriales adecuados permite distinguir los objetos. Este concepto distingue el fenómeno
físico de la luz, del fenómeno fisiológico que es la sensación luminosa.
Fuentes luminosas

Son los cuerpos que emiten luz por sí mismos. Se distinguen las fuentes incandescentes que además de luz
emiten calor de las fuentes luminescentes que no lo emiten.
En la naturaleza existen diversas fuentes luminosas:

• Las estrellas incluyendo el sol (se trata de fusión atómica)


• Los relámpagos y rayos (son descargas eléctricas)
• Las reacciones químicas de combustión violenta, como las llamas y brasas en que emiten luz los
gases y especialmente el carbono.
• Los metales a altas temperaturas
• Los gases bajo ciertas condiciones
• Ciertas sustancias como el fósforo
• Ciertos animales como las luciérnagas, y algunos peces abisales (que viven en grandes
profundidades)
• Ciertos microorganismos como hongos y bacterias

Utilizando las propiedades de emitir luz de ciertos elementos, el hombre ha inventado ciertas fuentes
luminosas artificiales:
• Las velas, lámparas y faroles de llama directa
• Las lámparas y faroles de llama que produce incandescencia de ciertos materiales (farol a
mantilla)
• Lámparas incandescentes de filamento metálico calentado por electricidad.
• Los tubos y lámparas de gases luminescentes fríos.
• Los aparatos que suscitan luminosidad por excitantes electrónicos (pantallas de TV, de
calculadoras, Diodos emisores de luz -LED- y similares)
• Objetos que incorporan elementos luminescentes (relojes, placas de luz, pinturas y tintas de
imprenta, etc.)

Fenómenos luminosos

Los fenómenos naturales que emiten luz, consisten en:

19
FÍSICA MÉDICA

• Fosforescencia - Propiedad que presentan algunos cuerpos - especialmente el fósforo - de


continuar emitiendo luz por un cierto tiempo luego de haber sido iluminados. Actualmente existen
sustancias que adquieren permanentemente esa propiedad al ser sometidas a ciertas radiaciones y se usan
en relojes luminosos, placas de luz, carteles, pintura de indicadores en las carreteras, etc.
• Fluorescencia - Propiedad de ciertas sustancias de emitir luz por breve tiempo, al ser
sometidas a ciertas descargas o radiaciones. Estos efectos se utilizan con gases como el fluor o el neón
en los tubos fluorescentes o luminosos comerciales; y también en las pantallas de TV y monitores de
computador.
• Bioluminiscencia: Propiedad que presentan algunos organismos vivos de emitir luz, lo que realizan
debido a reacciones químicas que ocurren en sus células y que cumple funciones de reconocimiento,
defensa y atracción sexual. Ocurre en las luciérnagas (llamadas “bichos de luz” algunos hongos, bacterias y
algas (que dan fenómenos luminosos en el mar) y ciertos peces de los abismos marinos.

20
Velocidad de la luz

Como fenómeno ondulatorio, la luz se traslada en el espacio a una velocidad determinada.


La velocidad de la luz en el vacío es de 300.000 kilómetros por segundo.

Iluminación.
Según la forma en que se comportan al ser iluminados por un rayo de luz, los cuerpos se clasifican en:

• Opacos - que no permiten el pasaje de la luz. Ejemplos: madera, metal, piedra.

• Transparentes - que permiten el pasaje total de la luz. Ejemplos: aire, agua, vidrio fino,
planchas finas de material plástico (nylon o vinilo)
• Traslúcidos - que permiten el pasaje de la luz en forma parcial. Ejemplos: vidrio fino
esmerilado, papel fino encerado, algunas planchas gruesas o coloreadas de material plástico (acrílico).

Fotometría

La fotometría es aquella parte de la física cuyo objeto es la medida de la intensidad de la luz.

La unidad de medida de intensidad de la luz, es el violle que se define como la intensidad luminosa de un
cm² de platino en fusión.
Por razones de comodidad en la medición, se utiliza en la práctica como unidad de intensidad
lumínica la BUJÍA equivalente a 1/20 del violle.

REFLEXIÓN DE LA LUZ

Si se proyecta un conjunto de finos rayos de luz sobre una superficie perfectamente plana, pulida y
brillante, se reflejan. En cambio, si la superficie no es plana sino rugosa, los distintos rayos se dispersan.
La reflexión de la luz, es el fenómeno por el cual un haz de rayos de luz paralelos, se desvían al chocar
con un plano manteniendo su paralelismo. Cuando un haz de rayos de luz paralelos, al chocar con un
cuerpo rugoso se desvían en diversas direcciones, el fenómeno se denomina dispersión de la luz.

21
El rayo de luz que se dirige a un espejo se denomina rayo incidente; el rayo de luz que sale del espejo
se denomina rayo reflejado; el punto en el cual toca el rayo incidente en el espejo se denomina
punto de incidencia; y el ángulo en que el rayo incide sobre el espejo respecto de la perpendicular al
plano del espejo en el punto de incidencia, se denomina ángulo de incidencia.

LEYES DE LA REFLEXIÓN DE LA LUZ

La primer ley de la reflexión de la luz expresa que el rayo incidente, la perpendicular al plano de reflexión,
y el rayo reflejado, están en un mismo plano.
La segunda ley de la reflexión de la luz expresa que el ángulo de reflexión es igual al

ángulode incidencia.

REFRACCIÓN DE LA LUZ

La refracción de la luz es el fenómeno físico por el cual un rayo de luz que atraviesa por dos medios
transparentes de diferente densidad, se desvía de su trayectoria anterior. El rayo de luz que se atraviesa de
un medio transparente a otro, se denomina rayo incidente; el rayo de luz que se desvía al ingresar al
segundo medio transparente se denomina rayo refractado; el ángulo en que el rayo incidente, al ingresar
al segundo medio, forma con la perpendicular al mismo, se denomina ángulo de incidencia; el ángulo
que el rayo incidente forma con el rayo refractado, al desviarse, se denomina ángulo de refracción.

RI RR

LEYES DE LA REFRACCIÓN DE LA LUZ

• La primer ley de la refracción de la luz expresa que el rayo incidente, y el rayo refractado, y la
perpendicular al plano de refracción, están en un mismo plano.
• La segunda ley de la refracción de la luz expresa que, para cada par de medios
transparentes, existe una relación constante entre el ángulo de reflexión y el ángulo de incidencia,
que se denomina índice de refracción.

14
La refracción de la luz es debida a que tiene distinta velocidad en distintos medios. La desviación que se
produce acercándose o alejándose de la normal es debida al cambio de velocidad.
Cuando la luz pasa a un medio de menor velocidad, se desvía en dirección a la normal; en tanto que al pasar
a un medio de mayor velocidad, se desvía en dirección contraria.

LENTES:

Es aquel cuerpo transparente limitado por dos superficies, una de las cuales es siempre esférica. Por sus
propiedades refractantes los lentes son utilizados principalmente para corregir defectos visuales como el
astigmatismo, miopía e hipermetropía.

Tipos de lentes: las lentes pueden ser convergentes o positivas y divergentes o negativas. Los primeros se
caracterizan por tener sus bordes delgados y los segundos por tenerlos gruesos.

LENTES CONVERGENTES

1. Biconvexo
2. Plano Convexo
3. 3. Menisco convergente

LENTES DIVERGENTES

6. Bicóncavo
7. Plano Cóncavo
8. Menisco divergente

15
SISTEMA VISUAL Y EL OJO HUMANO

La vista es el sentido del que más dependen los seres humanos. Por este motivo se sabe más de la vista
que de cualquier otro sentido, y se han realizado muchos esfuerzos en la investigación científica básica y
clínica para examinar su funcionamiento. El sistema visual es enormemente importante en el diagnóstico
clínico. Alrededor del 40% de las fibras nerviosas del cerebro transportan información relacionada con la
función visual; por lo tanto, el daño cerebral a menudo se refleja en algún tipo de disfunción visual.
La información luminosa se recibe por los Fotoreceptores retinianos, y el proceso inicial de las señales
visuales se producen en la retina, de donde parten axones a diferentes zonas del diencéfalo y
mesencéfalo, terminando en los núcleos de relevo tálamicos, que a su vez inervan una gran región de la
corteza en el lóbulo occipital. Desde allí, la información visual es enviada a diversas regiones
corticales que controlan gran parte de los lóbulos temporal y parietal.

ANATOMIA DEL OJO:

El ojo humano es un instrumento óptico especializado en la captación de la luz y en procesamiento inicial


de la información visual. Se considerará brevemente su anatomía.

Córnea: la córnea proporciona una capa protectora transparente para las estructuras ópticas del ojo. Su
borde lateral se continua con la conjuntiva, un epitelio especializado que cubre el "blanco"
(esclerótica) del ojo. Si bien la conjuntiva y la esclerótica están vascularizada, la córnea central
normalmente no lo está.
Cámaras del ojo: justo detrás de la córnea esta la cámara anterior, llena de líquido, cuyo límite posterior lo
forman el iris y el orificio de la pupila un segundo espacio lleno de líquido, la cámara posterior, está
limitado en su parte anterior por el iris y en la parte posterior por el cristalino y su ligamento
suspensorio circular. El líquido de la cámara posterior está en contacto con el cuerpo vítreo, la masa
gelatinosa que llena el espacio principal del globo ocular entre el cristalino y la retina.

16
Iris: El iris es una estructura pigmentada directamente anterior al cristalino. Contiene melanocitos

(pigmento oscuro) que reflejan o absorben la luz para darle su color característico.

Cristalino: Es una estructura transparente que enfoca la luz sobre la retina. Es una lente biconvexo.

Úvea: El Iris, el cuerpo ciliar y la coroides componen la túnica vascular del ojo, también llamada úvea. La
coroides es la capa de tejido pigmentado muy vascularizado que se encuentra entre el epitelio
pigmentario retiniano y la esclerótica, la cubierta resistente del ojo.

RETINA

La superficie interna de la cara posterior del ojo está cubierta por la retina, que se compone de la retina
neural y el epitelio pigmentario retiniano.
El epitelio pigmentario retiniano tiene las siguientes funciones:
• Suministra nutrición a la retina nerviosa en forma de glucosa y de iones esenciales.

• Protege los fotorreceptores retinianos de unos niveles de luz potencialmente dañinos.

• Mantenimiento de la anatomía de los fotorreceptores mediante la fagocitosis.

La retina neural contiene los fotorreceptores y neuronas asociadas al ojo, y está especializada en percibir
la luz y elaborar la información resultante. Los fotorreceptores absorbe los fotones y convierten esta
información en una señal eléctrica, que a continuación se transforma en las neuronasretinianas.
Finalmente, las neuronas llamadas células ganglionares envían la señal procesada al cerebro por medio
de los axones que viajan en el nervio óptico.

17
Capas de la retina

Células Fotorreceptoras: los bastones y conos de la retina son responsables de la recepción luminosa, el
proceso por el cual se detectan los fotones y se transduce la información a una señal electroquímica. Hay
dos tipos básicos de fotorreceptores: bastones y conos. (Fig.18)

18
SEMINARIO 14
SISTEMA AUDITIVO

INTRODUCCION

El oído es uno de nuestros sentidos más importantes, que junto al sentido de la visión y con la capacidad de
hablar, contribuye de forma significativa a nuestra calidad de vida.
En nuestra vida diaria, identificamos en forma inconsciente los sonidos relevantes y los separamos del
ruido de fondo, podemos localizar las fuentes de sonido y reaccionamos, muchas veces de forma refleja, a
los sonidos inesperados. Cerca del 12% de la población en general, experimenta durante su vida una
disminución o pérdida de la audición, que puede presentar una discapacidad para ser tomada en
consideración.

PROPIEDADES DE LAS ONDAS SONORAS Y AUDICION

Llamaremos sonido a toda aquella perturbación que sea perceptible por el oído humano, lo cual solo
sucederá si la frecuencia de estas vibraciones está comprendida entre 8 y 20 000 ciclos por
segundos. Estas vibraciones pueden propagarse por cualquier medio mecánico sólido, líquido o gas. Las
ondas sonoras están constituidas por ondas longitudinales, en donde las moléculas vibran con relación a
sus posiciones de equilibrio en forma paralela a la propagación del sonido.

Los sonidos complejos son mezclas de tonos puros, éstos pueden relacionarse en forma armónica, y en este
caso darían una sensación subjetiva de tono, o también relacionarse en forma aleatoria que es lo que
percibimos como ruido.
La frecuencia de los sonidos audibles se mide en ciclos por s egundo o hercios (Hz).
Una onda sinusal simple nos ayuda para conocer un tono puro por el aumento y la disminución cíclica en
la compresión de moléculas de aire. El intervalo de tiempo entre dos picos o crestas de onda es el periodo,
la distancia recorrida en un periodo es la longitud de onda, y el número de ciclos por segundo es la
frecuencia. La intensidad es la diferencia entre la energía del punto más alto de la onda (pico) y la del
punto más bajo (valle), medida por el tímpano. El espacio entre el foco sonoro (la fuente que produce el
sonido) y el elemento receptor (nuestro oído) es el llamado campo sonoro.

1
La gama normal de frecuencias del ser humano es de 50 a 16000 Hz. La mayor parte de los sonidos del habla
humana están comprendidos entre los 100 y 8000 Hz, y la sensibilidad auditiva es máxima entre los 1000 y
3000 Hz. La exposición al ruido fuerte puede causar una pérdida de la audición selectiva de algunas
frecuencias y el envejecimiento normal puede reducir la gama de frecuencias audibles.

Intensidad y Sonoridad:

Frente a las presiones sonoras, el oído soporta desde 10-16 watt/cm2 (umbral auditivo) hasta los 10-4
watt/cm2 (umbral de dolor). Este es un rango muy amplio, por ejemplo el sonido de un rifle
produce una presión sonora 100 000 000 de veces mayor que una hoja seca que cae de un árbol.
La intensidad es la energía sonora transportada por unidad de tiempo y que atraviesa un área
perpendicular a la dirección de propagación. Es decir se refiere a la potencia acústica por unidad de
superficie y se expresa en watt/cm2.
La sensación subjetiva de la intensidad se define como sonoridad y depende de la frecuencia, ancho
de banda y duración del sonido.

Intensidad relativa: Según Fechner y Weber, la sensación subjetiva de la intensidad es proporcional al


logaritmo de la intensidad según la forma:

N = 10 x log Intensidad X
10-16

Donde N es el nivel de la sonoridad en decibelios (dB)


Intensidad X (intensidad del sonido a evaluar)

Dado que la sonoridad define un fenómeno subjetivo de gran amplitud, se utiliza una escala comprimida
logarítmica en lugar de lineal. Las cantidades varían en una relación de 1:100 000 000 (1:106), por lo tanto
es que usa una escala logarítmica, siendo la unidad el Bell (Belio).

El Belio resulta ser una escala muy grande en la práctica por lo que habitualmente se utiliza la décima parte,
el decibelio (dB). El nivel de referencia de presión acústica adoptado universalmente es el correspondiente
al umbral de audición humana, es decir 10-16watt/cm2, lo que equivale a 0 dB SPL (Sound Pressure Level o
Nivel de Presión Sonora)

La intensidad física del sonido, que provoca una percepción subjetiva de intensidad se mide en unidades
llamadas decibelios (dB). La intensidad también está relacionada con el nivel de presión sonora en la
membrana timpánica, así un sonido 10 veces más potente que uno apenas audible tiene un nivel de

2
presión sonora de 20 dB. Los niveles de una conversación normal es de más o menos 50 dB. Los sonidos
por encima de los 120 o 130 dB provocan dolor y la exposición repetida a sonidos de más de 150 dB (como
la de las turbinas de avión) causan un daño coclear permanente.

Procesamiento del sonido:

El oído puede dividirse anatómicamente


en oído externo, medio e interno.

Oído externo: las ondas sonoras son


captadas por el pabellón auricular son
encauzadas a través del conducto
auditivo externo hasta la membrana
timpánica. Las propiedades de resonancia
del pabellón auricular y del conducto
realzan algunas frecuencias mas que
otras, todo depende desde la dirección
con la que llega el sonido, por lo que la
lesión o destrucción del pabellón
auricular pueden deteriorar la precisión
de la localización del sonido.

3
Los tres huesecillos actúan amortiguando los movimientos del tímpano mientras incrementan la
fuerza aplicada en la ventana oval.

La rigidez mecánica de la cadena de huesecillos sirve para compensar la diferencia de impedancia entre
los medios aéreo y líquido (una función llamada ajuste de impedancia); Con ello se logra que la
transferencia de energía entre ambos medios sea óptima. La rigidez de la cadena de huesecillos puede
ser modificada por dos músculos situados en el oído interno: El ms. tensor del tímpano y el músculo del
estribo.

Oído interno: Estructura de la cóclea: la forma de la cóclea es semejante a la de la concha de un caracol


(Fig.2) La cóclea membranosa es la parte enroscada del oído interno, está encerrada en la cóclea ósea y
consta de tres compartimentos espirales.
El compartimiento central de la cóclea membranosa es el conducto coclear o rampa media. Sobre ella se
ubica la rampa vestibular que se comunica con el vestíbulo (que es la parte del oído interno membranoso
que queda entre la ventana oval y la cóclea). Por debajo se halla la rampa timpánica que termina en la
ventana redonda que separa a este espacio de la cavidad del oído medio. La rampa media o conducto
coclear está limitada por la membrana basilar (por abajo) y por la membrana vestibular por arriba y por la
estría vascular por afuera (Fig.4). La rampa vestibular y timpánica están rellenas de perilinfa y la endolinfa
llena la rampa media.

Fig.4

4
El órgano de Corti es el epitelio sensorial especializado que descansa sobre la membrana basilar (Fig.4).
A él pertenecen las células ciliadas internas y externas, las células de sostén y la membrana tectoria. (Fig.5)

Fig.5

Transducción mecanoeléctrica: las células ciliadas internas son transductores que convierten la fuerza
mecánica en una señal eléctrica. La endolinfa tiene una cantidad alta de K+. En cambio la perilinfa tiene
una alta cantidad de Na+. La diferencia de potencial entre la endolinfa y la perilinfa es de +80mV y las
bombas iónicas de la célula ciliada producen un potencial intracelular de reposo de unos -70mV.
Cuando la membrana basilar asciende debido al movimiento del líquido de la rampa timpánica, los
estereocilios, (cilios situados en la parte apical de los cilios) (Fig.5), son desplazados hacia la membrana
tectoria, haciendo que se abran los canales iónicos de estos, permitiendo que el K+ fluya a favor del
gradiente eléctrico para despolarizar a la célula. Como consecuencia se activan los canales de Ca2+
liberando su neurotransmisor y despolarizando la fibra aferente y consiguiendo así un potencial de
acción a lo largo del nervio coclear.
El potencial varía de manera sincrónica con el sonido que estimula al oído: Potencial microfónico coclear.

5
Sintonización de la cóclea: la cóclea actúa como un filtro de frecuencias que separa y analiza las
frecuencias individuales que componen los sonidos complejos.
En la ventana oval, el estribo comprime la perilinfa, provocando el movimiento de la membrana
basilar que se refleja en una onda que viaja a lo largo de ella.
Por lo tanto los tonos puros producirán una onda que se desplazará a lo largo de la membrana
basilar y su amplitud máxima tendrá un punto concreto de la membrana. Para los tonos agudos,
éste punto está cerca de la base de la cóclea y las frecuencias bajas,
es más Distal.

Esta representación de frecuencias se transmite a lo largo de toda la vía auditiva. Todas las fibras del
nervio coclear hacen sinapsis en los núcleos cocleares, los núcleos del complejo olivar superior y el
cuerpo trapezoide, los núcleos del lemnisco lateral, y el tubérculo cuadrigémino inferior.
(Estructuras neuroanatómicas del tronco cerebral) Para posteriormente llevar la información
auditiva al Tálamo (Cuerpo geniculado medial) y finalmente, desde allí es proyectada a la
corteza cerebral auditiva (lóbulo temporal) donde es procesada la información.

TAREA N° 7: RESOLVER EN EL PPT

1. Presente en clase un pequeño caso de la vida real en que se aplique algún concepto de lo
descrito en el seminario y haga un comentario.

6
SEMINARIO 15

RADIOISOTOPOS Y SU IMPORTANCIA MÉDICA


Radioactividad
El término radiactividad se encuentra bastante extendido en la sociedad. Se habla de residuos
radiactivos, datación de restos arqueológicos usando isótopos radiactivos (Como el Carbono 14),
bombas nucleares, aplicaciones médicas. El debate sobre los beneficios e inconvenientes de la
energía nuclear como fuente de energía frente a las otras alternativas (petróleo, carbón y gas natural
por un lado y la energía solar, eólica, hidroeléctrica. por el otro) también es y seguirá siendo un
asunto candente en los próximos años.

Sin embargo, realmente es poco lo que se conoce del tema. Hace falta conocer los beneficios
que genera, los alcances científicos y las precauciones que se debe tener con el manejo de la
radiactividad, además es interesante informarse sobre el porqué ocurren, más sabiendo que todos
los seres vivos están involucrados, se quiera o no con ella, no importando el lugar en donde se
encuentren, ya sea en la casa, en la oficina, en el campo, en la calle, o en el colegio.

1.- DESCUBRIMIENTO DE LA RADIACTIVIDAD

Los antiguos griegos propusieron que la materia no podía ser dividida indefinidamente, de tal forma
que supusieron que ésta debía estar compuesta por unidades indivisibles a las que llamaron átomos
(de palabras griegas que literalmente significan: sin división). Los griegos supusieron que las
diversas formas que los átomos tenían -los cuales eran sólidos- determinaban las características de
las diferentes sustancias.

Después vino la idea de los elementos, la cual suponía que diferentes elementos estaban
constituidos por diferentes clases de átomos. John Dalton (1766-1844) mostró que cada elemento
estaba formado de átomos que diferían en masa de los átomos de otros elementos. Por ejemplo, el
carbón tiene una masa relativa de 12, el oxigeno de 16, siendo la unidad el átomo de hidrógeno, el
cual es el más ligero de todos los átomos.

También se creía a finales del siglo XIX, que los componentes básicos de la materia conocida eran
estables, siempre iguales, inmutables. Se pensaba que cuando un material no recibe influencia
externa alguna (no se calienta, no se parte, no se tiñe, etc.), permanecerá igual a través del
tiempo, sus átomos no cambiarán: es decir desde un lenguaje más científico se creía que las
moléculas podían sufrir transformaciones, recombinándose para formar otras, pero los átomos
se mantenían siempre inalterados.

Pero, en 1896 Becquerel informó a la comunidad científica un fenómeno


que no encajaba con esta idea de la inmutabilidad de los materiales...

A. HENRI BECQUEREL

Poco después de que se descubriera los rayos X, en 1895; Antoine Henri


Becquerel (1852-1908) mostró un fenómeno que no era explicable de
acuerdo con el modelo inmutable que se tenía de los átomos. Había
observado repetidas veces que unas placas fotográficas envueltas en
papel negro junto a un cierto mineral (que luego sería denominado
7
pecblenda), se habían ennegrecido (se habían velado). Esto sucedía de un día para otro, es decir
en un tiempo relativamente cortos, lo que hacía suponer que el cambio se debía a un agente
externo. No podía entrar luz a las placas, y éstas no habían sido calentadas. Tampoco podían haber
sido afectadas por algún agente químico. Al revelar la placa apareció que algún rayo emitido por el
mineral debía haber penetrado a través del papel.

Pero, ¿cómo había sucedido esto? El peso de la evidencia, tras mucho repetir la operación,
llevó a la conclusión que existía "algo" producido o emitido por la pecblenda, que atravesaba la
gruesa protección de las placas fotográficas de la época y las impresionaba igual que cuando se
sacaba una fotografía exponiéndolas a la luz visible común. De este modo Becquerel descubrió
la radiactividad. Posteriormente, mostraría que los rayos provenientes del uranio podían ionizar el
aire y también eran capaces de penetrar a través de láminas metálicas delgadas.

B.-MADAM CURIE

En 1898, Marie Sklodowska Curie (1867-1934), con su esposo Pierre


Curie (1859-1906), dirigió sus investigaciones a la radiactividad. En poco
tiempo el matrimonio Curie descubrieron dos elementos nuevos, el polonio y
el radio, ambos radiactivos. Para confirmar su trabajo sobre el radio,
procesaron una tonelada de residuos de pecblenda, para obtener 0.1 g de
cloruro de radio puro, que usaron para efectuar más estudios sobre las
propiedades del radio y determinar su masa atómica.

Marie Curie, dos años después de él descubrimiento de Becquerel, en 1898, le dio a este fenómeno
el nombre de radiactividad.

C. ERNEST RUTHERFORD

Ernest Rutherford, en 1899, comenzó a investigar la naturaleza de los rayos


emitidos por el uranio. Encontró dos tipos de rayos, a los que llamó rayos
alfa y beta. Pronto se dio cuenta que el Uranio, al emitir estos rayos, se
transformaba en otro elemento. A la altura de
1912 se conocían ya más de 30 isótopos radiactivos y hoy se conocen
mucho más. Paul Villard descubrió en 1900, los rayos
gamma, un tercer tipo de rayos que emiten los materiales radiactivos y que
es semejante a los rayos X. De acuerdo con la descripción del átomo
nuclear, Rutherford se atribuyó el fenómeno de la radiactividad a
reacciones que se efectúan en los núcleos de átomos

8
2.- ISOTOPOS

Como hemos dicho, los núcleos de los átomos están formados por partículas llamadas nucleones que
son de dos tipos: los protones (partículas eléctricamente positivas) y los neutrones (que como su
nombre lo indica son eléctricamente neutras). Todos los átomos de un mismo elemento tienen la
misma cantidad de protones y por tanto, la misma cantidad de electrones. Esto hace que tengan
similares propiedades químicas. (El comportamiento químico de un átomo está asociado al número
atómico.)

Pero, existen átomos que teniendo el mismo número de protones, tienen diferente cantidad de
neutrones. Se denominan los isótopos de ese elemento. Así como el número atómico caracteriza a
elementos diferentes, el número másico, que es la suma de protones y neutrones que hay en el
núcleo, caracteriza isótopos diferentes.

El núcleo del átomo de oxígeno tiene 8 protones (esto es imprescindible para que sea oxígeno), pero
se encuentran en la naturaleza en forma estable núcleos con 8 neutrones (99,756 %), con 9
neutrones (0,039 %) y con 10 neutrones (0,205 %).

Resumiendo: Los isótopos de un mismo elemento son las distintas variedades existentes de núcleos
que tienen la misma cantidad de protones, pero distinto número de neutrones. Para definir
completamente de qué núcleo se trata, deberemos entonces decir cuántos protones y cuántos
neutrones tiene. Para un mismo elemento de la tabla periódica, existe una gran cantidad de
diferentes isótopos. Esto hace que el número de núcleos posibles sea enorme. Todos los isótopos de
un mismo elemento se deben colocar en el mismo lugar de la tabla periódica (De ahí el nombre de
isótopos). Hay elementos que tienen hasta 20 ó 30 isótopos diferentes.

El análogo a la tabla periódica, pero considerando todos los posibles isótopos de cada elemento se
conoce como la Carta Nuclear:

9
A cada uno de estos núcleos diferentes los llamamos "nucleidos". La cantidad total de nucleidos
identificados hasta el presente es muy grande, próxima a los 2000.

Se diseñó una carta o tabla de nucleidos para sistematizar la información sobre ellos. Se ordenan en
casilleros: en distintas filas de acuerdo a la cantidad de protones y en distintas columnas de acuerdo a
la cantidad de neutrones.

Así encontraremos que en la fila 8 están los nucleidos que tienen 8 protones, es decir, encontraremos
a todos los isótopos del oxígeno. De la misma forma, en la fila 92 estarán todos los isótopos del
uranio.

Dentro de cada casillero de la tabla de nucleidos se incluye normalmente información sobre el


nucleido en particular, de utilidad para los científicos nucleares. Una información relevante es si el
nucleido en cuestión es estable o inestable. Para ello, además de datos numéricos, es común dar a
cada casillero un color particular. En nuestra carta de nucleidos hemos pintado de negro los casilleros
de los nucleidos estables, mientras que los inestables tienen otro color.

Entre los nucleidos de la carta solo algunos (pocos) son llamados estables, es decir que no se
transmutan por sí solos en otros isótopos y por lo tanto no se alteran con el paso del tiempo. Los
otros, inestables, emiten radiaciones: son los isótopos radiactivos o radioisótopos.

10
Lo primero que nos asombra es ver que los casilleros negros son muy pocos, hay muchísimos más
nucleidos inestables que estables. Sin embargo es mucho más fácil encontrar nucleidos estables
que con nucleidos inestables, ya que aquellos tienen una vida "eterna" mientras que los segundos
se van transformando en otros nucleidos.

En la carta de los nucleidos, la curva que forman los casilleros negros es llamada "línea de
estabilidad", como si se pudiera trazar. A la derecha de la línea de estabilidad se ubican los isótopos
radiactivos que tienen más neutrones que los isótopos estables (color celeste). A la izquierda se
ubican los isótopos radiactivos que tienen menos neutrones que los estables (color rosa).

Los isótopos que están fuera de la línea de estabilidad, emiten radiaciones, dando como resultado
otro nucleido más cercano a la línea de estabilidad. En la zona celeste se emiten partículas
negativas, normalmente electrones, que constituyen la radiación (beta -). Se dice que el nucleido
ha tenido entonces un "decaimiento beta". La pérdida de una carga negativa en el núcleo puede
interpretarse como que un neutrón se transformó en un protón, por lo que el nuevo nucleido está
una fila más arriba y una columna más a la izquierda que el nucleido original, acercándose a los
casilleros negros.

En la zona rosa en cambio, las partículas emitidas son positivas (positrones). Aquí sucede a la inversa:
en el "decaimiento beta más", todo pasa como si un protón perdiera su carga y se transformara en
un neutrón, por lo que el nucleido hijo se encuentra una fila más abajo y una columna más a la
derecha que el original, también acercándose a los casilleros negros.

En líneas generales se comprueba que los nucleidos que están más alejados de la línea de estabilidad
son los más inestables. Esto significa que muy rápidamente desde que son creados (ya sea
directamente o bien como consecuencia de algún decaimiento) emiten alguna radiación, mientras
que los cercanos a los casilleros negros tardan más en hacerlo.

Además de la emisión beta, en el caso de los nucleidos muy pesados es común la emisión de
partículas alfa. Casi siempre el decaimiento de un nucleido mediante la emisión de una partícula
cargada (alfa, beta), es acompañada además por la emisión de radiación gamma.

3.-TIPOS DE RADIACIONES

Son muchas las radiaciones que existen: rayos ultravioleta, infrarroja, luz visible, ondas de radio,
microondas, rayos alfa, beta y gamma ... La descripción y comprensión de las mismas no fue la obra
de una sola persona, sino el producto del aporte de muchos científicos durante fines del siglo XIX
y todo el siglo XX, tarea que aún continúa. Se destacan en los primeros tiempos Rutherford y
colaboradores, que investigaron en detalle la naturaleza de las radiaciones emitidas logrando
identificar tres:

11
ALFA - Resultaron ser núcleos de helio (o sea átomos del gas noble helio despojados de sus únicos dos
electrones).
BETA - Resultaron ser electrones(Beta menos) o positrones (Beta más)
muy rápidos,
GAMMA - Consisten en Radiación Electromagnética (similar a otras radiaciones que nos son más
familiares como la luz visible o los rayos X), pero con la diferencia de ser mucho más energéticos

12
RADIACIONilS IONJZANTES

PARTICULAS BETA.
ESTAN FORMADAS POR ELECTRONES QUE VIENEN DEL NUCLEO DE UN ATOMO RADIOACTIVO EN
DESINTEGRACióN

LAS PARTICULAS BETA TIENEN IJNA CARGA NEGATIVA


Y ALGIJN.AS OCASIONES SE DESPRENDEN TAMBIÉN EN PAR·
TICULAS CON LA MISMA MASA DEL EL.ECTRON PERO
CON CARGA POSITIVA A ESTOS SELES DENOMINA POSITRONES

VIAJAN A UNA ALTA VELOCIDAD. TIENEN UNA ENEREGÍA DE 4 MeV O MAYOR. DEBIDO A LA VELOCIDAD, SU CAPACIDAD
DE PENETRACIÓN ES MAYOR QUE LAS PARTÍCULAS ALFA, PERO SU PODER DE IONIZACIÓN ES MENOR. PENETRAN 4 cm
DE MADERA Y HASTA 1.3 cm DE PIEL.

RADIACIONES IONIZANTES Y NO IONIZANTES

- . PARTÍCULAS GAMMA :
ES LA EMISIÓN DE UNA ONDA ELECTROMAGNÉTICA POR UN
NÚCLEO RADIACTIVO AL PASAR DE UN ESTADO EXCITADO AL
ESTADO FUNDAMENTAL O A OTRO DE ENERGÍA MÁS BAJA.

LA RADIACIÓN GAMMA ES INDIRECTAMENTE IONIZANTE, YA


QUE AL TRATARSE DE ONDAS ELECTROMAGNÉTICAS,
CARECEN DE CARGA ELÉCTRICA Y EN SU INTERACCIÓN CON LA
MATERIA SE VAN A PRODUCIR FENÓMENOS DE IONIZACIÓN.

13
Mientras que las partículas alfa y beta tienen alcances definidos en la materia, los rayos gamma
experimentan una atenuación exponencial (si se pasa por alto la acumulación que resulta de la
dispersión dentro de un material) a medida que atraviesan la materia. Cuando puede
prescindirse de la acumulación, la atenuación de los rayos gamma viene dada por la
característica de la masa El coeficiente másico de atenuación depende de la energía de los rayos
gamma y del material con el que interactúan los rayos gamma.

PENETRACION DE LAS RADIACIONES IONIZANTES EN LA MATERIA

Las Partículas Alfa de los materiales radiactivos son detenidas fácilmente por un pedazo
de cartón. Las Partículas Beta penetran el cartón pero son detenidas por
una lámina de aluminio.
Los Rayos Gamma logran atravesar la lámina de aluminio, pero acaban siendo absorbidos por
un bloque grueso de plomo. Los Neutrones producidos por ejemplo en
reactores de fisión, logran atravesar incluso el plomo, pero no un bloque grueso de hormigón.

4.- VIDA MEDIA DE LOS ELEMENTOS RADIACTIVOS

Cada núcleo radiactivo se desintegra según la intensidad o rapidez específica constante, siendo
distinta para cada especie. Así, por ejemplo, mientras que unos isótopos radiactivos se desintegran
en menos de un segundo, otros tienen una vida mucho más larga, de hasta miles de años.

Para caracterizar estos tiempos, se usa el concepto de vida media. La vida media (t1/2) es el tiempo
necesario para que se desintegre la mitad de una determinada cantidad de un núcleo radiactivo.
Como hemos dicho, las semividas de los elementos alcanzan, desde una fracción de segundo, hasta
miles de millones de años. Un núcleo estable puede considerarse, por tanto, como un núcleo con
una
vida media infinita.

Las vidas medias de los radioisótopos del mismo elemento son distintas. En la tabla siguiente,
aparecen las de algunos isótopos del Radio, Carbono y Uranio.

14
Vida Media de isótopos del Radio, Carbono y Uranio

Isótopo Semivida Isótopo Semivida

Ra 223 11.7 días C 14 5668 años

Ra 224 3.64 días C 15 24 segundos

Ra 225 14.8 días U 235 7.1 x 108 años

Ra 226 1620 años U 238 4.5 x 109 años

Ra 228 6.7 años

5.- RADIACTIVIDAD NATURAL

La radiactividad no es nada nuevo. Existe desde que se formó la Tierra hace 4500 millones de años.
No se puede percibir por el olfato, el gusto, el tacto, el oído ni la vista. Sólo en los últimos años se ha
aprendido a detectarla, medirla y controlarla.

Al contrario de la creencia popular, la radiación no sólo se produce en las centrales nucleares


o en las bombas atómicas (que en realidad deberían llamarse bombas nucleares). En efecto, un 87%
de la dosis de radiación que recibimos proviene de fuentes naturales. La radiactividad está en todas
partes: en las casas, en el aire que respiramos, en los alimentos que tomamos; incluso nuestro
propio cuerpo es radiactivo. La Tierra es radiactiva por naturaleza y expone a los habitantes a la
radiación proveniente de las rocas superficiales y el suelo.

15
La radiación natural en la tierra y las rocas, da una dosis promedio de 60 mrem (rem es la unidad
para medir la dosis de radiactividad) por año. Estos materiales forman parte de las viviendas, dado
que se utilizan estas rocas en los materiales de construcción, añadiendo cantidades apreciables de
radiación. Por ejemplo, el habitar en una casa de ladrillo o piedra, el hombre se expone a 7 mrem
más por año que si se habita en una casa de madera. Todos los edificios de granito emiten
radiaciones y el vivir sobre granito añade cantidades apreciables de radiación. El gas radón, que
surge del radio natural contenido en los materiales de construcción, también está presente
en las casas y oficinas y emite más radiación. Incluso el dormir junto a otra persona puede aumentar
nuestra dosis anual de radiación, ya que cada cuerpo contiene potasio radiactivo, que existe
normalmente junto con el potasio normal que es esencial a la vida, dando una dosis de radiación
interna.

La radiactividad natural también se introduce en el cuerpo y estas radiaciones internas llegan a la


mayoría de los tejidos corporales, en una cantidad aproximada de 18 mrem por año. Tanto el
alimento como el agua y el aire, contienen niveles bajos de radiactividad natural y esto ha sido así
desde el comienzo del mundo.

Las fuentes naturales de radiación son típicas de la manera actual de vivir. El arar la tierra libera gas
radón a la atmósfera. Los materiales radiactivos naturales se introducen en la cadena alimentaria,
el aire que se respira, y el agua que bebemos y los materiales de construcción: el concreto, la piedra
y el ladrillo emiten radiación natural

16
238 206Pb, las flechas indican las 92 82
Gráfico: Serie de desintegración de a
transformaciones que se inician en el uranio y terminan en el plomo las flechas
horizontales indican emisión de partículas ß y las diagonales partículas alfa.

También cuando se viaja en avión, uno se expone a recibir una radiación mayor, ya que hay
menos protección contra los rayos cósmicos. Un pasajero que viaje en avión a una altitud normal
recibe en una hora, una dosis de radiación cuatro veces mayor, que la que recibe de toda la industria
nuclear en un año.

6.- EVOLUCIÓN

La evolución de vida en la tierra según las teorías más aceptadas es fruto de las mutaciones
genéticas. La presencia de una cantidad relativamente importante de Uranio en nuestro planeta
convierte a la superficie terrestre en una zona con un importante contenido de radiación natural. La
vida no solo ha sido capaz de desarrollarse a pesar de estar sometida a esta radiacion, sino que a
base de mutaciones aleatorias de los genes debidas a estas radiaciones ionizantes ha ido
evolucionando guiada por la selección natural (supervivencia de las mutaciones beneficiosas). En un
planeta con una menor cantidad de radiactividad natural, la evolución de la vida hubiese sido mucho
mas lenta o incluso inalcanzable. Por tanto, la humanidad, como cabeza de la cadena evolutiva, debe
gran parte de su desarrollo a la radiactividad.
6.1.- DATACIÓN. EL Carbono 14

El carbono 14 se produce de manera contínua en la atmósfera, cuando neutrones de alta energía


del espacio, chocan contra el nitrógeno 14

Al igual que el carbono 14, se produce contínuamente por este proceso, se descompone en forma

17
para dar

continua al emitir partículas beta con el transcurso de los años, estos dos procesos opuestos,
han alcanzado casi equilibrio, por lo que la cantidad de 14C6 presente en la atmósfera,
permanece aproximadamente constante.

El carbono 14 artificial, que está actualmente en circulación por la Tierra, alcanza


aproximadamente una tonelada y representa aproximadamente el 1% de la abundancia total
natural. Durante los últimos siete años, el hombre lo ha producido a un ritmo considerablemente
mayor que el resultante del proceso natural, mediante el cual se forma por la acción de los
6
neutrones de los rayos cósmicos. La mayoría está todavía en la atmósfera combinado en dióxido
de carbono. En los organismos vivientes se ha elevado el contenido de carbono 14, hasta el 10%
por encima de lo normal, esta situación puede confundir a los futuros arqueólogos.

6.2.- APLICACIONES MÉDICAS

Dentro del uso de la radiactividad en las actividades humanas, la más conocida es la de


sus aplicaciones médicas. El uso de la radiación en el diagnóstico y el tratamiento de
enfermedades se ha convertido en una herramienta básica en medicina. Con ella se ha podido
realizar exploraciones del cerebro y los huesos, tratar el cáncer y usar elementos radiactivos para
dar seguimiento a hormonas y otros compuestos químicos de los organismos.

18
Tabla

Algunos isótopos radiactivos, sus vidas medias y sus aplicaciones médicas como marcadores en
el cuerpo humano.

Núcleo Vida media Área del cuerpo que se estudia

131 I 8.1 días Tiroides

59 Fe 45.1 días Glóbulos rojos

99 Mo 67 horas Metabolismo

32 14.3 días Ojos, hígado, tumores


P

51 27.8 días Glóbulos rojos


Cr

87 2.8 horas Huesos


Sr

99 To 6.0 horas Corazón, huesos, hígado, pulmones

133 Xe 5.3 días Pulmones

24 Na 14.8 horas Sistema circulatorio

Ejemplos de Aplicaciones Médicas:

Se emplean los trazadores radiactivos normalmente en el diagnóstico médico. Al respecto de cómo se


debe detectar la radiactividad fuera del cuerpo, generalmente se escogen isótopos radiactivos
(radionúclidos) emisores de rayos gama. También, el trazador debe ser efectivo a bajas
concentraciones y debe tener una semivida corta para reducir la posibilidad de daños al paciente. Se
emplea el yodo radiactivo (I 131) para determinar la función tiroidea, que es donde el organismo
concentra al yodo. En este proceso, se ingiere una pequeña cantidad de yoduro radiactivo de sodio o
de potasio. Se enfoca un detector a la glándula tiroides y se mide la cantidad de yodo en la glándula
pudiendo luego comparar con el de una tiroides normal para detectar cualquier diferencia.

También Se puede emplear el yodo 131 para el tratamiento del hipertiroidismo.( El mal
funcionamiento de la glándula tiroides desarrolla el bocio en las personas y causa muchos trastornos
en el metabolismo). La dosis terapéutica es mayor que la que emplea en el diagnóstico. La glándula
tiroides concentra selectivamente al y
131. La sección de la glándula que es hiperactiva quedará expuesta a una gran dosis del isótopo y será
la que se destruya específicamente.

19
Los médicos pueden examinar la eficiencia cardiaca en el bombeo y verificar la evidencia de
una obstrucción en las arterias coronarias mediante el barrido nuclear. El radionúclido Tl 201, al
inyectarse en el flujo sanguíneo, se aloja en el tejido sano del corazón. El talio 201 emite
radiación gama, que se detecta mediante un dispositivo especial llamado cámara de
centelleo. Los datos obtenidos se traducen simultáneamente en cifras mediante una
computadora. Con esta técnica se puede observar si el tejido cardiaco ha muerto, después de un
ataque al corazón y si la sangre fluye libremente a través de los conductores coronarios.

Una de las últimas aplicaciones de la química nuclear es el uso de la tomografía de emisión de


positrones (PET) en la medida de procesos dinámicos en el organismo, como el uso de oxígeno o el
flujo sanguíneo, y en oncología Para esta aplicación, se fabrica un compuesto que contiene un
núclido emisor de positrones, como C 11, O 15 ó N 13. Se inyecta el compuesto en el organismo y se
coloca al paciente en un instrumento que detecta las emisiones de positrones. Una computadora
produce una imagen tridimensional de la zona. Los barridos de emisión de positrones también se
han empleado para localizar las zonas del cerebro relacionadas con los ataques epilépticos. El
cerebro emplea la glucosa a velocidad distinta del tejido normal.

7.- PELIGROS

La radiactividad puede ser peligrosa y sus riesgos no deben tomarse a la ligera. Puede dañar las
células del organismo y la exposición a altos niveles, puede ser nociva e incluso fatal si se trata de
manera inadecuada, por eso lleva un largo proceso de investigación y descubrimientos abriéndose
las puertas de la era nuclear.

Después de muchos años de investigación, desarrollo y aplicaciones industriales, hoy se puede


afirmar que existen soluciones tecnológicas bastante seguras para manejar adecuadamente los
desechos radiactivos. Estos no solo provienen de los reactores que generan electricidad, sino
también de los hospitales, la industria, la agricultura y la investigación, como ya se estudió en
los apartados anteriores donde se conocieron las aplicaciones de la radiactividad en esos campos.

7.1.- Residuos Radiactivos

La desventaja principal de las plantas nucleares es que producen desechos altamente radiactivos,
algunos de los cuales tienen semividas de miles de años. Hasta ahora, no se ha logrado un consenso
sobre cómo almacenar con seguridad de tales productos radiactivos.

Aproximadamente una vez al año, se extrae una parte del combustible nuclear colocado dentro del
reactor nuclear de fisión y se sustituye por uno nuevo. El combustible gastado es muy radiactivo y
debe aislarse por miles de años con mucho cuidado, de lo contrario causaría daños irreparables a
las personas y al

20
ambiente. Es extraído del reactor por manos mecánicas y colocado en piscinas con agua para
enfriarlo y aislarlo por poco tiempo, mientras es llevado al depósito permanente. También se
almacena en contenedores de hormigón o acero mientras se les da el lugar definitivo.

Este uranio gastado también se reutiliza en la actualidad, Francia, Reino Unido y la Federación
Rusa, cuentan con plantas de reelaboración a nivel industrial y mundial para la obtención de uranio
y plutonio, en el proceso químico. Este tipo de desecho representa un 95% ya que una planta típica
nuclear de generación eléctrica produce 30 toneladas anuales de uranio gastado, esta cantidad
puede reducirse a 3 m3 de desecho radiactivo.

También se cuentan, con desechos radiactivos sólidos, líquidos y gaseosos. Entre los sólidos se
cuentan toallas, papel, vidrio metales y otros materiales usados en la central. Cada uno tiene su
manera de ser tratados para evitar problemas.

Los sólidos altamente radiactivos se sellan en recipientes de metal o cerámica resistentes a la


corrosión, para evitar que la humedad los afecte. Actualmente algunos países que se dedican a la
reelaboración del combustible gastado lo vitrifican. Hay acuerdos que la manera idónea para aislar
esos desechos es colocarlos en cavidades profundas de la tierra, con barreras tecnológicas y
naturales como por ejemplo minas de sal, granito, arcilla, basalto (roca volcánica) y otras más.

Los desechos sólidos vitrificados se sellan en recipientes de metal o cerámica resistentes a la


corrosión para evitar que la humedad los afecte.

7.2.- Desastres en Centrales Nucleares

Dos eventos que demostraron los peligros potenciales de la energía nuclear fueron los
accidentes en la isla Three Mile, en Pennsylvania, EUA (1979) y Chernobyl, URSS (1986). Ambos
accidentes fueron originados por la pérdida de refrigerante en el núcleo del reactor. Los reactores en
la isla Three Mile están envueltos por cascarones de cemento y por lo tanto dejaron escapar una
cantidad relativamente pequeña de material radiactivo a la atmósfera. Como en la Unión Soviética
no se usan estructuras de contención para las plantas nucleares, el accidente de Chernobyl ocasionó
31 muertes y la afectó en diverso grado hasta un total de 135000 personas. La descarga de grandes
cantidades de Y 131, Cs 134 y Cs 137 generaron problemas de salud a largo plazo en esa población
que estuvo expuesta.

Sin embargo, aunque muchos puedan creer que una central nuclear puede explotar como una
bomba atómica, esto no es así. Las bombas atómicas y las centrales nucleares son esencialmente
diferentes. Las bombas para explotar requieren la unión rápida de dos piezas de uranio-235
metálico casi puro, formando una masa compacta de geometría definida. Un reactor nuclear
típico, que produzca vapor para una central eléctrica, utiliza uranio cerámico

21
(normalmente en forma de óxido), no metal, con un contenido de uranio-235 sólo del orden del 3 %;
el resto del uranio se compone de uranio 238 que no se fisiona en el reactor.

Hay que indicar que en la actualidad, la experiencia que ha adquirido la industria nuclear en el uso
de sustancias radioactivas, ha permitido a ésta conocer plenamente los peligros que entraña. Un
blindaje y una contención apropiados evitarán la fuga de radiaciones. La clara comprensión de los
principios de protección radiológica y el conocimiento exhaustivo de las propiedades de la radiación
que posee la industria nuclear le permiten diseñar, construir y explotar sus plantas manteniendo en
un mínimo la exposición a las radiaciones que afecta a los trabajadores y el público, de conformidad
con las directrices internacionales. La vigilancia periódica de los trabajadores de la industria nuclear
y de su ambiente de trabajo garantiza, que no se rebasen estos niveles.

Para asegurarse que el público no sufra ningún daño, el explotador de la central está obligado a
medir la radiactividad en el ambiente y comprobar mediante medidas en el aire, agua y suelos y
alimentos, que las personas que viven alrededor de la central, pueden respirar, beber y comer los
alimentos de la zona sin peligro.

Las medidas de seguridad y de precaución, como toda actividad humana, ha ido evolucionando con
el tiempo, tanto es así que actualmente se exige un área sin poblar alrededor de las centrales
nucleares, aunque varía de acuerdo con cada país. A finalizar 1989, existían 426 centrales
nucleares conectadas a la red eléctrica en 25 países. Actualmente la cantidad de energía
eléctrica representa más del 20% de la demanda.

7.3.- Lluvia Acida

La radiactividad liberada en la atmósfera, principalmente de pruebas nucleares, se deposita poco a


poco sobre la superficie de la tierra a través de la conocida como lluvia radiactiva. La dosis media
recibida por la población por esta causa ha pasado de valores altos en las décadas de los 50-70
(hasta 0,08-014 mSv.) a los valores actuales, del orden de 5 microSievert, aunque en algunos lugares
alcanza los 10 mocrosievert. Como puede observarse en la gráfica, el aumento de radiactividad de
1.986 se debe al accidente de la central de Chernobil.

22
7.4.- Bombas Nucleares

La Historia de la humanidad nos muestra que prácticamente todo el desarrollo tecnológico que ha
logrado el hombre, ha tenido de una u otra manera una aplicación militar. El gran poder de la energía
nuclear es, por supuesto, el ejemplo más clamoroso de esto.

El gobierno estadounidense en la Segunda Guerra mundial reunió a los principales físicos nucleares de
la época y les exigió que lograsen crear una bomba nuclear en lo que se conoció como Proyecto
Manhattan. Fruto de un importante esfuerzo económico y de medios, pronto se consiguió el objetivo.
El empleo de estas bombas sobre Japón marcó el final de la guerra. Una visión pesimista del mundo
plantea que la humanidad se enfrentará a su propia extinción fruto de esta carrera militar. Está claro
que una (no deseada) Tercera Guerra Mundial en la que se usasen armas nucleares sería nefasta.

PERÚ Y RADIACIÓN

El Perú, no se encuentra excluido del uso e investigaciones de la Radiación y aplicaciones para la mejor
calidad de vida y en la Medicina.

ASí pues, uno de ellos, se encuentra en el IPEN: El Instituto Peruano de Energía Nuclear (IPEN) es una
Institución Pública Descentralizada del Sector Energía y Minas con la misión fundamental de normar,
promover, supervisar y desarrollar las actividades aplicativas de la Energía Nuclear de tal forma que
contribuyan eficazmente al desarrollo nacional.

Con la puesta en servicio del Reactor Nuclear RP-10, del IPEN, se dio inicio en el Perú a la producción de
radioisótopos lo que permitió al país entrar en fase efectiva y cada vez más creciente de las
aplicaciones de la tecnología nuclear.

23
Los radioisótopos son elementos radiactivos que tienen propiedades físico-químicas iguales a los
elementos similares naturales y que se estabilizan por emisión de energía en forma de radiación; los
cuales transformados químicamente, se aprovechan clínicamente cuando se administran al organismo
humano con fines terapéuticos, de diagnóstico, estudios en vivo o para estudiar una propiedad o el
comportamiento de un medio o de un material en general.

Desde 1990 se producen en el IPEN el Yodo 131, utilizado


en estudios de la glándula tiroides; Tecnecio 99m de
invalorable aplicación en la obtención de un
radiodiagnóstico médico de diferentes órganos: fósforo 32,
para el tratamiento de la policitemia vera; samario 153,
muy eficaz en el tratamiento del dolor que produce la
metástasis ósea; iridio 192, en forma de alambres de gran
aplicación en braquiterapia.

Los radioisótopos no sólo se aplican en medicina sino


también en otras áreas, es así que se utiliza el yodo 131
para determinar el perfilaje de pozos petroleros,
recuperación secundaria de petróleo, interconexión de
fuentes acuíferas, aforo de ríos, estudios de fugas en
embalses, cálculos del tiempo de residencia en lagunas de
oxidación, etc. El iridio 192 en grandes cantidades, permite
obtener placas gammagráficas en soldaduras de tubos,
tanques, cisternas, gaseoductos, etc., haciendo posible la detección de fallas, discontinuidades,
burbujas, fisuras e incrustaciones. Del mismo modo, el fósforo 32 y el azufre 35 tienen una valiosa
aplicación en agricultura, para optimizar el uso de feritlizantes, mejoramiento de riego,
aprovechamiento de fertilizante, etc. Actualmente se investiga la posibilidad de utilizar el lutecio 99,
debido a que sus propiedades nucleares, lo hacen sumamente interesante en aplicaciones
radioterapéuticas.

En forma paralela, la producción de radiofármacos ha alcanzado un lugar expectante en la medicina


nuclear peruana. Este desarrollo también ha sido progresivo. Actualmente se producen en la Planta de
Producción de Radioisótopos los siguientes productos:

AMD (ácido metilendifosfónico), DEIDA (ácido dietil-iminodiacético), DMSA (ácido dimercapto


succínico), DTPA (sal cálcica sódica del ácido dietilentriaminopentacetico), RENTEC (S- benzoil-
mercaptoacetiltriglicina), MIOTEC (tetrafluoroborato de tetrakis cobre I), PPI (pirofosfato de sodio) TSC
(sulfuro coloidal), HEMTEC (citrato de sodio-estañoso), GLOBUTEC (inmunoglobulina gamma) y
DEXTRAN 500 (solución dextran).

Los logros obtenidos a la fecha, han permitido al Perú alcanzar un lugar destacado en la comunidad de
países latinoamericanos; pues desde hace más de 10 años, el iodo 131, samario 153 e iridio 192 están
siendo exportados a diversos países, tales como: Argentina, Colombia, Guatemala, Cuba, Ecuador,
Bolivia, Uruguay, Trinidad y Tobago y Nueva Zelanda. La calidad de nuestros productos nos ha
permitido también iniciar la exportación de los radiofármacos a Chile, Ecuador, Cuba y Colombia.

TAREA FINAL: Investigue de nuevas aplicaciones en Medicina (ya sea como diagnóstico y/o
tratamiento) del uso de la Radiactividad, Medicina Nuclear o Radioisótopos y prepare un mapa
conceptual , resolver en el ppt 24