Documente Academic
Documente Profesional
Documente Cultură
Electricidad
fuerza aún mayor. El vidrio tiene una carga positiva, que puede describirse
como un defecto de electrones o un exceso de protones.
Cuando algunos átomos se combinan para formar sólidos, frecuentemente
quedan libres uno o más electrones, que pueden moverse con facilidad a
través del material. En algunos materiales, llamados conductores, ciertos
electrones se liberan fácilmente. Los metales, en particular el cobre y la plata,
son buenos conductores.
Los materiales en los que los electrones están fuertemente ligados a los
átomos se conocen como aislantes, no conductores o dieléctricos. Algunos
ejemplos son el vidrio, la goma o la madera seca.
Existe un tercer tipo de materiales en los que un número relativamente
pequeño de electrones puede liberarse de sus átomos de forma que dejan un
‘hueco’ en el lugar del electrón. El hueco, que representa la ausencia de un
electrón negativo, se comporta como si fuera una unidad de carga positiva.
Un campo eléctrico hace que tanto los electrones negativos como los huecos
positivos se desplacen a través del material, con lo que se produce una
corriente eléctrica. Generalmente, un sólido de este tipo, denominado
semiconductor, tiene una resistencia mayor al paso de corriente que un
conductor como el cobre, pero menor que un aislante como el vidrio. Si la
mayoría de la corriente es transportada por los electrones negativos, se dice
que es un semiconductor de tipo n. Si la mayoría de la corriente corresponde
a los huecos positivos, se dice que es de tipo p.
Si un material fuera un conductor perfecto, las cargas circularían por él sin
ninguna resistencia; por su parte, un aislante perfecto no permitiría que se
movieran las cargas por él. No se conoce ninguna sustancia que presente
alguno de estos comportamientos extremos a temperatura ambiente. A esta
temperatura, los mejores conductores ofrecen una resistencia muy baja (pero
no nula) al paso de la corriente y los mejores aislantes ofrecen una
resistencia alta (pero no infinita. Sin embargo, la mayoría de los metales
pierden toda su resistencia a temperaturas próximas al cero absoluto; este
fenómeno se conoce como superconductividad.
Cargas eléctricas
Corriente eléctrica
Electromagnetismo
Semiconductor
Se llama así a un material sólido o líquido capaz de conducir la electricidad
mejor que un aislante, pero peor que un metal. La conductividad eléctrica,
que es la capacidad de conducir la corriente eléctrica cuando se aplica una
diferencia de potencial, es una de las propiedades físicas más importantes.
Ciertos metales, como el cobre, la plata y el aluminio son excelentes
conductores. Por otro lado, ciertos aislantes como el diamante o el vidrio son
muy malos conductores. A temperaturas muy bajas, los semiconductores
puros se comportan como aislantes. Sometidos a altas temperaturas,
mezclados con impurezas o en presencia de luz, la conductividad de los
semiconductores puede aumentar de forma espectacular y llegar a alcanzar
niveles cercanos a los de los metales. Las propiedades de los
semiconductores se estudian en la física del estado sólido.
Conductor eléctrico
Es cualquier material que ofrezca poca resistencia al flujo de electricidad.
La diferencia entre un conductor y un aislante, que es un mal conductor de
electricidad o de calor, es de grado más que de tipo, ya que todas las
sustancias conducen electricidad en mayor o en menor medida. Un buen
conductor de electricidad, como la plata o el cobre, puede tener una
conductividad mil millones de veces superior a la de un buen aislante, como
el vidrio o la mica. El fenómeno conocido como superconductividad se
produce cuando al enfriar ciertas sustancias a un temperatura cercana al cero
absoluto su conductividad se vuelve prácticamente infinita. En los
conductores sólidos la corriente eléctrica es transportada por el movimiento
de los electrones; y en disoluciones y gases, lo hace por los iones.
E
nergía Es la capacidad de un sistema físico para realizar trabajo. La
materia posee energía como resultado de su movimiento o de su
posición en relación con las fuerzas que actúan sobre ella. La
radiación electromagnética posee energía que depende de su frecuencia y,
por tanto, de su longitud de onda. Esta energía se comunica a la materia
cuando absorbe radiación y se recibe de la materia cuando emite radiación.
La energía asociada al movimiento se conoce como energía cinética,
mientras que la relacionada con la posición es la energía potencial. Por
ejemplo, un péndulo que oscila tiene una energía potencial máxima en los
extremos de su recorrido; en todas las posiciones intermedias tiene energía
cinética y potencial en proporciones diversas. La energía se manifiesta en
varias formas, entre ellas la energía mecánica, térmica, química, eléctrica,
radiante o atómica. Todas las formas de energía pueden convertirse en otras
formas mediante los procesos adecuados. En el proceso de transformación
puede perderse o ganarse una forma de energía, pero la suma total
permanece constante.
Un peso suspendido de una cuerda tiene energía potencial debido a su
posición, puesto que puede realizar trabajo al caer. Una batería eléctrica tiene
energía potencial en forma química. Un trozo de magnesio también tiene
energía potencial en forma química, que se transforma en calor y luz si se
inflama. Al disparar un fusil, la energía potencial de la pólvora se transforma
en la energía cinética del proyectil. La energía cinética del rotor de una
dinamo o alternador se convierte en energía eléctrica mediante la inducción
electromagnética. Esta energía eléctrica puede a su vez almacenarse como
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 14
Energía nuclear
Llamamos así a la energía liberada durante la fisión o fusión de núcleos
atómicos. Las cantidades de energía que pueden obtenerse mediante
procesos nucleares superan con mucho a las que pueden lograrse mediante
procesos químicos, que sólo implican las regiones externas del átomo.
La energía de cualquier sistema, ya sea físico, químico o nuclear, se
manifiesta por su capacidad de realizar trabajo o liberar calor o radiación. La
energía total de un sistema siempre se conserva, pero puede transferirse a
otro sistema o convertirse de una forma a otra.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 15
Francia 377,3
Japón 287,8
Alemania 154,1
Canadá 100,3
Rusia 98,7
Ucrania 70,5
Suecia 69,9
España 55,4
Bélgica 41,4
Taiwan 35,3
Suiza 24,8
El átomo
que produce cesio 140, rubidio 93, tres neutrones y 200 MeV, o 3,2 × 10-11
J. Una reacción de fisión nuclear libera una energía 10 millones de veces
mayor que una reacción química típica.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 17
Reactores de propulsión
Para la propulsión de grandes buques de superficie, como el portaaviones
estadounidense Nimitz, se emplean reactores nucleares similares al RAP. La
tecnología básica del sistema RAP fue desarrollada por primera vez en el
programa estadounidense de reactores navales dirigido por el almirante
Hyman George Rickover. Los reactores para propulsión de submarinos
suelen ser más pequeños y emplean uranio muy enriquecido para que el
núcleo pueda ser más compacto. Estados Unidos, Gran Bretaña, Rusia y
Francia disponen de submarinos nucleares equipados con este tipo de
reactores.
Estados Unidos, Alemania y Japón utilizaron durante periodos limitados
tres cargueros oceánicos experimentales con propulsión nuclear. Aunque
tuvieron éxito desde el punto de vista técnico, las condiciones económicas y
las estrictas normas portuarias obligaron a suspender dichos proyectos. Los
soviéticos construyeron el primer rompehielos nuclear, el Lenin, para
emplearlo en la limpieza de los pasos navegables del Ártico.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 20
Reactores de investigación
En muchos países se han construido diversos reactores nucleares de
pequeño tamaño para su empleo en formación, investigación o producción de
isótopos radiactivos. Estos reactores suelen funcionar con niveles de potencia
del orden de 1 MW, y es más fácil conectarlos y desconectarlos que los
reactores más grandes utilizados para la producción de energía.
Una variedad muy empleada es el llamado reactor de piscina. El núcleo
está formado por material parcial o totalmente enriquecido en uranio 235,
contenido en placas de aleación de aluminio y sumergido en una gran piscina
de agua que sirve al mismo tiempo de refrigerante y de moderador. Pueden
colocarse sustancias directamente en el núcleo del reactor o cerca de éste
para ser irradiadas con neutrones. Con este reactor pueden producirse
diversos isótopos radiactivos para su empleo en medicina, investigación e
industria. También pueden extraerse neutrones del núcleo del reactor
mediante tubos de haces, para utilizarlos en experimentos.
Reactores autorregenerativos
Existen yacimientos de uranio, la materia prima en la que se basa la
energía nuclear, en diversas regiones del mundo. No se conoce con exactitud
sus reservas totales, pero podrían ser limitadas a no ser que se empleen
fuentes de muy baja concentración, como granitos y esquistos. Un sistema
ordinario de energía nuclear tiene un periodo de vida relativamente breve
debido a su muy baja eficiencia en el uso del uranio: sólo aprovecha
aproximadamente el 1% del contenido energético del uranio.
La característica fundamental de un ‘reactor autorregenerativo’ es que
produce más combustible del que consume. Lo consigue fomentando la
absorción de los neutrones sobrantes por un llamado material fértil. Existen
varios sistemas de reactor autorregenerativo técnicamente factibles. El que
más interés ha suscitado en todo el mundo emplea uranio 238 como material
fértil. Cuando el uranio 238 absorbe neutrones en el reactor, se convierte en
un nuevo material fisionable, el plutonio, a través de un proceso nuclear
conocido como desintegración (beta). La secuencia de las reacciones
nucleares es la siguiente:
autorregenerativos. Como estos reactores producen más plutonio 239 del que
necesitan para renovar su propio combustible, aproximadamente el 20% del
plutonio recuperado se almacena para su uso posterior en el arranque de
nuevos reactores autorregenerativos.
El paso final en cualquiera de los ciclos de combustible es el
almacenamiento a largo plazo de los residuos altamente radiactivos, que
continúan presentando peligro para los seres vivos durante miles de años.
Varias tecnologías parecen satisfactorias para el almacenamiento seguro de
los residuos, pero no se han construido instalaciones a gran escala para
demostrar el proceso. Los elementos de combustible pueden almacenarse en
depósitos blindados y vigilados hasta que se tome una decisión definitiva
sobre su destino, o pueden ser transformados en compuestos estables,
fijados en material cerámico o vidrio, encapsulados en bidones de acero
inoxidable y enterrados a gran profundidad en formaciones geológicas muy
estables.
Seguridad nuclear
La preocupación de la opinión pública en torno a la aceptabilidad de la
energía nuclear procedente de la fisión se debe a dos características básicas
del sistema. La primera es el elevado nivel de radiactividad que existe en
diferentes fases del ciclo nuclear, incluida la eliminación de residuos. La
segunda es el hecho de que los combustibles nucleares uranio 235 y
plutonio 239 son los materiales con que se fabrican las armas nucleares.
En la década de 1950 se pensó que la energía nuclear podía ofrecer un
futuro de energía barata y abundante. La industria energética confiaba en que
la energía nuclear sustituyera a los combustibles fósiles, cada vez más
escasos, y disminuyera el coste de la electricidad. Los grupos preocupados
por la conservación de los recursos naturales preveían una reducción de la
contaminación atmosférica y de la minería a cielo abierto. La opinión pública
era en general favorable a esta nueva fuente de energía, y esperaba que el
uso de la energía nuclear pasara del terreno militar al civil. Sin embargo,
después de esta euforia inicial, crecieron las reservas en torno a la energía
nuclear a medida que se estudiaban más profundamente las cuestiones de
seguridad nuclear y proliferación de armamento. En todos los países del
mundo existen grupos opuestos a la energía nuclear, y las normas estatales
se han hecho complejas y estrictas. Suecia, por ejemplo, pretende limitar su
programa a unos 10 reactores. Austria ha cancelado su programa. En
cambio, Gran Bretaña, Francia, Alemania y Japón siguen avanzando en este
terreno.
El Consejo de Seguridad Nuclear (CSN) es el organismo encargado de
velar en España por la seguridad nuclear y la protección radiológica. Informa
sobre la concesión o retirada de autorizaciones, inspecciona la construcción,
puesta en marcha y explotación de instalaciones nucleares o radiactivas,
participa en la confección de planes de emergencia y promociona la
realización de trabajos de investigación.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 24
Riesgos radiológicos
Los materiales radiactivos emiten radiación ionizante penetrante que
puede dañar los tejidos vivos. La unidad que suele emplearse para medir la
dosis de radiación equivalente en los seres humanos es el milisievert. La
dosis de radiación equivalente mide la cantidad de radiación absorbida por el
organismo, corregida según la naturaleza de la radiación puesto que los
diferentes tipos de radiación son más o menos nocivos. En el caso del Reino
Unido, por ejemplo, cada individuo está expuesto a unos 2,5 milisieverts
anuales por la radiación de fondo procedente de fuentes naturales. Los
trabajadores de la industria nuclear están expuestos a unos 4,5 milisieverts
(aproximadamente igual que las tripulaciones aéreas, sometidas a una
exposición adicional a los rayos cósmicos). La exposición de un individuo a 5
sieverts suele causar la muerte. Una gran población expuesta a bajos niveles
de radiación experimenta aproximadamente un caso de cáncer adicional por
cada 10 sieverts de dosis equivalente total. Por ejemplo, si una población de
10.000 personas está expuesta a una dosis de 10 milisieverts por individuo, la
dosis total será de 100 sieverts, por lo que habrá 10 casos de cáncer debidos
a la radiación (además de los cánceres producidos por otras causas).
En la mayoría de las fases del ciclo de combustible nuclear pueden existir
riesgos radiológicos. El gas radón, radiactivo, es un contaminante frecuente
en las minas subterráneas de uranio. Las operaciones de extracción y
trituración del mineral producen grandes cantidades de material que contiene
bajas concentraciones de uranio. Estos residuos tienen que ser conservados
en fosas impermeables y cubiertos por una capa de tierra de gran espesor
para evitar su liberación indiscriminada en la biosfera.
Las plantas de enriquecimiento de uranio y de fabricación de combustible
contienen grandes cantidades de hexafluoruro de uranio (UF 6), un gas
corrosivo. Sin embargo, el riesgo radiológico es menor, y las precauciones
habituales que se toman con las sustancias químicas peligrosas bastan para
garantizar la seguridad.
Sistemas de seguridad de los reactores
Se ha dedicado una enorme atención a la seguridad de los reactores. En
un reactor en funcionamiento, la mayor fuente de radiactividad, con
diferencia, son los elementos de combustible. Una serie de barreras impide
que los productos de fisión pasen a la biosfera durante el funcionamiento
normal. El combustible está en el interior de tubos resistentes a la corrosión.
Las gruesas paredes de acero del sistema de refrigeración primario del RAP
forman una segunda barrera. El propio agua de refrigeración absorbe parte
de los isótopos biológicamente importantes, como el yodo. El edificio de
acero y hormigón supone una tercera barrera.
Durante el funcionamiento de una central nuclear, es inevitable que se
liberen algunos materiales radiactivos. La exposición total de las personas
que viven en sus proximidades suele representar un porcentaje muy bajo de
la radiación natural de fondo. Sin embargo, las principales preocupaciones se
centran en la liberación de productos radiactivos causada por accidentes en
los que se ve afectado el combustible y fallan los dispositivos de seguridad. El
principal peligro para la integridad del combustible es un accidente de pérdida
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 25
Fusión nuclear
que libera unos 17,6 MeV por cada fusión. La energía aparece en un primer
momento como energía cinética del núcleo de helio 4 y el neutrón, pero
pronto se convierte en calor en el gas y los materiales próximos.
Si la densidad del gas es suficiente —a esas temperaturas basta una
densidad de sólo 10-5 atmósferas, casi un vacío— el núcleo de helio 4 puede
transferir su energía al gas hidrógeno circundante, con lo que mantiene la
temperatura elevada y permite que se produzca una reacción de fusión en
cadena. En esas condiciones se dice que se ha producido la ‘ignición
nuclear’.
Los problemas básicos para alcanzar las condiciones para la fusión
nuclear útil son: 1) calentar el gas a temperaturas tan altas; 2) confinar una
cantidad suficiente de núcleos durante un tiempo lo bastante largo para
permitir la liberación de una energía mayor que la necesaria para calentar y
confinar el gas. Un problema importante que surge después es la captura de
esta energía y su conversión en electricidad.
A temperaturas superiores a los 100.000 °C, todos los átomos de
hidrógeno están ionizados. El gas está formado por un conjunto
eléctricamente neutro de núcleos con carga positiva y electrones libres con
carga negativa. Este estado de la materia se denomina plasma.
Los materiales ordinarios no pueden contener un plasma lo
suficientemente caliente para que se produzca la fusión. El plasma se
enfriaría muy rápidamente, y las paredes del recipiente se destruirían por las
altas temperaturas. Sin embargo, como el plasma está formado por núcleos y
electrones cargados, que se mueven en espiral alrededor de líneas de campo
magnético intensas, el plasma puede contenerse en una zona de campo
magnético de la forma apropiada.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 29
Para que un dispositivo de fusión resulte útil, la energía producida debe ser
mayor que la energía necesaria para confinar y calentar el plasma. Para que
esta condición se cumpla, el producto del tiempo de confinamiento, , y la
densidad del plasma, n, debe superar el valor 1014. La relación n 1014
se denomina criterio de Lawson.
Desde 1950 se han llevado a cabo numerosos proyectos para la
confinación magnética de plasma en Estados Unidos, la antigua Unión
Soviética, Gran Bretaña, Japón y otros países. Se han observado reacciones
termonucleares, pero el número de Lawson fue pocas veces superior a 10 12.
Sin embargo, uno de los dispositivos —el tokamak, sugerido originalmente en
la URSS por Ígor Tamm y Andréi Sajárov— comenzó a arrojar resultados
prometedores a principios de la década de 1960.
La cámara de confinamiento de un tokamak tiene forma toroidal, con un
diámetro interior de aproximadamente 1 m y un diámetro exterior de
alrededor de 3 m. En esta cámara se establece un campo magnético toroidal
de unos 5 teslas mediante grandes electroimanes. La intensidad de este
campo es unas 100.000 veces mayor que la del campo magnético de la
Tierra en la superficie del planeta. Las bobinas que rodean la cámara inducen
en el plasma una corriente longitudinal de varios millones de amperios. Las
líneas de campo magnético resultantes son espirales dentro de la cámara,
que confinan el plasma.
Después de que en varios laboratorios funcionaran con éxito tokamaks
pequeños, a principios de la década de 1980 se construyeron dos dispositivos
de gran tamaño, uno en la Universidad de Princeton, en Estados Unidos, y
otro en la URSS. En el tokamak, el plasma alcanza una temperatura elevada
por el calentamiento resistivo producido por la inmensa corriente toroidal, y en
los nuevos aparatos grandes, un calentamiento adicional mediante la
inyección de haces neutrales debería producir condiciones de ignición.
Otra posible vía para obtener energía de la fusión es el confinamiento
inercial. En esta técnica, el combustible (tritio o deuterio) está contenido en
una pequeña bolita que se bombardea desde distintas direcciones con un haz
láser de pulsos. Esto provoca la implosión de la bolita y desencadena una
reacción termonuclear que causa la ignición del combustible. Los avances en
la investigación de la fusión son prometedores, pero probablemente hagan
falta décadas para desarrollar sistemas prácticos que produzcan más energía
de la que consumen. Además, las investigaciones son sumamente costosas.
Sin embargo, en los primeros años de la década de 1990 se realizaron
algunos avances. En 1991, se generó por primera vez en la historia una
potencia significativa (unos 1,7 MW) a partir de la fusión nuclear controlada,
en el laboratorio de la Cámara Toroidal Conjunta Europea (JET, siglas en
inglés), en Gran Bretaña. En diciembre de 1993, los investigadores de la
Universidad de Princeton emplearon el Reactor Experimental de Fusión
Tokamak para producir una reacción de fusión controlada que generó 5,6
megavatios. No obstante, tanto el JET como el Reactor Experimental de
Fusión Tokamak consumieron más energía de la que produjeron durante su
funcionamiento.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 30
Receptores centrales
Las células solares hechas con obleas finas de silicio, arseniuro de galio u
otro material semiconductor en estado cristalino, convierten la radiación en
electricidad de forma directa. Ahora se dispone de células con eficiencias de
conversión superiores al 30%. Por medio de la conexión de muchas de estas
células en módulos, el coste de la electricidad fotovoltaica se ha reducido
mucho. El uso actual de las células solares se limita a dispositivos de baja
potencia, remotos y sin mantenimiento, como boyas y equipamiento de naves
espaciales.
Energía solar en el espacio
Un proyecto futurista propuesto para producir energía a gran escala
propone situar módulos solares en órbita alrededor de la Tierra. En ellos la
energía concentrada de la luz solar se convertiría en microondas que se
emitirían hacia antenas terrestres para su conversión en energía eléctrica.
Para producir tanta potencia como cinco plantas grandes de energía nuclear
(de mil millones de vatios cada una), tendrían que ser ensamblados en órbita
varios kilómetros cuadrados de colectores, con un peso de más de 4000 t; se
necesitaría una antena en tierra de 8 m de diámetro. Se podrían construir
sistemas más pequeños para islas remotas, pero la economía de escala
supone ventajas para un único sistema de gran capacidad (Astronáutica).
Dispositivos de almacenamiento de energía solar
Debido a la naturaleza intermitente de la radiación solar como fuente
energética durante los periodos de baja demanda debe almacenarse el
sobrante de energía solar para cubrir las necesidades cuando la
disponibilidad sea insuficiente. Además de los sistemas sencillos de
almacenamiento como el agua y la roca, se pueden usar, en particular en las
aplicaciones de refrigeración, dispositivos más compactos que se basan en
los cambios de fase característicos de las sales eutécticas (sales que se
funden a bajas temperaturas). Los acumuladores pueden servir para
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 36
Fragmento de La energía.
De Antonio Moreno González.
Capítulo 2.
El desarrollo tecnológico ha sido el elemento básico que ha permitido al
hombre utilizar nuevas fuentes de energía de manera cada vez más eficiente.
Pero este progreso también tiene sus límites.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 37
El segundo principio, enunciado en 1851 por lord Kelvin, afirma que «es
imposible realizar una transformación cuyo único resultado sea la conversión
en trabajo del calor extraído de una sola fuente a temperatura uniforme». El
principio puede exponerse de diferentes formas. Pero la limitación que impone
es que la transformación sólo es posible si se toma energía de un foco caliente
y parte de ella se devuelve a un foco más frío. La diferencia entre la energía
tomada y la devuelta es la energía térmica que se ha transformado en trabajo.
Es decir, sólo es aprovechable una parte de la energía tomada del foco
caliente.
No hay que olvidar que una central térmica perturba el microclima del área
donde está instalada. Lo mismo sucede con la creación de embalses. El grado
de perturbación es función del tamaño de la explotación.
Historia
La superconductividad fue descubierta en 1911 por el físico holandés
Heike Kamerlingh Onnes, que observó que el mercurio no presentaba
resistencia eléctrica por debajo de 4,2 K (-269 °C). El fenómeno no se
empezó a entender hasta que, en 1933, los alemanes Karl W. Meissner y R.
Ochsenfeld detectaron un acusado diamagnetismo en un superconductor. Sin
embargo, los principios físicos de la superconductividad no se comprendieron
hasta 1957, cuando los físicos estadounidenses John Bardeen, Leon N.
Cooper y John R. Schrieffer propusieron una teoría que ahora se conoce
como teoría BCS por las iniciales de sus apellidos, y por la que sus autores
recibieron el Premio Nobel de Física en 1972. La teoría BCS describe la
superconductividad como un fenómeno cuántico, en el que los electrones de
conducción se desplazan en pares, que no muestran resistencia eléctrica.
Esta teoría explicaba satisfactoriamente la superconducción a altas
temperaturas en los metales, pero no en los materiales cerámicos. En 1962,
el físico británico Brian Josephson estudió la naturaleza cuántica de la
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 46
que se mueva desplazará un poco las posiciones de los iones a su paso por la
vecindad de los mismos. Estas distorsiones, o fonones, crean pequeñas zonas
positivas que atraen a otros electrones. Se compara ese comportamiento con
el de las bolas de una bolera sobre una cama elástica. Una distorsiona los
muelles del colchón y la distorsión atrae a otra.
hasta poco más del 20% y la energía nuclear genera el 15% de la producción
mundial. Sin embargo, el crecimiento de la energía nuclear ha descendido en
algunos países debido a consideraciones de seguridad. En Estados Unidos
las centrales nucleares generaron el 20% de la electricidad en 1990, mientras
que en Francia, líder mundial del uso de energía atómica, las centrales
nucleares proporcionan el 75% de su producción eléctrica.
Los chinos, los babilonios, los egipcios y los mayas observaron los
movimientos de los planetas y lograron predecir los eclipses, pero no
consiguieron encontrar un sistema subyacente que explicara el movimiento
planetario. Las especulaciones de los filósofos griegos introdujeron dos ideas
fundamentales sobre los componentes del Universo, opuestas entre sí: el
atomismo, propuesto por Leucipo en el siglo IV a.C., y la teoría de los
elementos, formulada en el siglo anterior.
En Alejandría, el centro científico de la civilización occidental durante el
periodo helenístico, hubo notables avances. Allí, el matemático e inventor
griego Arquímedes diseñó con palancas y tornillos varios aparatos mecánicos
prácticos y midió la densidad de objetos sólidos sumergiéndolos en un
líquido. Otros científicos griegos importantes de aquella época fueron el
astrónomo Aristarco de Samos, que halló la relación entre las distancias de la
Tierra al Sol y de la Tierra a la Luna, el matemático, astrónomo y geógrafo
Eratóstenes, que midió la circunferencia de la Tierra y elaboró un catálogo de
estrellas, y el astrónomo Hiparco de Nicea, que descubrió la precesión de los
equinoccios (Eclíptica). En el siglo II d.C. el astrónomo, matemático y
geógrafo Tolomeo propuso el sistema que lleva su nombre para explicar el
movimiento planetario. En el sistema de Tolomeo, la Tierra está en el centro y
el Sol, la Luna y las estrellas giran en torno a ella en órbitas circulares.
Edad media
heliocéntrico, en el que los planetas giran alrededor del Sol. Sin embargo,
Copérnico estaba convencido de que las órbitas planetarias eran circulares,
por lo que su sistema requería unas elaboraciones casi tan complicadas
como el sistema de Tolomeo al que pretendía sustituir (Sistema de
Copérnico). El astrónomo danés Tycho Brahe adoptó un compromiso entre
los sistemas de Copérnico y Tolomeo; según él, los planetas giraban en torno
al Sol, mientras que el Sol giraba alrededor de la Tierra. Brahe era un gran
observador y realizó una serie de medidas increíblemente precisas. Esto
proporcionó a su ayudante Johannes Kepler los datos para atacar al sistema
de Tolomeo y enunciar tres leyes que se ajustaban a una teoría heliocéntrica
modificada. Galileo, que había oído hablar de la invención del telescopio,
construyó uno, y en 1609 pudo confirmar el sistema heliocéntrico observando
las fases del planeta Venus. También descubrió las irregularidades en la
superficie de la Luna, los cuatro satélites de Júpiter más brillantes, las
manchas solares y muchas estrellas de la Vía Láctea. Los intereses de
Galileo no se limitaban a la astronomía: empleando planos inclinados y un
reloj de agua perfeccionado ya había demostrado que los objetos tardan lo
mismo en caer, independientemente de su masa (lo que invalidaba los
postulados de Aristóteles), y que la velocidad de los mismos aumenta de
forma uniforme con el tiempo de caída. Los descubrimientos astronómicos de
Galileo y sus trabajos sobre mecánica precedieron la obra del matemático y
físico británico del siglo XVII Isaac Newton, uno de los científicos más
grandes de la historia.
La física a partir de Newton
cada punto mide la fuerza que actuaría sobre una carga unidad (en el caso
del campo eléctrico) o una corriente unidad (en el caso del campo magnético)
situadas en ese punto. Las cargas eléctricas estacionarias producen campos
eléctricos; las corrientes —esto es, las cargas en movimiento— producen
campos eléctricos y magnéticos. Un campo eléctrico también puede ser
producido por un campo magnético variable, y viceversa. Los campos
eléctricos ejercen fuerzas sobre las partículas cargadas por el simple hecho
de tener carga, independientemente de su velocidad; los campos magnéticos
sólo ejercen fuerzas sobre partículas cargadas en movimiento.
Estos hallazgos cualitativos fueron expresados en una forma matemática
precisa por el físico británico James Clerk Maxwell, que desarrolló las
ecuaciones diferenciales en derivadas parciales que llevan su nombre. Las
ecuaciones de Maxwell relacionan los cambios espaciales y temporales de
los campos eléctrico y magnético en un punto con las densidades de carga y
de corriente en dicho punto. En principio, permiten calcular los campos en
cualquier momento y lugar a partir del conocimiento de las cargas y
corrientes. Un resultado inesperado que surgió al resolver las ecuaciones fue
la predicción de un nuevo tipo de campo electromagnético producido por
cargas eléctricas aceleradas. Este campo se propagaría por el espacio con la
velocidad de la luz en forma de onda electromagnética, y su intensidad
disminuiría de forma inversamente proporcional al cuadrado de la distancia
de la fuente. En 1887, el físico alemán Heinrich Hertz consiguió generar
físicamente esas ondas por medios eléctricos, con lo que sentó las bases
para la radio, el radar, la televisión y otras formas de telecomunicaciones.
El comportamiento de los campos eléctrico y magnético en estas ondas es
bastante similar al de una cuerda tensa muy larga cuyo extremo se hace
oscilar rápidamente hacia arriba y hacia abajo. Cualquier punto de la cuerda
se mueve hacia arriba y hacia abajo con la misma frecuencia que la fuente de
las ondas situada en el extremo de la cuerda. Los puntos de la cuerda
situados a diferentes distancias de la fuente alcanzan su máximo
desplazamiento vertical en momentos diferentes. Cada punto de la cuerda
hace lo mismo que su vecino, pero lo hace algo más tarde si está más lejos
de la fuente de vibración (Oscilación). La velocidad con que se transmite la
perturbación a lo largo de la cuerda, o la ‘orden’ de oscilar, se denomina
velocidad de onda (Movimiento ondulatorio). Esta velocidad es función de la
densidad lineal de la cuerda (masa por unidad de longitud) y de la tensión a la
que esté sometida. Una fotografía instantánea de la cuerda después de llevar
moviéndose cierto tiempo mostraría que los puntos que presentan el mismo
desplazamiento están separados por una distancia conocida como longitud
de onda, que es igual a la velocidad de onda dividida entre la frecuencia. En
el caso del campo electromagnético la intensidad del campo eléctrico se
puede asociar al movimiento vertical de cada punto de la cuerda, mientras
que el campo magnético se comporta del mismo modo pero formando un
ángulo recto con el campo eléctrico (y con la dirección de propagación). La
velocidad con que la onda electromagnética se aleja de la fuente es la
velocidad de la luz.
Luz
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 65
que resultaron tener un diámetro de entre 10 -8 y 10-9 cm. Sin embargo, una
afirmación precisa sobre el tamaño de un átomo exige una definición explícita
de lo que se entiende por tamaño, puesto que la mayoría de los átomos no
son exactamente esféricos y pueden existir en diversos estados, con
diferentes distancias entre el núcleo y los electrones.
Espectroscopia
Uno de los avances más importantes que llevaron a la exploración del
interior del átomo y al abandono de las teorías clásicas de la física fue la
espectroscopia; otro avance fue el propio descubrimiento de las partículas
subatómicas.
Cuando se calienta una sustancia gaseosa ésta emite luz en una serie de
frecuencias determinadas; la distribución de estas frecuencias se denomina
espectro de emisión. En 1823 el astrónomo y químico británico John Herschel
sugirió que las sustancias químicas podían identificarse por su espectro. En
los años posteriores, dos alemanes, el químico Robert Wilhelm Bunsen y el
físico Gustav Robert Kirchhoff, catalogaron los espectros de numerosas
sustancias. El helio se descubrió después de que, en 1868, el astrónomo
británico Joseph Norman Lockyer observara una línea espectral desconocida
en el espectro solar. Sin embargo, las contribuciones más importantes desde
el punto de vista de la teoría atómica se debieron al estudio de los espectros
de átomos sencillos, como el del hidrógeno, que presenta pocas líneas
espectrales.
Los llamados espectros de líneas (formados por líneas individuales
correspondientes a diferentes frecuencias) son causados por sustancias
gaseosas en las que, según sabemos hoy, los electrones han sido excitados
por calentamiento o por bombardeo con partículas subatómicas. En cambio,
cuando se calienta un sólido aparece un espectro continuo que cubre toda la
zona visible y penetra en las regiones infrarroja y ultravioleta. La cantidad
total de energía emitida por el sólido depende mucho de la temperatura, así
como la intensidad relativa de las distintas longitudes de onda. Por ejemplo, si
se calienta un trozo de hierro la radiación emitida comienza en la región
infrarroja, y no puede verse; después la radiación se desplaza hacia el
espectro visible, primero con un brillo rojo y luego blanco, a medida que el
máximo del espectro de radiación avanza hacia la mitad de la zona visible. El
intento de explicar las características de la radiación de los sólidos con las
herramientas de la física teórica de finales del siglo XIX llevaba a la
predicción de que, a cualquier temperatura, la cantidad de radiación debía
aumentar de forma ilimitada a medida que disminuía la longitud de onda. Este
cálculo, en el que no se logró encontrar ningún error, estaba en desacuerdo
con los experimentos y además llevaba a una conclusión absurda, la de que
un cuerpo con temperatura finita pudiera radiar una cantidad infinita de
energía. Estas contradicciones exigían una nueva forma de considerar la
radiación e, indirectamente, el átomo.
La crisis de la física clásica
Hacia 1880 la física presentaba un panorama de calma: la mayoría de los
fenómenos podían explicarse mediante la mecánica de Newton, la teoría
electromagnética de Maxwell, la termodinámica y la mecánica estadística de
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 72
Boltzmann. Parecía que sólo quedaban por resolver unos pocos problemas,
como la determinación de las propiedades del éter y la explicación de los
espectros de emisión y absorción de sólidos y gases. Sin embargo, estos
fenómenos contenían las semillas de una revolución cuyo estallido se vio
acelerado por una serie de asombrosos descubrimientos realizados en la
última década del siglo XIX: en 1895, Wilhelm Conrad Roentgen descubrió
los rayos X; ese mismo año, Joseph John Thomson descubrió el electrón; en
1896, Antoine Henri Becquerel descubrió la radiactividad; entre 1887 y 1899,
Heinrich Hertz, Wilhelm Hallwachs y Philipp Lenard descubrieron diversos
fenómenos relacionados con el efecto fotoeléctrico. Los datos experimentales
de la física, unidos a los inquietantes resultados del experimento de
Michelson-Morley y al descubrimiento de los rayos catódicos, formados por
chorros de electrones, desafiaban a todas las teorías disponibles.
La física moderna
Dos importantes avances producidos durante el primer tercio del siglo XX
—la teoría cuántica y la teoría de la relatividad— explicaron estos hallazgos,
llevaron a nuevos descubrimientos y cambiaron el modo de comprender la
física.
Relatividad
Efecto fotoeléctrico
Cuando una radiación electromagnética de frecuencia apropiada incide
sobre determinados metales, de la superficie del metal se desprenden cargas
eléctricas negativas (hoy sabemos que se trata de electrones). Los aspectos
importantes de este fenómeno son los siguientes: 1) la energía de cada
electrón desprendido sólo depende de la frecuencia de la fuente luminosa, y
no de su intensidad; 2) la cantidad o el ritmo de emisión de electrones sólo
depende de la intensidad de iluminación, y no de la frecuencia (siempre que
se supere la frecuencia mínima o umbral capaz de provocar la emisión);
3) los electrones se desprenden en cuanto se ilumina la superficie. Estas
observaciones, que no podían ser explicadas por la teoría electromagnética
de la luz desarrollada por Maxwell, llevaron a Einstein en 1905 a suponer que
la luz sólo puede absorberse en cuantos, o fotones, y que el fotón
desaparece por completo en el proceso de absorción y cede toda su energía
E (igual a hf) a un solo electrón del metal. Con esta sencilla suposición,
Einstein amplió la teoría cuántica de Planck a la absorción de radiación
electromagnética, lo que concedió una importancia aún mayor a la dualidad
onda-corpúsculo de la luz. Por este trabajo logró Einstein el Premio Nobel de
Física en 1912.
Rayos X
En 1912 el físico alemán Max von Laue y sus colaboradores demostraron
que estos rayos extremadamente penetrantes, descubiertos por Roentgen,
eran radiación electromagnética de longitud de onda muy corta, es decir, de
frecuencia elevada. Se comprobó que el mecanismo de producción de rayos
X correspondía a un fenómeno cuántico, y en 1914 el físico británico Henry
Gwyn Jeffreys Moseley empleó sus espectrogramas de rayos X para
demostrar que el número de protones de un átomo coincide con su número
atómico, que indica su posición en la tabla periódica. La teoría fotónica de la
radiación electromagnética se reforzó y desarrolló aún más cuando el físico
estadounidense Arthur Holly Compton predijo y observó en 1923 el llamado
efecto Compton.
Física del electrón
En el siglo XIX ya se sospechaba que los portadores de las cargas
eléctricas eran partículas extremadamente pequeñas, y los experimentos
electroquímicos indicaban que la carga de esas partículas elementales era
una cantidad definida e invariante. Los experimentos sobre conducción de
electricidad en gases a baja presión llevaron al descubrimiento de dos clases
de rayos: los rayos catódicos, procedentes del electrodo negativo de un tubo
de descarga, y los rayos positivos o rayos canales, procedentes del electrodo
positivo. El experimento realizado por Joseph John Thomson en 1895 midió la
relación entre la carga q y la masa m de las partículas de los rayos catódicos.
En 1899 Lenard confirmó que esta relación era la misma en las partículas
emitidas en el efecto fotoeléctrico. Hacia 1911 Millikan determinó por fin que
la carga eléctrica siempre aparece en múltiplos de una unidad básica e, y
midió su valor, que es de 1,602 × 10-19 culombios. A partir del valor obtenido
para la relación q/m, se determinó que la masa del portador de carga,
denominado electrón, es de 9,109 × 10-31 kilogramos.
Integración Eléctrica II – 2004- Ing. Fernando Sergio García
Página 75