Sunteți pe pagina 1din 60

LABORATORIO DE FISICA I ING.

QUÌMICA UNA - PUNO

TEORIA DE
ERRORES

1
LABORATORIO DE FISICA I ING. QUÌMICA UNA - PUNO

TEORIA DE ERRORES
I. INTRODUCCIÓN.
Una magnitud física es un atributo de un cuerpo, un fenómeno o
una sustancia, que puede determinarse cuantitativamente, es decir, es un
atributo susceptible de ser medido. Ejemplos de magnitudes son la
longitud, la masa, la potencia, la velocidad, etc. A la magnitud de un objeto
específico que estamos interesados en medir, la llamamos mesurando.
Por ejemplo, si estamos interesado en medir la longitud de una barra, esa
longitud específica será el mesurando.
Para establecer el valor de un mesurando tenemos que usar
instrumentos de medición y un método de medición. Asimismo es
necesario definir unidades de medición. Por ejemplo, si deseamos medir
el largo de una mesa, el instrumento de medición será una regla. Si hemos
elegido el Sistema Internacional de Unidades (SI), la unidad será el metro
y la regla a usar deberá estar calibrada en esa unidad (o submúltiplos). El
método de medición consistirá en determinar cuántas veces la regla y
fracciones de ella entran en la longitud buscada.
En ciencias e ingeniería, el concepto de error tiene un significado
diferente del uso habitual de este término. Coloquialmente, es usual el
empleo del término error como análogo o equivalente a equivocación. En
ciencia e ingeniería, el error, como veremos en lo que sigue, está más bien
asociado al concepto de incerteza en la determinación del resultado de
una medición.
En todo proceso de medición existen limitaciones dadas por los
instrumentos usados, el método de medición, el observador (u
observadores) que realizan la medición. Asimismo, el mismo proceso de
medición introduce errores o incertezas. Por ejemplo, cuando usamos
un termómetro para medir una temperatura, parte del calor del objeto
fluye al termómetro (o viceversa), de modo que el resultado de la
medición es un valor modificado del original debido a la inevitable

2
LABORATORIO DE FISICA I ING. QUÌMICA UNA - PUNO

interacción que debimos realizar. Es claro que esta interacción podrá o


no ser significativa: Si estamos midiendo la temperatura de un metro
cúbico de agua, la cantidad de calor transferida al termómetro puede no
ser significativa, pero si lo será si el volumen en cuestión es de pequeña
fracción del mililitro.
Tanto los instrumentos que usamos para medir como las
magnitudes mismas son fuente de incertezas al momento de medir. Los
instrumentos tienen una precisión finita, por lo que, para un dado
instrumento, siempre existe una variación mínima de la magnitud que
puede detectar. Esta mínima cantidad se denomina la apreciación
nominal del instrumento. Por ejemplo, con una regla graduada en
milímetros, no podemos detectar variaciones menores que una fracción
del milímetro.
A su vez, las magnitudes a medir no están definidas con infinita
precisión. Imaginemos que queremos medir el largo de una mesa. Es
posible que al usar instrumentos cada vez más precisos empecemos a
notar las irregularidades típicas del corte de los bordes o, al ir aun más
allá, finalmente detectemos la naturaleza atómica o molecular del
material que la constituye. Es claro que en ese punto la longitud dejará
de estar bien definida. En la práctica, es posible que mucho antes de
estos casos límites, la falta de paralelismo en sus bordes haga que el
concepto de la “longitud de la mesa” comience a hacerse cada vez
menos definido, y a esta limitación intrínseca la denominamos denomina
incerteza intrínseca o falta de definición de la magnitud en cuestión.
Otro ejemplo sería el caso en que se cuenta la cantidad de
partículas alfa emitidas por una fuente radioactiva en 5 segundos.
Sucesivas mediciones arrojarán diversos resultados (similares, pero en
general distintos). En este caso, de nuevo, estamos frente a una
manifestación de una incerteza intrínseca asociada a esta magnitud
“número de partículas emitidas en 5 s”, más que al error de los
instrumentos o del observador.

II. ALGUNOS CONCEPTOS BÁSICOS.

3
LABORATORIO DE FISICA I ING. QUÌMICA UNA - PUNO

Otra fuente de error que se origina en los instrumentos además de


la precisión es la exactitud de los mismos. Como vimos, la precisión de
un instrumento o un método de medición están asociados a la sensibilidad
o menor variación de la magnitud que se pueda detectar con dicho
instrumento o método. Así, decimos que un tornillo micrométrico (con una
apreciación nominal de 10 m) es más preciso que una regla graduada
en milímetros; o que un cronómetro es más preciso que un reloj común,
etc.
La exactitud de un instrumento o método de medición está asociada
a la calidad de la calibración del mismo. Imaginemos que el cronómetro
que usamos es capaz de determinar la centésima de segundo pero
adelanta dos minutos por hora, mientras que un reloj de pulsera común
no lo hace. En este caso decimos que el cronómetro es todavía más
preciso que el reloj común, pero menos exacto. La exactitud es una
medida de la calidad de la calibración de nuestro instrumento respecto de
patrones de medida aceptados internacionalmente. En general los
instrumentos vienen calibrados, pero dentro de ciertos límites. Es deseable
que la calibración de un instrumento sea tan buena como la apreciación
del mismo. La Figura ilustra de modo esquemático estos dos conceptos.

4
LABORATORIO DE FISICA I ING. QUÌMICA UNA - PUNO

Figura Esta figura ilustra de modo esquemático los conceptos de


precisión y exactitud. Los centros de los círculos indican la posición del
“verdadero valor” del mesurando y las cruces los valores de varias
determinaciones del centro. La dispersión de los puntos da una idea de
la precisión, mientras que su centro efectivo (centroide) está asociado a
la exactitud. a) Es una determinación precisa pero inexacta, mientras d)
es más exacta pero imprecisa; b) es una determinación más exacta y
más precisa; c) es menos precisa que a).
Decimos que conocemos el valor de una magnitud dada, en la
medida en que conocemos sus errores. En ciencia consideramos que la
medición de una magnitud con un cierto error no significa que se haya
cometido una equivocación o que se haya realizado una mala medición.
Con la indicación del error de medición expresamos, en forma
cuantitativa y lo más precisamente posible, las limitaciones que nuestro
proceso de medición introduce en la determinación de la magnitud
medida.

¿Qué es el error en ingeniería?


Cuando se realizan mediciones de flujo, es importante darse
cuenta que ningún valor registrado de un parámetro dado es
perfectamente preciso. Los instrumentos no miden al llamado “valor
verdadero” del parámetro, sino que dan una estimación de dicho valor. El
error es la incertidumbre en una medición. Nunca se puede medir algo
exactamente, por lo tanto se trata de minimizar el error, y para esto se
desarrolló la teoría de error. Si no conocemos el error en una medición
no conocemos qué tan confiable es el resultado, por eso es que un
resultado experimental sin un error asociado no representa nada.

III. CLASIFICACIÓN DE ERRORES


Los errores pueden clasificarse en dos grandes grupos:
A) Sistemáticos y B) Accidentales.

5
LABORATORIO DE FISICA I ING. QUÌMICA UNA - PUNO

A. Errores sistemáticos.
Son aquéllos que se reproducen constantemente y en el mismo
sentido. Por ejemplo, si el CERO de un voltímetro no está ajustado
correctamente, el desplazamiento del CERO se propagará, en el mismo
sentido, a todas las medidas que se realicen con él.
Atendiendo a su origen los errores sistemáticos se clasifican en:
A.1) Errores teóricos.
Son los introducidos por la existencia de condiciones distintas a
las idealmente supuestas para la realización del experimento. Un
ejemplo de error teórico es el que resulta de la existencia de la
fricción del aire en la medida de g con un péndulo simple.

A.2) Errores instrumentales.


Son los inherentes al propio sistema de medida, debido a
aparatos mal calibrados, mal reglados o, simplemente, a las propias
limitaciones del instrumento o algún defecto en su construcción. Estos
errores pueden ser atenuados por comparación con otros aparatos
"garantizados", cuyo error instrumental sea más "pequeño" y
controlable.

A.3) Errores personales.


Son los debidos a las peculiaridades del observador que
puede, sistemáticamente, responder a una señal demasiado pronto o
demasiado tarde, estimar una cantidad siempre por defecto, etc.

B. Errores accidentales
Son debidos a causas irregulares y aleatorias en cuanto a
presencia y efectos: corrientes de aire, variaciones de la temperatura
durante la experiencia, etc. Así como los errores sistemáticos pueden
ser atenuados, los errores accidentales para un determinado
experimento, en unas condiciones dadas, no pueden ser controlados.
Es más, los errores accidentales se producen al azar y no pueden ser
determinados de forma unívoca. Para tratar adecuadamente este tipo de

6
LABORATORIO DE FISICA I ING. QUÌMICA UNA - PUNO

errores es preciso hacer uso de la estadística y hablar en términos


probabilísticos. Como veremos, no podemos decir que el error de una
medida sea de 5 unidades, por ejemplo, sino que habrá que decir que
existe una probabilidad P (del 75%, por ejemplo) de que el error sea
inferior a 5 unidades.

IV. MANERAS DE EXPRESAR EL ERROR.


La incertidumbre es la suma del desvío y de la precisión.
Desvío es la incertidumbre sistemática presente durante una prueba, se
considera que permanece constante durante mediciones repetidas de
un cierto conjunto de parámetros. No existe una formulación estadística
que pueda ser aplicada para estimar el desvío, su valor por consiguiente
debe basarse en estimaciones. Las calibraciones y las mediciones
ayudan en su estimación. Precisión se encuentra mediante mediciones
repetidas de la población de parámetros y con la utilización de la
desviación estándar como índice de precisión. En la situación en la cual
no se realizan mediciones repetidas, se debe usar un solo valor; sin
embargo se obtendrá menos precisión. La figura 1 ilustra la definición de
incertidumbre. Se enseña un muestreo de los datos (línea continua)
cuya distribución se supone Gaussiana. El parámetro X es una variable
particular medida, o mensurando, X es el promedio de todas las
variables medidas y DX es el intervalo de incertidumbre, o precisión,

7
LABORATORIO DE FISICA I ING. QUÌMICA UNA - PUNO

asociado con X.

Figura: incertidumbres asociadas con un muestreo de datos


Cuando se presenta el resultado de una medición se presenta de la forma:
X ± DX
Lo que significa en las condiciones que se realizó la medición y después
de realizar un análisis del error, se sabe que la variable medida se
encuentra en un intervalo de valores:
(X - DX, X + DX)
Además es necesario establecer el desvío y la probabilidad P de
registrar el mensurando con la precisión establecida.
 Error absoluto
Se presenta el error en las mismas unidades que la cantidad
medida. Por ejemplo,
M =
34.6±0.07gr
Lo que quiere decir que la masa puede variar entre:
34.53 gr. £ M £ 34.67 gr
 Error relativo
Se expresa como una cantidad relativa a la medida obtenida. Es
decir:

8
LABORATORIO DE FISICA I ING. QUÌMICA UNA - PUNO

Por ejemplo:

V. CUANTIFICACIÓN DE ERRORES.
Desde el punto de vista de su cuantificación, los errores se
clasifican en: A) Error absoluto y B) Error relativo.
A. Error absoluto
Se define como la diferencia que existe entre el valor real de la
magnitud a medir y el obtenido en una medida. Puesto que es una
diferencia de valores de una misma magnitud, el error absoluto se
expresa en las mismas unidades que la magnitud. Así pues, si x es
el valor medido, x* el valor real y x el error instrumental o
sensibilidad del aparato de medida, se satisface la relación

Que se representa en la forma

El error absoluto, que se identifica en primera aproximación con el


error instrumental, es el parámetro básico utilizado en la
descripción de una medida y es, en general, conocido o
determinable a priori. Sin embargo, no es el que define con mayor
efectividad la bonanza de la aproximación de la medida. En efecto,
supongamos que tenemos una regla con un error del cero de 0,5
cm y que con ella medimos dos longitudes, obteniendo 2,5 cm para
una de ellas y 20,5 cm para la otra. Si suponemos que las
longitudes reales son 2 cm y 20 cm respectivamente, es evidente
que ambas medidas han sido medidas con un error absoluto de 0,5
cm, pero la primera medida se aproxima mucho menos a la
longitud real que la segunda, y la razón es obvia: una diferencia de
0,5 cm es una parte considerable de una longitud de 2 cm,
mientras que es una parte pequeña de 20 cm. Surge, así, el

9
LABORATORIO DE FISICA I ING. QUÌMICA UNA - PUNO

concepto de error relativo.

B. Error relativo.
Se define como el cociente entre el error absoluto x y el
valor real x* de la magnitud

Donde x es el valor medido.


Utilizaremos la segunda expresión cuando, como es habitual, no
conozcamos el valor real de la magnitud. Es costumbre expresar
el error relativo porcentualmente,

VI. EXPRESIÓN DE LAS MEDIDAS


Dado el significado de cota de garantía que tiene, suele darse el valor del
error absoluto con una sola cifra significativa, aumentando dicha cifra en
una unidad si la primera que se desprecia es mayor o igual que 5.
Cuando la primera cifra significativa es 1, resulta más correcto mantener
la segunda cifra del error absoluto cuando ésta es menor que 5.
El valor de la magnitud debe tener sólo las cifras necesarias para que su
última cifra significativa sea del mismo orden decimal que la última cifra
significativa que se tome para el error absoluto.
El truncado (o redondeo) del valor de la magnitud debe realizarse
solamente en la expresión final de las medidas, no en las operaciones
intermedias que podamos realizar con él, ya que perderíamos
información experimental y el resultado final puede verse afectado
ligeramente.
En la tabla I vemos diversos ejemplos de expresión de magnitudes en
forma incorrecta (columna izquierda) y de forma correcta (columna
derecha).

10
LABORATORIO DE FISICA I ING. QUÌMICA UNA - PUNO

VII. MEDIDA DIRECTA DE UNA MAGNITUD.


Dos son los tipos de errores más corrientes que se presentan en la
medida directa de una magnitud: A) Errores sistemáticos y B) Error de
sensibilidad del aparato.
A) Errores sistemáticos.
Consideraremos sólo dos de ellos.
Error del cero, introducido por un desajuste del instrumento de medida.
Consiste en que, por defecto de ajuste, una medida que debiera resultar
nula (aparato en vacío), da distinta de cero. Algunos instrumentos
poseen un dispositivo de "ajuste de cero", que permite corregir
fácilmente este error. Si no lo tuviera, para determinar este error se
efectúa la lectura del aparato en vacío y se corrigen las medidas que se
realicen restándoles (error por exceso) o sumándoles (error por defecto)
el error del cero.
Error de paralaje, originado cuando se observa la aguja indicadora de
un instrumento (por ejemplo, de un polímetro analógico) con un cierto
ángulo de inclinación y no perpendicularmente a la misma. Para evitar
este error, muchos instrumentos de aguja poseen un espejo debajo de la
misma, debiéndose tomar la medida cuando la aguja y su imagen
coincidan, ya que en este momento estaremos mirando
perpendicularmente al aparato.
Existen otros errores sistemáticos en cuyo análisis no nos detendremos.
B) Error de sensibilidad del aparato.
Como mencionamos anteriormente, definimos sensibilidad de un
instrumento (o error instrumental) como el intervalo más pequeño de la

11
LABORATORIO DE FISICA I ING. QUÌMICA UNA - PUNO

magnitud medible con él. El error absoluto se identifica, en primera


aproximación, con la sensibilidad del aparato. Así, si la división más
pequeña de una regla es de 1 mm el error de sensibilidad de la misma
será 1mm.
Para saber cuántas medidas directas de una misma magnitud hay que
realizar, debemos detectar las causas de error, ya que el tratamiento de
los datos y la expresión del resultado es diferente según la naturaleza de
las causas.
Si realizamos una sola medida, nos cabe la duda de si el resultado es
reproducible (¿se repetirá el resultado en la siguiente medida?). Si
realizamos dos, cualquier diferencia entre ambas no nos permite
seleccionar entre ellas. Concluimos, pues, que el número mínimo de
medidas a realizar es 3, y éste es el número inicial de medidas con el
que nos contentaremos en las prácticas de laboratorio, aunque sería
más seguro realizar algunas más. Realizadas 3 medidas, calculamos la
dispersión o diferencia, D, entre los valores extremos. Se nos pueden
presentar dos casos:
1) que D sea cero o igual que el error instrumental. En este caso,
tomaremos como mejor valor de la magnitud la media aritmética de
las 3 medidas, y como error absoluto el error instrumental.

2) que D sea mayor que el error instrumental. En este caso, el número


de medidas necesario puede ser mayor, siendo más fiable la medida
cuanto mayor sea el número de medidas realizadas. De nuevo,
tomaremos como mejor valor la media aritmética de todas las
medidas,

y el error absoluto lo identificaremos con

12
LABORATORIO DE FISICA I ING. QUÌMICA UNA - PUNO

Donde n es el número de medidas y t es un parámetro (t de


Student) cuyo valor depende de la probabilidad de que el verdadero
valor de la magnitud Nótese que la ecuación tiende a cero cuando n
tiende a infinito. Basta, pues, con realizar un número suficiente de
medidas para igualar el error estadístico a cualquier valor fijado de
antemano. Para 6, 15 y 50 medidas los valores de t pueden verse en las
tablas II, III y IV, respectivamente.

Cifras significativas.

Cuando realizamos una medición con una regla graduada en milímetros,


está claro que, si somos cuidadosos, podremos asegurar nuestro
resultado hasta la cifra de los milímetros o, en el mejor de los casos, con
una fracción del milímetro, pero no más. De este modo nuestro resultado
podría ser L = (95.2 ± 0.5) mm, o bien L = (95 ± 1) mm. En el primer caso
decimos que nuestra medición tiene tres cifras significativas y en el
segundo caso sólo dos. El número de cifras significativas es igual al

13
LABORATORIO DE FISICA I ING. QUÌMICA UNA - PUNO

número de dígitos contenidos en el resultado de la medición que están a


la izquierda del primer dígito afectado por el error, incluyendo este dígito.
El primer dígito, o sea el que está más a la izquierda, es el más
significativo (9 en nuestro caso) y el último (más a la derecha) el menos
significativo, ya que es en el que tenemos “me- nos seguridad”. Nótese
que carece de sentido incluir en nuestro resultado de L más cifras que
aquellas en donde tenemos incertidumbres (donde “cae” el error).

No es correcto expresar el resultado como L = (95.321 1) mm, ya que si


tenemos incertidumbre del orden de 1 mm, mal podemos asegurar el
valor de las décimas, centésimas y milésimas del milímetro. Si el valor de
L proviene de un promedio y el error es del orden del milímetro, se debe
redondear el dígito donde primero cae el error.

Es usual expresar las incertidumbres con una sola cifra significativa, y


solo en casos excepcionales y cuando existe fundamento para ello, se
pueden usar más. También es usual considerar que la incertidumbre en
un resultado de medición afecta a la última cifra si es que no se la indica
explícitamente. Por ejemplo, si sólo disponemos de la información que
una longitud es L = 95 mm, podemos suponer que la incertidumbre es
del orden del milímetro y, como dijimos antes, el resultado de L tiene dos
cifras significativas.

Una posible fuente de ambigüedad se presenta con el número de cifras


significativas cuando se hace un cambio de unidades. Si en el último
ejemplo deseamos expresar L en m, el resultado sería L=
(95000±1000) m. ¿Cuántas cifras significativas tenemos en este
resultado? Claramente dos, igual que antes, ya que la última cifra
significativa sigue siendo 5. Sin embargo, si no indicamos explícitamente
la incertidumbre de L, es difícil saber cuántas cifras significativas
tenemos. Nótese que 95 mm 95000 m, ya que el primer resultado
tiene sólo dos cifras significativas mientras el segundo tiene 5 (a
propósito compare los costos de los instrumentos para realizar estas dos
clases de determinaciones). Para evitar estas ambigüedades se emplea
la notación científica. Podemos escribir la siguiente igualdad: 9.5 x101
mm = 9.5 x 104m. Notemos que los números en ambos miembros de la

14
LABORATORIO DE FISICA I ING. QUÌMICA UNA - PUNO

igualdad tienen igual número de cifras significativas, siendo la única


diferencia las unidades usadas.

VIII. HISTOGRAMAS Y DISTRIBUCIÓN ESTADÍSTICA.


Consideremos una población de personas de una ciudad y que queremos
analizar cómo se distribuyen las estaturas de la población. Para llevar
adelante este estudio podemos medir la altura de todos los individuos de
la población, o bien tomar una muestra representativa de la misma, a
partir de la cual inferiríamos las características de la población. Esta clase
de estudio es un típico problema de estadística. Si tomamos una muestra
de tamaño N y para la misma medimos las alturas de cada individuo, este
experimento dará N resultados: x1, x2, x3,..., xN. Todos estos datos
estarán comprendidos en un intervalo de alturas (xmin, xMax) entre
menor y mayor altura medidas. Una manera útil de visualizar las
características de este conjunto de datos consiste en dividir el intervalo (
xmin, xMax) en m sub intervalos iguales, delimitados por los puntos (y1,
y2, y3, ..., ym) que determinan lo que llamaremos el rango de clases.
Seguidamente, contamos el número n1 de individuos de la muestra cuyas
alturas están en el primer intervalo [y1, y2), el número nj de los individuos
de la muestra que están en el j- ésimo intervalo [yj-1, yj), etc., hasta el
subintervalo m. Aquí hemos usado la notación usual de usar corchetes,
[…], para indicar un intervalo cerrado (incluye al extremo) y paréntesis
comunes, (…), para denotar un intervalo abierto (excluye el extremo). Con
estos valores definimos la función de distribución fj que se define para cada
subintervalos j como:

Esta función de distribución está normalizada, es decir:

15
LABORATORIO DE FISICA I ING. QUÌMICA UNA - PUNO

El gráfico de fj versus xj [xj = 0.5 ( yj-1 + yj)] nos da una clara idea de
cómo se distribuyen las altura de los individuos de la muestra en estudio.
Este tipo de gráfico se llama un histograma y la mayoría de las hojas de
cálculo de programas comerciales (Excel, Cuatro- Pro, Origen, etc.) tienen
herramientas para realizar las operaciones descriptas aquí y el gráfico
resultante. En la Fig. 1.3 ilustramos dos histogramas típicos.

Figura Histograma de dos muestras con igual valor medio pero con
distintos grados de dispersión. En este ejemplo, los datos tienen una
distribución Gaussiana o Normal, descripta por la curva de trazo
continúo.
Tres parámetros importantes de una distribución son:

16
LABORATORIO DE FISICA I ING. QUÌMICA UNA - PUNO

El valor medio da una idea de la localización o valor medio de los valores


en la muestra. En general <x> da el centro de masa (centroide) de la
distribución. Tanto Var(x) como sx dan una idea de la dispersión de los
atos alrededor del promedio. Cuando más concentrada esté la distribución
alrededor de <x> menor será sx y viceversa. Una distribución de
probabilidad muy común en diversos campos es la distribución gaussiana
o normal, que tiene la forma de una campana como se ilustra en trazo
continuo en la Fig. 1.3. La expresión matemática de esta distribución es:

Discrepancia.
Si una magnitud física se mide con dos (o más) métodos o por distintos
observadores, es posible (y muy probable) que los resultados no
coincidan. En este caso decimos que existe una discrepancia en los
resultados. Sin embargo, lo importante es saber si la discrepancia es
significativa o no. Un criterio que se aplica en el caso especial pero
frecuente, en el que las mediciones se puedan suponer que siguen una
distribución normal, es el siguiente. Si los resultados de las dos observaciones
que se comparan son independientes (caso usual) y dieron como resultados:

17
LABORATORIO DE FISICA I ING. QUÌMICA UNA - PUNO

Estos criterios pueden generalizarse para intervalos de confianza mayores


en forma similar. También se aplican cuando se comparan valores obtenidos
en el laboratorio con valores tabulados o publicados. Nótese la
diferencia entre discrepancia y error, que en algunos textos poco cuidadosos
se confunde. El error está relacionado con la incertidumbre en la de-
terminación del valor de una magnitud. La discrepancia está asociada a la
falta de coincidencia o superposición de dos intervalos de dos resultados

Propagación de incertidumbres

Hay magnitudes que no se miden directamente, sino que se derivan de


otras que sí son medidas en forma directa. Por ejemplo, para conocer el
área de un rectángulo se miden las longitudes de sus lados, o para
determinar el volumen de una esfera se tiene que medir el diámetro. La
pregunta que queremos responder aquí es cómo los errores en las
magnitudes que se miden directamente se propagarán para obtener el
error en la magnitud derivada. Sólo daremos los resultados, para mayor detalle
se recomienda consultar la bibliografía citada. Supongamos, para fijar ideas,
que la magnitud V, es una función de los parámetros, x, y, z, etc.,
o sea:

18
LABORATORIO DE FISICA I ING. QUÌMICA UNA - PUNO

y que x, y, z, etc., sí se midieron directamente y que conocemos sus


errores, a los que designamos en el modo usual como Dx, Dy, Dz, etc.

Entonces se puede demostrar [1,3] que el error en V vendrá dado por:

En rigor las derivadas involucradas en esta ecuación son derivadas


parciales respecto de las variables independientes x, y, z, etc. En el caso
especial que la función V(x,y,z,..) sea factorizable como potencias de x,
y, z, etc., la expresión anterior puede ponerse en un modo muy simple.
Supongamos que la función en cuestión sea:

Entonces:

Para cálculos preliminares, esta expresión puede aproximarse por:

19
LA FÍSICA
EXPERIMENTAL
A NIVEL
NACIONAL E
INTERNACIONA
L
I. LA FÍSICA EXPERIMENTAL EN EL SIGLO XVIII
Ciencia y filosofía en el siglo XVIII
La ciencia moderna surge una vez que se acepta la necesidad –y se
comprende el Interés- de una descripción del mundo natural
independiente de la revelación divina y al margen del finalismo
teológico. Esta nueva disposición es la que caracteriza a los pensadores
de la Revolución Científica. Una revolución que afectó tanto a los
contenidos como a los métodos y a la posición social de la ciencia. Se
rechazaron los viejos modos de la filosofía y se buscaron nuevas
maneras de investigar la naturaleza. Francis Bacón en su Novan
órgano y Descartes en su Discurso del método propusieron sus
opciones. Bacón la realización de experimentos para interrogar al
mundo. Descartes la suficiencia del poder deductivo de la razón para
explicarlo. Frente a ellos Newton se dedicó a poner en práctica una
brillante síntesis de experimentación y formalismo matemático.
El siglo XVIII representa el triunfo final del newtonianismo frente al
cartesianismo. Razón y naturaleza son las dos palabras claves de la
ciencia y la filosofía del XVIII. Los métodos de la lógica formal van
siendo reemplazados por los métodos de las ciencias naturales. Las
leyes de la naturaleza son las auténticas leyes de la razón. Pero esas
leyes, se piensa, han sido libremente elegidas por Dios y, por lo
tanto, no es posible descubrirlas con el simple razonamiento. Se
comprende entonces la necesidad de la experimentación para descubrir
las leyes naturales. Leyes que en realidad revelan la voluntad divina y
prueban la mismísima existencia de Dios (el famoso argumento del
diseño).
El siglo XVIII conocerá, además, una importante reorganización de la
ciencia. A principios del siglo, la Física continuaba en la tradición
aristotélica de estudiar todos los fenómenos naturales, incluyendo los
orgánicos. A lo largo de este siglo y en las primeras décadas del
siguiente se independizan de ella disciplinas como la fisiología, la
botánica o la geología. Al final del siglo la organización de la física se
aproxima ya a la moderna disciplina que hoy conocemos con el
mismo nombre. Y no sólo la organización, también el método. En
efecto, a lo largo del siglo irá madurando la nueva física experimental
que pasará de ser un mero instrumento de exploración y exhibición de
curiosidades a un método de riguroso análisis cuantitativo de la
naturaleza. Un método que permitirá, primero el descubrimiento de leyes
funcionales y más tarde la mate matización de amplias zonas de la
nueva física. En otras palabras, el ideal newtoniano de ciencia.

Los orígenes de la física experimental.


La naturaleza teleológica y racional concebida por Aristóteles hacía
innecesaria, o casi innecesaria, la experimentación científica. Aparte,
claro está, de las observaciones cuantitativas propias de la astronomía,
la geodesia y otras áreas de las llamadas matemáticas mixtas. A pesar
de ello, algún griego hubo que experimentó sobre ciertos fenómenos
naturales, especialmente los relacionados con el vacío y la neumática.
Es el caso de Estratón (siglo III a. C.), cuyas investigaciones técnico-
científicas motivaron la aparición de una corriente de experimentadores y
constructores de artilugios mecánico- neumáticos a la que
pertenecieron, entre otros, Ctesibio (siglo II a. C.), Filón de
Bizancio (siglo II a. C.) o Herón de Alejandría (siglo I). Bien distinta es la
tradición que se inició durante el Renacimiento europeo y que fue
conocida como magia natural. Su actividad experimental, desligada de la
magia y la alquimia, se limitaba a poner de manifiesto ciertas
curiosidades de la naturaleza, casi siempre mezcladas con trucos,
habilidades manuales e ilusiones ópticas.
El primer físico experimental fue, sin duda, el inglés William Gilbert
(1544-1603) que en el año 1600 publicó una influyente obra sobre el
magnetismo, De magnete, en la que se describen de una forma clara y
precisa una gran variedad de experimentos para probar y refutar
determinadas ideas sobre el magnetismo, la electricidad y el calor. El
libro se convirtió en un modelo para la buena experimentación. Influyó
sobre autores tan importante como Kepler y durante un tiempo fue la
única referencia de la filosofía experimental. En 1620, Francis Bacon
publica su Novum organum donde expone un nuevo método de
exploración, tanto de la naturaleza como de las artes y las técnicas,
basado en la experimentación. La obra tuvo una enorme influencia en
toda Europa. Las academias y sociedades científicas aplicaron de
inmediato el nuevo método en la investigación de múltiples fenómenos
relacionados con el frío, con el calor, con la presión del aire, con los
imanes, etc. Se investigaba cualquier cosa con el único objetivo de
descubrir fenómenos nuevos.
Por la misma época, Galileo realizaba numerosos experimentos –
mentales y reales- relacionados sobre todo con la mecánica y la
neumática. Además inventó y mejoró un buen número de instrumentos
científicos tales como telescopios, microscopios, termómetros,
cronómetros y otros muchos aparatos. Pero Galileo no llegó a desarrollar
una autentica filosofía experimental, se mantuvo dentro de la tradición
matemático – deductiva heredada de Aristóteles. A pesar de ello ejerció
una influencia enorme sobre sus discípulos experimentadores. En la
segunda mitad del siglo XVII Robert Boyle desplegó una portentosa
actividad experimental de la más variada temática y en la más estricta
ortodoxia baconiana. Pero apenas logró sacar conclusiones de tanta
observación y experimento, excepto la ley que lleva su nombre. Su
continuador en la Royal Society, Robert Hooke, de mentalidad más
matemática, fue un magnífico constructor de instrumentos. Finalmente,
ya en las puertas del siglo XVIII, Newton, que seguía la misma tradición
matemática de Galileo, acabó incluyendo la experimentación en su
metodología científica. Fue un habilísimo experimentador, como
demostró en su Óptica, llegando a ejercer tal influencia sobre los
científicos experimentales de los siglos XVIII y XIX que su ciencia se
convirtió en el modelo a seguir por todos ellos.

La física experimental en el siglo XVIII


La física experimental inicia su andadura por el siglo XVIII en el más
puro estilo baconiano. Se explora en todas las direcciones con el único
objetivo de ver qué pasa. Pero no hay teorías que traten de dar cuenta
de los fenómenos observados. Fenómenos que muchas veces sólo se
producen mediante la manipulación de los instrumentos. En esta época
se ponen de moda las exhibiciones, más o menos espectaculares, de
ciertos fenómenos que, como los eléctricos, llamaban la atención del
público. Proliferaron las venus eléctricas y los monjes electrificados.
Mientras tanto, en el otro bando, en el cartesiano, se insistía en la
suficiencia del rigor matemático para explicar el mundo. Suficiencia que
empezó a ser contestada en esta misma época. Los frecuentes viajes a
Inglaterra de los pensadores de la Europa continental ayudaron en la
difusión tanto del newtonianismo como de la nueva moda experimental.
Poco a poco se fueron desarrollando teorías capaces de subsumir, al
menos de forma parcial, los fenómenos observados experimentalmente.
Se definieron conceptos como los de carga eléctrica o de potencial
eléctrico susceptibles de ser medidos y se diseñaron los instrumentos
de medida apropiados. Las medidas, a su vez, permitieron el
tratamiento matemático de los resultados experimentales, y de esta
forma se inició la matematización de las nuevas áreas experimentales de
la física. Esta combinación de experimentos y formalismo matemático se
ajustaba al modelo de ciencia newtoniano que ya por entonces era
tenido como el ideal de la buena ciencia. Las puertas de las instituciones
científicas –primero en las academias y sociedades y luego en las
universidades- se fueron abriendo a los nuevos métodos de la física. Así,
a finales del siglo XVIII la física experimental era ya aceptada y
entendida como el uso de los métodos experimentales cuantitativos para
la búsqueda y el estudio de las leyes que gobiernan el mundo
inorgánico.
La física experimental del siglo XVIII incluía principalmente el estudio del
calor, de la luz, de la electricidad y del magnetismo. Los mismos
métodos se usaron también en otras áreas del conocimiento que
inicialmente formaban parte de la física pero que a finales del siglo se
había separado de ella para constituir nuevas ciencias. Es el caso, por
ejemplo, de la geología, de la fisiología o del estudio de los gases, ahora
repartido entre la física y la nueva química. Pero fue el estudio de la
electricidad el que alcanzó un mayor desarrollo. Aproximadamente la
mitad de los experimentadores físicos lo eran de la electricidad. El
estudio de la electricidad se convirtió en un modelo para los físicos
experimentales.
El sistema del mundo de Newton estaba basado en la simple idea de la
gravitación universal. El mismo Newton había anunciado el futuro
descubrimiento de otras atracciones y repulsiones de escala
interatómica que acabarían explicando la mayor parte de los fenómenos
físicos y químicos. La electricidad parecía ser uno de esos fenómenos
con fuerzas interatómicas implicadas. Además parecía ser también una
característica universal de la materia que, por si fuera poco, se dejaba
controlar experimentalmente. Se entiende, pues, que una vez
descubiertos y generosamente exhibidos- los fenómenos eléctricos
pasaran a ocupar el centro de la atención científica. Se desarrollaron
teorías sobre su naturaleza y se consiguieron identificar y medir los
aspectos más significativos de los fenómenos eléctricos, de modo que a
finales del XVIII ya se habían descubiertos leyes tan newtonianas como
la de (Cavendish -) Coulomb.

Los fluidos sutiles en la física experimental


Los fluidos sutiles desempeñaron un papel esencial en el
desarrollo de la física experimental durante el siglo XVIII. Se
entiende por fluido sutil una sustancia con determinadas propiedades
físicas pero diferente de la materia ordinaria. Con frecuencia
presentaban propiedades extrañas como la imponderabilidad, la
inasibilidad, el peso negativo o la auto repulsión. Entre ellos destacan el
calórico, el flogisto, la electricidad o el magnetismo. La existencia de
atracciones y repulsiones hizo posible el desarrollo de una
infraestructura teórica que permitió la definición de conceptos físicos
medibles, como carga eléctrica, tensión eléctrica o temperatura.
La construcción de los instrumentos de medida apropiados hizo
posible la cuantificación de las observaciones que finalmente condujo a
descripciones matemáticas de los fenómenos analizados. Los fluidos
sutiles fueron perdiendo entidad poco a poco, quedando sólo los
fenómenos que ellos mismos producían. En otros casos fueron
sustituidos por fluidos ordinarios (como ocurrió con el flogisto y el
oxígeno). La nueva física, en todo caso, se fue haciendo cada vez más
fenomenológica y cuantitativa.

Metodología experimental. Tipos de experimentos.


Aparte de la magia natural, los experimentos se pueden clasificar en
varias categorías según los métodos y los objetivos perseguidos. Son las
siguientes
1. Experimentos matemáticos y de matemáticas mixtas. Se vienen
realizando desde la más remota antigüedad. Por una parte, se incluyen
aquí las medidas y observaciones cuantitativas relacionadas con la
astronomía y la geodesia. Por otra la construcción de artilugios
mecánicos, hidráulicos, de navegación,de medida del tiempo etc.
Tienen una orientación más bien práctica. Incluso en Astronomía, donde
con frecuencia sólo se pretende salvar las apariencias, no explicar los
fenómenos.
2. Experimentos baconianos. Proliferaron a partir del siglo XVII.
Tenían una clara naturaleza heurística. Su objetivo principal era la
exploración de la naturaleza: descubrir y mostrar fenómenos
desconocidos. Experimentos de este tipo también se realizaron con el
ánimo de mejorar las artes y las técnicas. Los experimentadores más
rigurosos, como R. Boyle, solían hacer una descripción muy detallada
de sus experimentos, sin concesiones interpretativas, lo que hacía
posible que otros pudieran repetir las mismas experiencias.
3. Experimentos de exhibición. Se hicieron muy populares en el
siglo XVIII.
Obviamente, su objetivo era exhibir públicamente la espectacularidad de
ciertos fenómenos, sobre todo los eléctricos o los neumáticos.
Instituciones tan prestigiosas como la Royal Society organizaban sus
sesiones (a veces diarias, como durante la época de Hooke) de
exhibición pública. Las modernas Casas de

la Ciencia parecen recuperar en los tiempos actuales ese viejo


espíritu de popularizar la ciencia.
4. Experimentos didácticos. Se trata de la variante académica y
didáctica de los anteriores. Muchos físicos experimentales del XVIII
poseían su colección particular de instrumentos que ponían a disposición
de las cátedras donde eran contratados para enseñar su disciplina.
Durante ese siglo y el siguiente las mismas cátedras se fueron
haciendo con el instrumental necesario tanto para los propósitos
docentes como para los de investigación.
5. Experimentos mentales. Son experimentos imaginarios cuyo
objetivo es ilustrar o refutar una teoría. Pueden considerarse como
argumentaciones lógicas, discursos, en los que se hacen intervenir
artefactos y fenómenos imaginarios. Descartes, Pascal o Galileo los
usaron con profusión.
6. Experimentos científicos. Se trata de experiencias diseñadas y
realizadas en el marco de una teoría científica y con un propósito bien
definido. Son la vía establecida para probar o refutar las hipótesis en las
ciencias experimentales. Se exige de ellos que sean repetibles por
diferentes grupos de experimentadores.

La filosofía mecánico corpuscular


La filosofía mecánico corpuscular es una herencia del siglo XVII que se
consolida y generaliza durante el XVIII. Es la filosofía de los físicos
experimentales. Las explicaciones teleológicas de Aristóteles fueron
sustituidas por otras de fundamentos más materialistas. El mundo
natural había de ser explicado a base de movimientos y
reagrupamientos de los corpúsculos elementales que, según ellos,
constituían la materia. Para la mayoría de los autores los corpúsculos
eran indivisibles y únicos en la especie, con diferencias sólo en la
forma, el tamaño y el movimiento. Todo cambio, toda variedad, toda
cualidad de la materia se había de explicar en términos del movimiento y
la disposición espacio temporal de esos corpúsculos universales.
Frente a estas ideas básicas y aceptadas por todos, había diferencias
sustanciales entre unos autores y otros. Así, Descartes, uno de los
fundadores de la filosofía mecánica, no cree en la existencia de
fuerzas en la materia. El universo es un gigantesco mecanismo puesto
en marcha por Dios de una vez por todas. La materia en movimiento que
observamos es suficiente para explicar todos los fenómenos. Newton
aceptó los fundamentos de la filosofía mecánico corpuscular pero no
aceptó la negación cartesiana de la existencia de fuerzas. No pretendió
explicar la naturaleza de las fuerzas gravitatorias, de cohesión o
elásticas, pero estaba convencido de su existencia. Construyó su
mecánica asumiendo la existencia de partículas inertes y fuerzas
externas atractivas y repulsivas que actuaban entre ellas. No creyó en
fuerzas innatas, excepto en las fuerzas de inercia que no lograba
explicar con la única ayuda de las fuerzas externas. Para Leibiniz, por el
contrario, las fuerzas eran internas a la materia. Eran más reales que la
propia materia, que para Leibniz era sólo un fenómeno, una
manifestación sensible de las interacciones entre las sustancias
metafísicas activas que componen el universo. Estas posiciones
respecto al papel de las fuerzas obedecen en realidad a motivos
religiosos. Aunque en todos los casos los argumentos se podía
fácilmente volver contra los propios motivos inspiradores.

Instituciones académicas
La primera institución científica que acogió en su seno a la
experimentación física fue la florentina Academia del Cimento,
creada en el siglo XVII por discípulos de Galileo. Parece que su gran
objetivo era el descrédito del aristotelismo. La Academia de
Ciencias de Paris, por la misma época, también recibió la influencia
baconiana. Dedicaron buena parte de esfuerzo a realizar medidas
geodésicas de precisión. En Inglaterra fue la Royal Society de Boyle,
Hooke y Newton la mejor propagandista de de la filosofía experimental.
Se organizaron sesiones públicas de exhibición y se nombró un
encargado de experiencias (Hooke fue el primero de ellos). El propio
Newton fue admitido en 1672 por la construcción del primer telescopio
reflector y por otras aportaciones experimentales.
Por el año 1683 la universidad alemana de Altdorf (Nuremberg)
organizaba cursos de física experimental (fueron famosas las
experiencias neumáticas de Otto von Guericke). En 1700, en el Hart
Hall, la universidad inglesa de Oxford abrió sus aulas a la física
experimental. Y en 1707 lo hizo la de Cambridge, en el observatorio del
Trinity College. Las universidades holandesas de la época,
especialmente la de Leyden, desempeñaron un papel muy importante
en el desarrollo de la física experimental. Hombres como
Boerhaave, Gravesande, Musschenbroeck o C. von Wolff,
contribuyeron con una meritoria labor en ese sentido. En Francia, la
primera cátedra de física experimental se abrió en 1752, en el Collège
de Navarre de la Universidad de Paris. En este mismo país los jesuitas
destacaron en la realización y promoción de las actividades
experimentales de la física.

Instrumentos científicos
A comienzos del XVIII existían tres categorías de instrumentos
científicos: los matemáticos, los ópticos y los filosóficos. Tal distinción
no era más que una consecuencia de la propia historia de la
instrumentación científico técnica. Los propios fabricantes se auto
agrupaban en esas mismas categorías. Hasta finales del siglo XVI casi
todos los instrumentos eran matemáticos, útiles de las llamadas
matemáticas mixtas con aplicaciones en la astronomía, la navegación, la
fortificación, la arquitectura, la medida del tiempo, etc. Casi todos ellos
eran instrumentos de medida de posiciones, longitudes, latitudes, tiempo
etc. No pretendían descubrir nada nuevo sobre el mundo, sólo realizar
observaciones cuantitativas.
Los instrumentos ópticos se desarrollan a partir del siglo XVII. Entre
ellos, el microscopio y el telescopio jugarían un importante papel en la
naciente filosofía experimental. Mientras que los fabricantes de
instrumentos matemáticos pertenecían a una larga tradición (tan
reconocida que algunos de sus mejores miembros eran acogidos en las
instituciones científicas y en la universidad), los fabricantes de
instrumentos ópticos se nutrieron de los mejores fabricantes de anteojos.
Por su parte, los instrumentos filosóficos tenían como objetivo la
exploración baconiana de la naturaleza. Las bombas neumáticas, las
máquinas electrostáticas o los planetarios son buenos ejemplos de este
tipo de instrumentos. La popularización de las exhibiciones científicas
acabó estimulando su producción comercial. Los fabricantes de este
grupo de instrumentos no poseían una tradición clara, muchos de ellos
eran los propios científicos ayudados por diferentes tipos de operarios.
Los mejores fabricantes de instrumentos en el siglo XVIII eran los
ingleses. En las tres categorías. Les seguían los franceses y los
alemanes. Los fabricantes de instrumentos de precisión eran
considerados de una categoría especial. Llegaron a tener un gran
prestigio y eran tratados como socios colaboradores de la empresa
científica.

II. FÍSICA EXPERIMENTAL EN INTERNET.


A pesar de las críticas realizadas en distintas épocas a los diversos
enfoques empleados en el desarrollo de las prácticas de laboratorio: los
estructurados, propios de la enseñanza por transmisión, o los encarados
como investigación, nadie ha negado la importancia del desarrollo de los
mismos en las clases de Física.
Las prácticas de laboratorio de Física pueden ayudar al alumno, además
de a desarrollar destrezas básicas y herramientas de la Física
experimental y del tratamiento de datos, a manejar conceptos básicos, a
entender el papel de la observación directa en Física y a distinguir entre
las inferencias que se realizan a partir de la teoría y las que se realizan a
partir de la práctica, a destacar el proceso: observación del fenómeno -
obtención de una data experimental – análisis de los resultados –
conclusiones.
Estamos en presencia de una revolución sociocultural con base en la
ciencia y la tecnología y de una relación muy estrecha entre ambas. Esto
hace que la informática, así como los métodos y formas de trabajo de la
ciencia y la tecnología hayan pasado a formar parte de la vida de las
personas y por ende a ser interiorizados sus fundamentos por ellas. Esto
exige que las asignaturas que lo permitan introduzcan informática y
aproximen sus métodos de estudio a la forma como se trabaja en las
ciencias.

Bibliografía
 Bennett, J. A. 1998. La fabricación de instrumentos científicos en la era
industrial. En Elena, A., Ordóñez, J. y Colubi M. Ed. Después de
Newton: ciencia y sociedad durante la Primera Revolución Industrial.
Barcelona:
SENSORES
SENSORES
I. INTRODUCCION
Actualmente sería impensable realizar maniobras más o menos
complicadas, dentro del mundo industrial, sin dos elementos
ampliamente extendidos en nuestros días, por una parte los autómatas
programables y por otra los sensores, que permiten controlar las
variables que afectarán al proceso industrial.
Los autómatas por precio, versatilidad y facilidad de programación se
han convertido en los sustitutos de las maniobras en los entornos
industriales, y debido a las crecientes necesidades de los procesos
industriales modernos, cada vez hay que controlar más variables que
afectan a estos procesos, por lo que los sensores han entrado de lleno
en estas maniobras.
Hoy por hoy, sería difícil encontrar procesos automáticos que no estén
gobernados por elementos de gobierno, sensores y autómatas.
Procesos como contadores, detectores de presencia, detectores de
objetos, control de niveles, medidas de seguridad, chequeo de
contenidos, inspecciones de calidad automáticos, posicionamiento y
verificación y un largo etcétera serian impensables sin esta combinación
de elementos.

II. QUÉ ES UN SENSOR:


Un sensor es un dispositivo capaz de detectar magnitudes físicas o
químicas, llamadas variables de instrumentación, y transformarlas en
variables eléctricas. Las variables de instrumentación pueden ser por
ejemplo: temperatura, intensidad lumínica, distancia, aceleración,
inclinación, desplazamiento, presión, fuerza, torsión, humedad, pH, etc.
Una magnitud eléctrica puede ser una resistencia eléctrica (como en una
RTD), una capacidad eléctrica (como en un sensor de humedad), una
Tensión eléctrica (como en un termopar), una corriente eléctrica (como
en un fototransistor), etc.
Un sensor se diferencia de un transductor en que el sensor está siempre
en contacto con la variable de instrumentación con lo que Puede decirse
también que es un dispositivo que aprovecha una de sus propiedades
con el fin de adaptar la señal que mide para que la pueda interpretar otro
dispositivo. Como por ejemplo el termómetro de mercurio que aprovecha
la propiedad que posee el mercurio de dilatarse o contraerse por la
acción de la temperatura. Un sensor también puede decirse que es un
dispositivo que convierte una forma de energía en otra. Áreas de
aplicación de los sensores: Industria automotriz, Industria aeroespacial,
Medicina, Industria de manufactura, Robótica, etc.

Los sensores pueden estar conectados a un computador para obtener


ventajas como son el acceso a una base de datos, la toma de valores
desde el sensor, etc.

III. CARACTERÍSTICAS DE UN SENSOR.


Entre las características técnicas de un sensor destacan las
siguientes:
Rango de medida: dominio en la magnitud medida en el que
puede aplicarse el sensor.
 Precisión: es el error de medida máximo esperado.
 Offset o desviación de cero: valor de la variable de salida
cuando la variable de entrada es nula. Si el rango de medida no
llega a valores nulos de la variable de entrada, habitualmente se
establece otro punto de referencia para definir el offset.
 Linealidad o correlación lineal.
 Sensibilidad de un sensor: relación entre la variación de la
magnitud de salida y la variación de la magnitud de entrada.
 Resolución: mínima variación de la magnitud de entrada que
puede apreciarse a la salida.
 Rapidez de respuesta: puede ser un tiempo fijo o depender de
cuánto varíe la magnitud a medir. Depende de la capacidad del
sistema para seguir las variaciones de la magnitud de entrada.
 Derivas: son otras magnitudes, aparte de la medida como
magnitud de entrada, que influyen en la variable de salida. Por
ejemplo, pueden ser condiciones ambientales, como la humedad,
la temperatura u otras como el envejecimiento (oxidación,
desgaste, etc.) del sensor.
Repetitividad: error esperado al repetir varias veces la misma
medida.
Un sensor es un tipo de transductor que transforma la magnitud que se
quiere medir o controlar, en otra, que facilita su medida. Pueden ser de
indicación directa (e.g. un termómetro de mercurio) o pueden estar
conectados a un indicador (posiblemente a través de un convertidor
analógico a digital, un computador y un display) de modo que los valores
detectados puedan ser leídos por un humano.
Por lo general, la señal de salida de estos sensores no es apta para su
lectura directa y a veces tampoco para su procesado, por lo que se usa
un circuito de acondicionamiento, como por ejemplo un puente de
Wheatstone, amplificadores y filtros electrónicos que adaptan la señal a
los niveles apropiados para el resto de la circuitería.

IV. USOS DEL SENSOR.


Valores de salida de los sensores:
Los sensores ayudan a trasladar los atributos del mundo físico en
valores que la Controladora de un robot puede usar.
En general, la mayoría de los sensores pueden ser divididos en dos
grandes grupos:
1. Sensores analógicos
2. Sensores Digitales

1. Sensores analógicos
Un sensor analógico es aquel que puede entregar una salida variable
dentro de un determinado rango (ver figura de la derecha). Un Sensor
analógico, como por ejemplo una Fotorresistencia (estos componentes
miden intensidad de luz), puede ser cableado en un circuito que pueda
interpretar sus variaciones y entregar una salida variable con valores
entre 0 y 5 volts.

2. Sensores Digitales.
Un sensor digital es aquel que entrega una salida del tipo discreta (ver
figura de la izquierda). Es decir, que el sensor posee una salida que
varía dentro de un determinado rango de valores, pero a diferencia de
los sensores analógicos, esta señal varía de a pequeños pasos pre-
establecidos.
Por ejemplo consideremos un botón pulsador, el cual es uno de los
sensores más básicos. Posee una salida discreta de tan solo dos
valores, estos pueden ser abiertos o cerrado. Otros sensores discretos
pueden entregar una salida del tipo binario, como es el caso de un
conversor Analógico/Digital, el cual entrega una salida de 8 bits capaz de
Subdividir las variaciones de la entrada en hasta 256 escalones.

Conversión Analógica/Digital:
Los micros controladores generalmente operan con valores discretos.
Los controladores como el Motorola 68HC11, el PIC 16F84, etc.,
trabajan con valores binarios de 8 bits.
Una parte importante a la hora de trabajar con señales analógica es la
posibilidad de transformar las mismas en señales digitales mediante el
uso de un conversor A/D (analógico/digital) y entregar su salida sobre un
bus de 8 bits (1 Byte). Esto permitirá al micro controlador poder tomar
decisiones en base a la lectura obtenida. Cabe destacar que en la
actualidad existen micro controladores que ya poseen este conversor
integrado en si mismos, lo que permite ahorrar espacio y simplificar el
diseño.
En la siguiente figura se puede ver un ejemplo de cómo se comportaría
un conversor A/D (analógico/digital):

Podemos ver como para distintos rangos de valores de valores de


entrada, se obtiene un valor de salida binario. Si nuestro rango de
entrada está entre 0 y 5 volts, un conversor A/D de 8 bits podrá dividir la
tensión de entrada en 256 valores binarios. Esto resulta en un escalón
de 0.0195 volts. Esto se puede ver claramente en la tabla anterior, si
bien solo están representados los primeros cinco niveles.

V. ESTRUCTURA Y PRINCIPIO DE FUNCIONAMIENTO.


Todos los sensores utilizan uno o más principios físicos o químicos para
convertir una variable de entrada al tipo de variable de salida más
adecuado para el control o monitoreo de cada proceso particular. Estos
principios o fenómenos se manifiestan en forma útil en ciertos materiales
o medios y pueden estar relacionados con las propiedades del material
en sí o su disposición geométrica.
La función del transductor primario es convertir la magnitud física a
medir en otra más fácil de manipular. Esta última no tiene que ser
necesariamente de naturaleza eléctrica.

Por ejemplo, un bimetal, que es un dispositivo formado por dos metales


de distintos coeficientes de dilatación, es un tipo de transductor primario
porque convierte tina va ración de temperatura en un desplazamiento
físico equivalente. Este último puede ser
Utilizado para mover una aguja o accionar un interruptor. Otros ejemplos
son los tubos de Bordón (presión), los tubos de Pitos (velocidad de flujo),
los rotos metros (caudal), los flotadores (nivel), las termocuplas
(temperatura), etc.
El transductor o transductores secundarios, cuando son requeridos,
actúan sobre la salida del transductor primario para producir una señal
eléctrica equivalente. Una vez obtén ida, esta última es sometida a un
proceso de acondicionamiento y amplificación para ajustarla a las
necesidades de la carga exterior o de la circuitería de control.
Comp. Ejemplo, considérese el sensor electrónico de presión. En este
caso, la presión asociada con el fluido se traduce inicialmente en un
desplazamiento o deyección proporcional utilizando Como transductor
primario un diafragma u otro elemento elástico especialmente diseñado
para esta función.
A continuación, esta de-flexión es convertida en una señal eléctrica
equivalente utilizando como transductor secundario una galga
extensiométrico semiconductora u otro tipo de elemento especialmente
diseñado para convertir movimiento en electricidad.
Por último, la señal eléctrica producida se acondiciona, modifica o
procesa mediante circuitos electrónicos adecuados con el fin de obtener
la respuesta y las características finales deseadas

Estructura de un sensor.
VI. TIPOS DE SENSORES
Como hemos dejado en claro en nuestro sitio, son muchos los tipos de
sensores que existen en la actualidad, ya que podemos conseguirlos
tanto para los sistemas de seguridad, como para nuestra vivienda o bien
incluso en fábricas, industrias y comercios suelen utilizar diferentes tipos
de sensores para cada caso. Ahora bien un detalle que resulta
importante de destacar es que muchas personas suelen confundir lo que
son los detectores con los sensores, pero lo cierto es que ambas cosas
representan diferentes elementos.
En primer lugar es cierto que existen diferentes detectores de la misma
manera que existen en el mercado diferentes tipos de sensores, no
obstante debemos decir que la razón principal por la cual las personas
los confunden es porque los detectores funcionan con sensores en su
sistema. Para que podamos entender de una manera mucho más clara
podemos decir que por ejemplo, si tenemos un detector de metales, el
cual nos ayuda a encontrar todo tipo de material metálico, debemos
decir que le mismo puede hacer este trabajo gracias a que posee
sensores metálicos que le avisan al sistema del detector en qué lugar se
encuentra el metal para que éste lo detecte específicamente en el lugar.
Es por eso que vemos como a medida que un detector de metales se
acerca al elemento en cuestión, una alarma comienza a sonar cada vez
más fuertes; esa es la alarma del sensor.

En la siguiente tabla se indican algunos tipos y ejemplos de sensores


electrónicos.
Los tipos de sensores más utilizados.
Es evidente que un detector nunca funcionaria sin un sensor que le
informe el lugar en donde buscar el elemento en cuestión, no obstante
debemos decir que esta ley no funciona de esta manera para los
sensores ya que todos los tipos de sensores funcionan
independientemente de un sistema, y por eso es que no dependen de
otro aparato para que los mismos funcionen. Esta es la razón por la cual
podemos ver como los diferentes tipos de sensores se encuentran
directamente relacionados con todo tipo de sistemas tanto de seguridad
como de detección, por eso es importante que entendamos que los
sensores son el corazón de cada sistema de seguridad que tengamos
instalado en nuestra casa o incluso en nuestro vehículo.
Otros tipos de sensores que nada tienen que ver con sistemas de
alarmas, seguridad y detección suelen ser utilizados en diferentes áreas;
de esta manera podemos decir que el mercado nos ofrece sensores de
temperatura, los cuales resultan ser muy útiles para lograr una buena
ambientación de nuestra casa, o incluso hasta de una pecera de
nuestras mascotas; sensores de humo, los cuales han salvado más de
una vida gracias a su eficiencia; sensores de movimiento y
desplazamiento, los cuales son ideales para lograr encontrar vehículos
robados.
También podemos encontrarnos con sensores de peso y de nivelación
que se usan principalmente en las fabricas e industrias de envasado;
Sensores de contacto y perimetrales los cuales resultan ser ideales para
los sistemas de alarmas. Como podemos ver todos los tipos de sensores
que nos ofrece el mercado, más allá de la utilidad que les demos,
resultan ser sistemas muy convenientes que nos ayudan a mejorar y
facilitar algunos aspectos de nuestra vida cotidiana, por esta razón
principal es importante que tengamos en cuenta la importancia del
mantenimiento que los mismos requieren ya que al tratarse de un
sistema con mucha sensibilidad, los sensores pueden dañarse sin que
nosotros lo notemos. Por eso para evitar este tipo de inconvenientes y
teniendo en cuenta que la falla de un solos censor puede perjudicar todo
el desempeño de un sistema entero, es importante que periódicamente
hagamos que los mismos se sometan a un mantenimiento de rutina para
poder gozar de ellos en un perfecto estado y así no tener inconvenientes
con los sistemas a los cuales pertenecen; recordemos que las mismas
empresas que se encargan de la instalación, también deben hacerse
cargo del mantenimiento de los mismos.

A. Detectores de ultrasonidos.
Los detectores de ultrasonidos resuelven los problemas de detección de
objetos de prácticamente cualquier material. Trabajan en ambientes
secos y polvorientos. Normalmente se usan para control de
presencia/ausencia, distancia o rastreo.
B. Interruptores básicos
Se consiguen interruptores de tamaño estándar, miniatura, subministra,
herméticamente sellados y de alta temperatura. Los mecanismos de
precisión se ofrecen con una amplia variedad de actuadores y
características operativas. Estos interruptores son idóneos para
aplicaciones que requieran tamaño reducido, poco peso, repetitividad y
larga vida.

C. Interruptores final de carrera


Descripción: El microswitch es un conmutador de 2 posiciones con
retorno a la posición de reposo y viene con un botón o con una palanca
de accionamiento, la cual también puede traer una ruedita.
Funcionamiento: En estado de reposo la patita común (COM) y la de
contacto normal cerrado (NC), están en contacto permanente hasta que
la presión aplicada a la palanca del microswitch hace saltar la pequeña
platina acerada interior y entonces el contacto pasa de la posición de
normal cerrado a la de normal abierto (NO), se puede escuchar cuando
el microswitch cambia de estado, porque se oye un pequeño clic, esto
sucede casi al final del recorrido de la palanca.

D. Interruptores manuales
Estos son los sensores más básicos, incluye pulsadores, llaves,
selectores rotativos y conmutadores de enclavamiento. Estos productos
ayudan al técnico e ingeniero con ilimitadas opciones en técnicas de
actuación y disposición de componentes.

E. Productos encapsulados
Diseños robustos, de altas prestaciones y resistentes al entorno o
herméticamente sellados. Esta selección incluye finales de carrera
miniatura, interruptores básicos estándar y miniatura, interruptores de
palanca y pulsadores luminosos.
F. Productos para fibra óptica
El grupo de fibra óptica está especializado en el diseño, desarrollo y
fabricación de componentes optoelectrónicas activos y sub montajes
para el mercado de la fibra óptica. Los productos para fibra óptica son
compatibles con la mayoría de los conectores y cables de fibra óptica
multimodo estándar disponibles actualmente en la industria.

G. Sensor infrarrojo
La optoelectrónica es la integración de los principios ópticos y la
electrónica de semiconductores. Los componentes optoelectrónicas son
sensores fiables y económicos. Se incluyen diodos emisores de
infrarrojos (IREDs), sensores y montajes.

H. Sensores para automoción.


Se incluyen sensores de efecto Hall, de presión y de caudal de aire.
Estos sensores son de alta tecnología y constituyen soluciones flexibles
a un bajo costo. Su flexibilidad y durabilidad hace que sean idóneos para
una amplia gama de aplicaciones de automoción.

I. Sensores de caudal de aire.


Los sensores de caudal de aire contienen una estructura de película fina
aislada térmicamente, que contiene elementos sensibles de temperatura
y calor. La estructura de puente suministra una respuesta rápida al
caudal de aire u otro gas que pase sobre el chip.
J. Sensores de corriente.
Los sensores de corriente monitorizan corriente continua o alterna. Se
incluyen sensores de corriente lineales ajustables, de balance nulo,
digitales y lineales. Los sensores de corriente digitales pueden hacer
sonar una alarma, arrancar un motor, abrir una válvula o desconectar
una bomba. La señal lineal duplica la forma de la onda de la corriente
captada, y puede ser utilizada como un elemento de respuesta para
controlar un motor o regular la cantidad de trabajo que realiza una
máquina.

K. Sensores de efecto Hall


Son semiconductores y por su costo no están muy difundidos pero en
codificadores ("encoders") de servomecanismos se emplean mucho.

L. Sensores de humedad
Los sensores de humedad relativa/temperatura y humedad relativa están
configurados con circuitos integrados que proporcionan una señal
acondicionada. Estos sensores contienen un elemento sensible
capacitivo en base de polímeros que interacciona con electrodos de
platino. Están calibrados por láser y tienen una intercambiabilidad de
+5% HR, con un rendimiento estable y baja desviación.
M. Sensores de posición de estado sólido
Los sensores de posición de estado sólido, detectores de proximidad de
metales y de corriente, se consiguen disponibles en varios tamaños y
terminaciones. Estos sensores combinan fiabilidad, velocidad,
durabilidad y compatibilidad con diversos circuitos electrónicos para
aportar soluciones a las necesidades de aplicación.

N. Sensores de presión y fuerza


Los sensores de presión son pequeños, fiables y de bajo costo. Ofrecen
una excelente repetitividad y una alta precisión y fiabilidad bajo
condiciones ambientales variables. Además, presentan unas
características operativas constantes en todas las unidades y una
intercambiabilidad sin re calibración.

O. Sensores de temperatura
Los sensores de temperatura se catalogan en dos series diferentes: TD
y HEL/HRTS. Estos sensores consisten en una fina película de
resistencia variable con la temperatura (RTD) y están calibrados por
láser para una mayor precisión e intercambiabilidad. Las salidas lineales
son estables y rápidas.

P. Sensores de turbidez
Los sensores de turbidez aportan una información rápida y práctica de la
cantidad relativa de sólidos suspendidos en el agua u otros líquidos. La
medición de la conductividad da una medición relativa de la
concentración iónica de un líquido dado.

Q. Sensores magnéticos
Los sensores magnéticos se basan en la tecnología magnetoresisitiva
SSEC. Ofrecen una alta sensibilidad. Entre las aplicaciones se incluyen
brújulas, control remoto de vehículos, detección de vehículos, realidad
virtual, sensores de posición, sistemas de seguridad e instrumentación
médica.
R. Sensores de presión
Los sensores de presión están basados en tecnología piezoresistiva,
combinada con micro controladores que proporcionan una alta precisión,
independiente de la temperatura, y capacidad de comunicación digital
directa con PC. Las aplicaciones afines a estos productos incluyen
instrumentos para aviación, laboratorios, controles de quemadores y
calderas, comprobación de motores, tratamiento de aguas residuales y
sistemas de frenado.

S. Sensores de Movimientos:
Este tipo de sensores es uno de los más importantes en robótica, ya que
nos da información sobre las evoluciones de las distintas partes que
forman el robot, y de esta manera podemos controlar con un grado de
precisión elevada la evolución del robot en su entorno de trabajo
Sensores de deslizamiento:
Este tipo de sensores se utiliza para indicar al robot con que fuerza ha
de coger un objeto para que este no se rompa al aplicarle una fuerza
excesiva, o por el contrario que no se caiga de las pinzas del robot por
no sujetarlo debidamente.
Su funcionamiento general es simple, ya que este tipo de sensores se
encuentran instalados en el órgano aprehensor (pinzas), cuando el robot
decide coger el objeto, las pinzas lo agarran con una determinada fuerza
y lo intentan levantar, si se produce un pequeño deslizamiento del objeto
entre las pinzas, inmediatamente es incrementada la presión le las
pinzas sobre el objeto, y esta operación se repite hasta que el
deslizamiento del objeto se ha eliminado gracias a aplicar la fuerza de
agarre suficiente.

T. Sensores de Velocidad:
Estos sensores pueden detectar la velocidad de un objeto tanto sea
lineal como angular, pero la aplicación más conocida de este tipo de
sensores es la medición de la velocidad angular de los motores que
mueven las distintas partes del robot. La forma más popular de conocer
la velocidad del giro de un motor, es utilizar para ello una dinamo
tacométrica acoplada al eje del que queremos saber su velocidad
angular, ya que este dispositivo nos genera un nivel determinado de
tensión continua en función de la velocidad de giro de su eje, pues si
conocemos a que valor de tensión corresponde una determinada
velocidad, podremos averiguar de forma muy fiable a qué velocidad gira
un motor. De todas maneras, este tipo de sensores al ser mecánicos se
deterioran, y pueden generar errores en las medidas.
Existen también otros tipos de sensores para controlar la velocidad,
basados en el corte de un haz luminoso a través de un disco perforado
sujetado al eje del motor, dependiendo de la frecuencia con la que el
disco corte el haz luminoso indicará la velocidad del motor.

U. Sensores de Aceleración:
Este tipo de sensores es muy importante, ya que la información de la
aceleración sufrida por un objeto o parte de un robot es de vital
importancia, ya que si se produce una aceleración en un objeto, este
experimenta una fuerza que tiende ha hacer poner el objeto en
movimiento.
Supongamos el caso en que un brazo robot industrial sujeta con una
determinada presión un objeto en su órgano terminal, si al producirse un
giro del mismo sobre su base a una determinada velocidad, se provoca
una aceleración en todo el brazo, y en especial sobre su órgano
terminal, si esta aceleración provoca una fuerza en determinado sentido
sobre el objeto que sujeta el robot y esta fuerza no se ve contrarrestada
por otra, se corre el riesgo de que el objeto salga despedido del órgano
aprehensor con una trayectoria determinada, por lo que el control en
cada momento de las aceleraciones a que se encuentran sometidas
determinadas partes del robot son muy importantes.

Sensores y dispositivos de medición.


La circuitería anterior constituye el bloque de tratamiento de señal.
Adicionalmente, muchos sensores incluyen tina etapa de salida.
Conformada por relés, amplificadores de potencia, conversares de
código, transmisores, y otros tipos de dispositivos y circuitos, cuya
función es adaptar la señal entregada por el bloque de
acondicionamiento o tratamiento a las necesidades específicas de la
carga.
Generalmente, tanto la etapa de salida como la de tratamiento de señal,
incluyen también circuitos de protección contra sobre voltajes,
interferencia electromagnética (EM 1), interferencia de radiofrecuencia
(RFI), y otros fenómenos que son comunes en los ambientes eléctricos
industriales.

VII. RESOLUCIÓN Y PRECISIÓN


La resolución de un sensor es el menor cambio en la magnitud de
entrada que se aprecia en la magnitud de salida. Sin embargo, la
precisión es el máximo error esperado en la medida.
La resolución puede ser de menor valor que la precisión. Por ejemplo, si
al medir una distancia la resolución es de 0,01 mm, pero la precisión es
de 1 mm, entonces pueden apreciarse variaciones en la distancia
medida de 0,01 mm, pero no puede asegurarse que haya un error de
medición menor a 1 mm. En la mayoría de los casos este exceso de
resolución conlleva a un exceso innecesario en el coste del sistema. No
obstante, en estos sistemas, si el error en la medida sigue una
distribución normal o similar, lo cual es frecuente en errores
accidentales, es decir, no sistemáticos, la repetitividad podría ser de un
valor inferior a la precisión.
Sin embargo, la precisión no puede ser de un valor inferior a la
resolución, pues no puede asegurarse que el error en la medida sea
menor a la mínima variación en la magnitud de entrada que puede
observarse en la magnitud de salida.

VIII. CONCLUSIONES.
Estos son solo algunos de los sensores más comúnmente usados en
robótica debido a su practicidad y bajo costo.
Existen muchos otros un poco más sofisticados, como ser los
transmisores y receptores ultrasónicos, con los cuales se pueden
construir sistemas de sonar muy útiles a la hora de detectar objetos a
distancia y así poder esquivarlos sin necesidad de tomar contacto con
ellos.

IX. BIBLIOGRAFIA.

 G:\FISIACA EXPERIMENTAL\Física experimental - Wiki pedía, la


enciclopedia libre.mht.
 G:\TEORIA DE ERRORES\Teoría de errores MM.mht.
 G:\SENSORES\Sensor de imagen - Wiki pedía, la enciclopedia libre.mht.
G:\SENSORES\Haciendo sensores.mht.
LA
CONTAMINACIO
N
ELECTROMAGNE
TICA
LA CONTAMINACION ELECTROMAGNETICA

EN LAS CONSTRUCCIONES

EL PROBLEMA
Los campos electromagnéticos son rara vez tenidos en cuenta como factores
de contaminación en el área de la construcción, pese a las evidencias de sus
efectos sobre la vida y, en especial, sobre la salud humana.
Toda corriente eléctrica produce campos magnéticos y todo campo magnético
variable induce campos eléctricos. Sin embargo, un campo magnético estático
puede producir una corriente eléctrica en un cuerpo si éste se mueve a través
del campo.
De esa forma los campos magnéticos artificiales, mucho más intensos que los
naturales, pueden alterar los procesos biológicos. La abundancia de artefactos
eléctricos y aparatos electrónicos, así como los medios de transmisión de
electricidad y radiofrecuencias, han hecho de nuestra civilización tecnológica
un pandemónium de campos electromagnéticos de todo tipo. Los continuos
avances tecnológicos hacen que la incidencia de este tipo de contaminación
vaya en aumento.
La tecnología genera campos electromagnéticos en todas las frecuencias e
intensidades. Después de largas polémicas, investigaciones realizadas en todo
el mundo han demostrado que las alteraciones biológicas debidas a la acción
de campos electromagnéticos artificiales intensos, tanto de alta frecuencia
(antenas de radio, TV, microondas, radar, etc.) como de baja frecuencia (líneas
de alta tensión, pantallas de televisores y computadoras, transformadores, etc.)
pueden producir cambios en la temperatura corporal, desequilibrio en los
electrolitos de la sangre, dolor muscular en las articulaciones, dificultad en la
percepción de los colores, fatiga, inapetencia, disfunciones en el sistema
nervioso central, estrés, disminución de la cantidad de plaquetas en la sangre,
etc..
Los campos electromagnéticos débiles como los generados por una instalación
eléctrica de 220 V y 50 Hz, pueden provocar tensión nerviosa y alterar el
equilibrio de grasas y colesterol en la sangre, aumentar la producción de
cortisona y subir la presión sanguínea, lo que puede desembocar en trastornos
cardiacos, renales, gastrointestinales, nerviosos y otros.
Las radiaciones electromagnéticas de baja intensidad que emiten los aparatos
eléctricos, así como los provenientes de una mala instalación eléctrica en
viviendas o lugares de trabajo, pueden tener una incidencia desfavorable en el
desarrollo de cáncer, afectar las funciones reproductoras, provocar alergias y
depresiones.

LAS PRUEBAS
Diversas investigaciones indican un aumento de las tasas de mortalidad por
leucemia en profesionales relacionados con el trabajo en campos
electromagnéticos y en niños que habitan casas cercanas a tendidos de alta
tensión.
El gobierno de Suecia, basándose en las investigaciones de Lenmart
Tomenius, ha reconocido en su legislación la incidencia de los campos
electromagnéticos generados por las líneas de alta tensión en la estadística de
los casos de leucemia infantil.
En 1974, a raíz de las investigaciones de V. P. Korobkova, la Unión Soviética
dicta una ley según la cual las líneas de alta tensión que generen campos de m
s de 25 Kv/m deben situarse a una distancia mínima de 110 metros de cada
edificación.
En Alemania, el ingeniero Egon Eckert probó que la mayoría de los casos de
muerte súbita de lactantes se produce en la cercanía de vías electrificadas,
emisoras de radio, radar o líneas de alta tensión.
En 1979 la epidemióloga estadounidense Nancy Whertheimer provocó un
escándalo al evidenciar estadísticamente que la mayoría de los hogares de
Denver donde residían niños afectados de cáncer estaban expuestos a fuertes
campos electromagnéticos provenientes de los transformadores y líneas
primarias del tendido eléctrico callejero.
También se ha detectado una mayor incidencia de nacimientos de niños con
malformaciones en hijos de trabajadores en unidades de conmutación eléctrica,
así como abortos y alteraciones de la gestación ligados al uso de mantas
eléctricas y computadoras.
La Universidad de Heidelberg, Alemania, ha demostrado que los cables
eléctricos de 220 voltios y 50 Hz instalados en viviendas generan campos que
elevan la presión parcial de oxígeno en la sangre, así como los valores del
hematocrito.
Teniendo en cuenta que la actividad eléctrica cerebral del ser humano
manifiesta una periodicidad que va de 14 a 50 Hz en el estado de conciencia
de vigilia y entre 8 y 14 si se está relajado, se deduce que un campo externo
de 50 Hz como el de la red eléctrica común puede inducir estados de
nerviosidad o como se le ha dado en llamar “electroestrés”.
En Argentina, un trabajo de investigación exhaustivo en este campo ha sido
llevado a cabo por el CONICET. En un informe publicado por el Centro de
Divulgación Científica de la Facultad de Farmacia y Bioquímica, el Prof. Adolfo
Portela (autor de un manual del Ministerio de Salud y Acción Social sobre las
normas vigentes en cuanto a exposición a radiofrecuencias) declara que la
zona de mayor riesgo en el rango de radiofrecuencias est entre los 30 y los
300 megahertz, la m s utilizada en enlaces de telecomunicación de corta
distancia, las emisoras de TV y FM y la telefonía celular. La exposición severa
a estas radiaciones afecta principalmente la vista, el sistema nervioso central,
el hígado y las glándulas de secreción interna. Actualmente se pretende bajar
la potencia de estas emisiones aumentando la sensibilidad de las antenas.

CAUSAS Y SOLUCIONES

Las líneas de alta y media tensión


La peligrosidad de las líneas de la red eléctrica depende de la tensión, de la
intensidad y de la sobrecarga a que est‚n sometidas. Es fundamental la calidad,
el estado y la limpieza de los aisladores, así como la verificación y el
mantenimiento de la conexión a tierra de las torres. En Alemania se
recomienda una distancia de seguridad de 1 metro por cada kilovoltio de
tensión de la línea.
Si el tendido es subterráneo los cables deben contar con una buena aislación y
ser coaxiales para no generar campos externos. Si los cables de las tres fases
est n debidamente trenzados el campo electromagnético es inferior al de una
línea a‚rea equivalente. De todos modos este tipo de líneas suele pasar
demasiado cerca de las viviendas.

Los transformadores de red


Las centrales de distribución eléctrica que encontramos “disimuladas” entre las
construcciones urbanas son reconocibles por su continuo zumbido. Los
transformadores de red, que vemos en algunas esquinas, ya sea en cámaras
subterráneas o a‚reas, convierten la media tensión de distribución en tensión
apta para uso industrial y doméstico, de 380 y 220 voltios. Si la toma de tierra
de estas instalaciones es defectuosa, se pueden tener graves alteraciones del
potencial eléctrico en el terreno.
Es común ver explotar y fundirse los fusibles de estos transformadores en
presencia de una sobrecarga.
Como distancia de seguridad se aconseja que las viviendas se encuentren
como mínimo a 15 metros de estos transformadores. Nuevos materiales de
aislamiento de los campos electromagnéticos como el numetal pueden
solucionar el problema de los transformadores en los núcleos urbanos.

Líneas de baja tensión


Si bien son las responsables de la contaminación eléctrica más común en las
casas, la sobrecarga y el desequilibrio entre las tres fases son las causas
fundamentales de las alteraciones detectadas.
Se recomiendan cables con revestimiento aislante de bajo nivel de pérdida y
con trenzado de las tres fases, así como una correcta conexión a tierra de las
instalaciones domiciliarias.
La instalación eléctrica de la vivienda.
Se puede comprobar que muchas de las viviendas y edificios de nuestro país
carecen aún en sus instalaciones de protectores eléctricos y una correcta
conexión a tierra.
La mejor red eléctrica en las ciudades es la subterránea. En las viviendas, las
cajas de conexión, los contadores y los disyuntores deberían ubicarse en un
lugar apartado de la presencia humana, en lo posible, dentro de un armario
metálico, que a modo de “jaula de Faraday” evite la irradiación del campo
electromagnético. Toda casa debe contar con un disyuntor diferencial
automático u otro tipo de interruptores protectores. Es necesario que la
instalación cuente con una buena conexión a tierra y conviene que
est‚ separada en sectores o funciones.
La mejor protección contra la contaminación eléctrica doméstica es la
desconexión oportuna de aquella parte de la instalación que no necesitemos,
en especial durante la noche. Para este fin, en los países desarrollados existe
un interruptor de tensión en ausencia de consumo (tipo “bioswitch”). Este
aparato desconecta la alimentación de 220 v. de aquellos sectores de la
instalación que no tengan consumo (por ejemplo, en los dormitorios durante la
noche) manteniendo una corriente continua de apenas 6 voltios (que no genera
campos electromagnéticos) como piloto para detectar cualquier requerimiento
de consumo, que activar el flujo normal de corriente.
Televisores y monitores de computadoras.
Todas las pantallas basadas en el tubo de rayos catódicos emiten radiaciones
ionizantes que pueden afectar a la salud, especialmente la de quienes pasan
horas delante de computadoras y televisores. La exposición depende de la
distancia entre el sujeto y la pantalla. En el caso de las computadoras, las
pantallas monocromáticas emiten mucha menos radiación que la de colores.
Pero además de la temida radiación X, hay que tener en cuenta el fuerte
campo electromagnético generado por los transformadores de alta tensión y las
bobinas de deflexión de los tubos de rayos catódicos.Estos campos
electromagnéticos se reparten globalmente alrededor de los aparatos.
Recordemos que una pared común no es obstáculo para la radiación
electromagnética. Por eso hay que considerar el lugar en que se instalan este
tipo de aparatos, tanto en viviendas como en oficinas, cuidando que el campo
irradiado por la parte posterior del televisor o computadora no afecte la calidad
ambiental de la habitación contigua, en especial si sus ocupantes son bebés o
niños.
La electricidad estática de las pantallas puede descargarse con filtros de
conexión a tierra. Los filtros ópticos protegen sólo la vista, evitando los reflejos
de la luz ambiente sobre la pantalla. Se pueden instalar alfombrillas
conductoras con descarga a tierra para quienes trabajan largas horas frente a
las pantallas de las computadoras no se vean sometidos a grandes potenciales
electrostáticos. La Organización Mundial de la Salud recomienda que los
operadores de computadoras descansen unos minutos cada hora, yendo a
descargar la est tica acumulada en sus cuerpos sumergiendo ambos brazos
bajo el agua que corre.
En 1988 la Dra. Marilyn Goldhaber terminó un estudio sobre 1.583 mujeres a lo
largo de tres años. Las que habían estado sometidas a la radiación de las
pantallas de computadoras durante períodos superiores a las 20 hs. semanales
indicaban una tasa estadística superior al doble de abortos y malformaciones
de los fetos.
Pese a las objeciones de las partes interesadas en la fabricación de estos
implementos electrónicos, son innegables los efectos que manifiestan muchos
operadores de computadoras: migrañas, fatiga ocular, insomnio, alergias
cutáneas, cansancio crónico, calambres, etc.
Las pantallas de cristal líquido (LCD), como las de las Laptop, son quizás la
solución ideal, pues utilizan tensiones bajas y no generan campos
electrostáticos ni electromagnéticos fuertes.
Interacción de los campos electromagnéticos
Los campos electromagnéticos contienen energía y ésta puede ser transmitida
a otros elementos que encuentren. La radiación electromagnética corresponde
solamente al transporte de energía lumínica en forma de paquetes de fotones.
La energía electromagnética se transmite a baja frecuencia en forma de
incremento de la energía cinética media de las partículas con las que
interacciona, es decir, simplemente genera calor.
A partir de cierta barrera (que no es progresiva y empieza en la banda
del ultravioleta medio) se genera de forma indirecta radiación ionizante, ya que
la energía individual de los fotones pueden hacer a los electrones romper su
barrera de potencial que los mantiene unidos al átomo.

Los electrodomésticos
Distintos aparatos, tanto en el hogar como en la oficina pueden estar afectando
la salud de quienes cotidianamente resultan expuestos a sus radiaciones
electromagnéticas. Esto se ve agravado por la mala calidad de sus
transformadores internos. El radio-despertador es uno de ellos, en especial por
la larga exposición (8 horas) y la cercanía a nuestras cabezas, produciendo
insomnios, dolores de cabeza, pesadillas, fatiga matinal. La distancia de
seguridad aconsejada es de por lo menos 1 m, aunque lo mejor sería prescindir
de ellos o cambiarlos por similares a pilas.
Los hornos de microondas son objeto de fuertes controversias. El generador de
microondas crea un fuerte campo electromagnético que puede perjudicar la
salud de quien trabaja continuamente en las cercanías de estos aparatos en
funcionamiento, en lugares tales como bares, restaurantes, pizzerías y
supermercados. Pero el mayor peligro radica en la posible fuga de emisiones
de microondas, lo que exige el control periódico del cierre del horno. Un horno
cuyo sistema de desconexión automático falle en el momento de ser abierto por
un niño, si se encuentra a la altura de sus ojos, puede provocarle la ceguera
inmediata.

Artefactos de iluminación
Pese a las ventajas energéticas de los tubos fluorescentes, la habitual mala
calidad en las reactancias permite la formación de campos electromagnéticos
importantes. Por ello, para grandes instalaciones se aconseja centralizar las
reactancias en un gabinete metálico común y alejado de las personas. Por otro
lado, por ser este tipo de luz pulsante, aunque no nos demos cuenta, se
desaconseja su uso en lugares que requieren de atención visual, como tableros
de dibujo o talleres. La vibración de la luz puede compensarse montando tres
tubos juntos conectados a fases distintas. El campo electrostático que emiten
los tubos fluorescentes puede corregirse apantallando los tubos con una rejilla
metálica y conectándola a tierra. En general se aconseja que la distancia entre
un tubo fluorescente y las personas sea de 1,5 m.
Las lámparas incandescentes, de menor rendimiento que las fluorescentes,
carecen en cambio de efectos electromagnéticos perniciosos, aunque su
instalación defectuosa puede producir campos eléctricos bastante fuertes. Para
evitarlo hay que verificar que el interruptor al apagarse interrumpa la fase y no
solamente el neutro.
Los transformadores asociados a lámparas halógenas o dicroicas son también
una importante fuente de campos electromagnéticos, por lo que se aconseja
alejar estos transformadores de las personas que trabajan bajo este tipo de
iluminación o centralizar la instalación.

Los transformadores
En general todo transformador irradia un campo electromagnético que puede
resultar nocivo para las personas que se hallen en sus cercanías en tiempos
prolongados. Lo ideal es utilizar transformadores toroidales, que tienen mayor
rendimiento, menor consumo y mínima contaminación electromagnética.

Fuentes de origen externo a la construcción


Muchas veces los campos electromagnéticos que podrían estar afectando la
salud de una vivienda pueden provenir de los aparatos o las instalaciones de
los vecinos a través de las paredes medianeras. Un televisor o un monitor de
computadora cuya parte posterior se apoya contra una pared, emite campos
electromagnéticos que la atraviesan.
Especialmente peligrosos son los consultorios médicos u odontológicos
equipados con equipos de rayos X y otros de alta potencia. Lo mismo sucede
con pequeñas industrias y talleres ubicados en zonas urbanas.

Antenas emisoras de radio y televisión


En las cercanías de estas antenas se captan fuertes campos eléctricos y
electromagnéticos, especialmente en las emisoras de AM. Se han detectado
casos de grave contaminación electromagnética en las viviendas aledañas a
antenas de radioaficionados y de emisoras ilegales de exagerada potencia.
Estos casos se agravan cuando la antena no sobrepasa los edificios
circundantes y los departamentos en altura quedan alineados con la torre. Lo
mismo sucede con las antenas de enlace por microondas cuyo cono de
dispersión barre con reas habitadas.
Lilia Garcén, Arquitecta.
Claudio Ardohain, Geobiólogo.

Pruebas y cambios en la legislación


Con el auge de la telefonía celular, las preocupaciones comenzaron a
surgir, no sólo debido a los efectos que podrían tener en el cerebro de los
usuarios, sino también que a medida que su uso se expande, se necesita
una mayor cantidad de antenas transmisoras en todo el mundo, lo que lleva
a la preocupación sobre la amplitud de los campos electromagnéticos
próximos a los transmisores. En Alemania, el Wissenschafts Zentrum
Umwelt ha desarrollado un sistema de medición de EMVU, lo que permite
que la intensidad de estos campos sea medida con profesionalidad. Se
trata de un sistema diseñado para un registro a largo plazo de campos
electromagnéticos de alta frecuencia para observar las variaciones de este
tipo de emisiones de los transmisores de radio y la distribución proporcional
de las emisiones desde diferentes servicios de transmisión.
La preocupación y la alarma social trajo consigo cambios en la legislación
de varios países: en 1974 la Unión Soviética fue la primera al aprobar una
ley que establece que las líneas de tensión que generen campos superiores
a los 25 kV/m deben estar ubicados a no menos de 110 metros de la
edificación más cercana.
En Estados Unidos, no existe una legislación federal de salud para el caso
de los CEM de 60Hz. Sólo seis estados han establecido estándares en los
campos eléctricos de las líneas de transmisión: Florida, Montana, Nueva
Jersey, Nueva York y Oregón. Mientras que sólo dos de ellos, Nueva York y
Florida, establecieron niveles máximos permitidos para los campos
magnéticos en las líneas, bajo condiciones de carga máxima, lo que les
permite que las líneas de energía futuras no superen esos niveles.
De acuerdo a un trabajo realizado en 1990 por la International Radiation
Protection Association (IRPA) y la International Comission of Non-Ionizing
Radiation Protection (INIRC), en los campos eléctricos de 10 a 30 kV/m, la
intensidad del campo (kV/m) x hora, no debería exceder los 80 por jornada
laboral completa. El cuerpo expuesto a campos magnéticos por hasta 2
horas por día no tendría que exceder los 50 Gauss.
Las directrices establecidas por estos dos organismos están
fundamentadas bajo el "principio de precaución" y no siempre se refieren a
campos de naturaleza electromagnética.

Posibles efectos dañinos en la salud

BIBLIOGRAFIA
Vivir en casa sana, Mariano Bueno, Ed. Martínez Roca.
El gran libro de la casa sana, Mariano Bueno, Ed. Martínez Roca.
Edificación Solar Biológica, Pierre Robert Sabady, Ed. CEAC.
The Nontoxic Home & Office, Debra Lynn Dadd, Tarcher Inc.
Efectos biológicos de los campos electromagnéticos de frecuencia baja,
artículo de la Revista de la Asociación Española de Medicina del Trabajo.

S-ar putea să vă placă și