Sunteți pe pagina 1din 13

Fundamentos de metrología en presión

Tema 1: La Presión y Los Instrumentos para Medirla.


Unidades de Medida

TEMA 1 LA PRESION Y LOS INSTRUMENTOS PARA MEDIRLA. UNIDADES DE


MEDIDA

1.1 Definición de presión

Se define la presión como la fuerza por unidad de área que actúa sobre una superficie
perpendicularmente en un punto de ella.

Este concepto de presión como magnitud física, fue introducido por Evangelista Torricelli
(1608-1647) y Blaise Pascal (1623-1662). Ellos establecieron la existencia de la presión
atmosférica y la midieron a través de la altura de una columna de mercurio en un tubo de
vidrio, demostrando que la misma no dependía del área de la sección transversal del tubo.

Cuando la fuerza se ejerce perpendicular y uniformemente distribuida sobre una cierta


superficie plana, su medida se obtiene dividiendo la fuerza que actúa sobre el área
correspondiente:
F
P 
A

Cuando estas condiciones no se cumplen, es decir, cuando la fuerza no está uniformemente


distribuida sobre la superficie o ésta no es plana, entonces la presión tendrá un valor
diferente en cada punto y para determinarla es necesario dividir la superficie en elementos
infinitesimales de área sobre los que actúan una parte infinitesimal de la fuerza total. Por
tanto, la presión en el caso más general, viene determinada matemáticamente por el límite al
que tiende el cociente del elemento infinitesimal de fuerza que actúa perpendicularmente
sobre el elemento infinitesimal de área:

F dF
P  lim 
A dA

De acuerdo a ello, si hacemos un análisis dimensional de la misma, recordando que la fuerza


está determinada de acuerdo a la Segunda Ley de Newton como F = m a tenemos que:

 P    F    m a   MLT
2

 ML1T  2
 A  A L2

Por lo que la presión se deriva de las magnitudes bases masa, longitud y tiempo.

En el campo de las mediciones de presión se pueden medir tres tipos de presiones


dependiendo de la presión que se tome como referencia:

 Presión absoluta

I/1
Fundamentos de metrología en presión

Tema 1: La Presión y Los Instrumentos para Medirla.


Unidades de Medida

 Presión relativa
 Presión diferencial

La presión absoluta es aquella que se mide respecto al vacío, entendiéndose por tal la
condición que reúne un espacio donde no existe sustancia y que constituye el cero absoluto
de presión.

La presión relativa se mide respecto a la presión atmosférica y puede ser superior a ésta
(sobrepresión) o inferior (depresión).

La presión diferencial es la que se mide respecto a una presión de referencia arbitraria, o lo


que es lo mismo, es la diferencia entre dos presiones cualesquiera determinadas a partir de
una misma presión de referencia.

En la figura 1.2 se muestra la relación entre los diferentes tipos de presión.

Pabs
Sobrepresión Presión diferencial

Presión
Atmosférica
Depresión

Presión
absoluta

Figura 1.2

1.1.2 Unidades de medida de presión

I/2
Fundamentos de metrología en presión

Tema 1: La Presión y Los Instrumentos para Medirla.


Unidades de Medida

Existen diversas unidades de medida para expresar la presión, algunas correspondientes a


ciertos sistemas de unidades y otras fuera de sistema.

Nos referiremos a continuación a las más usadas en la actualidad.

 En 1971, la Conferencia General de Pesas y Medidas adoptó el pascal (Pa = N/m 2)


como unidad de presión del Sistema Internacional de Unidades.

 Otra unidad comúnmente utilizada es el kgf/cm 2.

 En el sistema inglés, la libra- fuerza por pulgada cuadrada (lbf/in 2 = psi).

 Entre las unidades fuera de sistema más utilizadas tenemos: milímetro de la columna de
mercurio (mmHg = Torr) la cual se define como la presión que crea una columna de
mercurio de 1 mm de altura a 0 C al valor de la aceleración de la gravedad normal;
milímetro de la columna de agua (mmH 2O = kgf/m2) que se define como la presión que
crea una columna de agua de 1 mm de altura a 4 C y al valor de la aceleración normal
de la gravedad; atmósfera física (1 atm = 760 mmHg) que es lo que se llama presión
atmosférica normal, bar (1 bar = 0,1 MPa).

En la figura 1.3 se muestra la relación entre la unidad de medida del SI, el pascal, y las
unidades antes referidas. En la tabla 1.1 se muestran los factores de conversión entre estas
unidades de medida.

Tabla 1.1 Relación entre las unidades de medida de la presión más utilizadas

Unidad de
MPa kgf/cm2 MmHg mmH2O lbf/in2 bar
medida
MPa 1 10,197 16 7 500,62 101 971,6 145,037 7 10
2
kgf/cm 0,098 066 5 1 735,559 10 000 14,223 34 0,980 665
mmHg 1,333 22.10-4 0,001 359 51 1 13,595 10 0,019 336 0,001 333 24
78
mmH2O 9,806 65.10-6 0,000 1 0,073 555 9 1 0,001 422 98,066 5.10-6
33
lbf/in2 0,006 894 76 0,070 307 0 51,714 9 703,070 1 0,068 947 6
bar 0,1 1,019 716 750,062 10 197,16 14,503 77 1

Denominación y símbolos de las unidades de medida de la tabla:

(MPa) megapascal
(kgf/cm2) kilogramo fuerza por centímetro cuadrado
I/3
Fundamentos de metrología en presión

Tema 1: La Presión y Los Instrumentos para Medirla.


Unidades de Medida

(mmHg) milímetro de la columna de mercurio


(mmH2O) milímetro de la columna de agua
(lbf/in2 o psi) libra fuerza por pulgada cuadrada
(bar) bar

1.1.3 Instrumentos para medir la presión

I/4
Fundamentos de metrología en presión

Tema 1: La Presión y Los Instrumentos para Medirla.


Unidades de Medida

Los instrumentos para medir presión, en general denominados manómetros, pueden


clasificarse atendiendo a diferentes aspectos:

1) Según el tipo de presión que miden


2) Según su destino metrológico
3) Según su principio de funcionamiento

1.2 Clasificación según el tipo de presión que miden

Los instrumentos destinados a medir la presión absoluta se llaman manómetros de presión


absoluta y dentro de ellos tenemos los destinados a medir la presión atmosférica que se
denominan barómetros.

Los instrumentos que miden sobrepresión se llaman manómetros de sobrepresión o


sencillamente manómetros, los que miden depresión se denominan vacuómetros y los que
miden ambas, manovacuómetros. Como caso particular de manómetros de sobrepresión
están los destinados a medir la presión arterial que se denominan esfigmomanómetros.

Los instrumentos destinados a medir presiones muy pequeñas, hasta 40 kPa, se denominan
micromanómetros. Dentro de ellos tenemos como caso particular, los que se utilizan
industrialmente para la medición de sobrepresiones o depresiones de gases y vapores (tiro)
en chimeneas, calderas, etc. los cuales se denominan manómetros de tiro o vacuómetros
de tiro respectivamente y si miden ambas, manovacuómetros de tiro.

Los instrumentos que miden diferencia de presiones o presión diferencial, se denominan


manómetros diferenciales.

1.2.1 Clasificación según su destino metrológico

Los instrumentos para medir presión pueden destinarse a conservar y trasmitir la unidad de
medida durante la calibración de otros instrumentos de menor exactitud y en tal caso se
denominan manómetros patrones. Todos los restantes instrumentos que no se utilizan para
tal fin se denominan manómetros de trabajo.

1.2.2 Clasificación según su principio de funcionamiento

Los principios de funcionamiento de los manómetros se dividen en dos tipos fundamentales:


los que permiten la medición directa de la presión equilibrando ésta con una fuerza y los que
utilizan la relación que existe entre la presión y ciertas propiedades físicas de los materiales.

Al primer tipo pertenecen:

I/5
Fundamentos de metrología en presión

Tema 1: La Presión y Los Instrumentos para Medirla.


Unidades de Medida

 Manómetros de líquido, en los que la presión que se mide se equilibra con la creada por
el peso de una columna de líquido

 Manómetros de pistón y pesas o de peso muerto, en los que la presión se mide


equilibrándola con la creada por el peso de un sistema constituido por un pistón y pesas
que se colocan sobre él.

Al segundo tipo pertenecen:

 Manómetros de deformación elástica, que miden la presión tomando como base la


relación que existe entre ésta y la deformación de un elemento elástico sensible.

 Manómetros eléctricos, que miden la presión basándose en que las variaciones de


presión provocan la variación de ciertas propiedades eléctricas de determinados
materiales.

Estos instrumentos son los que más comúnmente se utilizan para la medición de la presión,
aunque debemos señalar que existen manómetros que funcionan bajo otros principios
comprendidos dentro de los del segundo tipo, como son los manómetros térmicos, de
viscosidad, de ionización, etc.

1.3 Otros aspectos relacionados con los instrumentos para medir presión

En los instrumentos para medir presión existen aquellos que constituyen medidas
materializadas que reproducen un conjunto discreto de valores de presión, este es el caso de
los manómetros de pistón y pesas. La mayor parte de los manómetros son instrumentos
medidores propiamente dichos, que pueden ser registradores o indicadores analógicos o
digitales.

También se utilizan los transductores manométricos que reciben una señal de presión y la
convierten en otra señal según una relación determinada, que puede ser también de presión
o eléctrica de corriente, de voltaje o de inductancia mutua. En general, los transductores no
poseen dispositivo de indicación de la señal de salida. Estos aparatos se utilizan durante la
transmisión a distancia de la información de la medición para la automatización de las
modernas instalaciones industriales.

Antes de estudiar los distintos tipos de instrumentos para medir presión, analizaremos
algunos aspectos generales sobre los parámetros que caracterizan metrológicamente a los
instrumentos de medición de cualquier tipo.

I/6
Fundamentos de metrología en presión

Tema 1: La Presión y Los Instrumentos para Medirla.


Unidades de Medida

1.4 Algunas características metrológicas de los instrumentos de medición

Independientemente de sus construcciones, principios de funcionamiento y magnitudes que


miden, a los instrumentos de medición les son comunes una serie de características
metrológicas. En este epígrafe y el próximo definiremos algunas de ellas que son las más
utilizadas.

Rango de indicación: Conjunto de los valores limitados por las indicaciones extremas del
instrumento de medición. El rango es normalmente expresado en términos de sus límites
inferior y superior.

Ejemplo: Para un manómetro de 0 a 200 psi


Para un manovacuómetro de -1 a 1 bar

Intervalo de medición: Módulo de la diferencia entre los límites de un rango nominal.

Ejemplo: Para un rango nominal de -5 a 30 psi de un manómetro, el intervalo


correspondiente es 35 psi.

Valor de división: Diferencia entre los valores correspondientes a dos marcas sucesivas de
la escala.

Ejemplo: 2 psi para un manómetro cuya menor división tiene ese valor.

Resolución: Menor diferencia entre indicaciones de un dispositivo de indicación que puede


ser distinguida de forma significativa.

Para un instrumento de indicación digital, es el cambio en la indicación cuando el dígito


menos significativo se incrementa en un paso.

Condiciones nominales de funcionamiento: Condiciones de utilización para las que las


características metrológicas específicas de un instrumento de medición se supone que están
comprendidas entre límites dados.

Las condiciones nominales de funcionamiento especifican generalmente valores nominales


asignados para el mensurando y para las magnitudes de influencia.

Condiciones límites: Condiciones extremas que un instrumento de medición debe poder


soportar sin daño y sin degradación de sus características metrológicas específicas cuando
con posterioridad es utilizado en sus condiciones nominales de funcionamiento.

I/7
Fundamentos de metrología en presión

Tema 1: La Presión y Los Instrumentos para Medirla.


Unidades de Medida

Las condiciones límites pueden comprender valores límites para el mensurando y para las
magnitudes de influencia y las mismas pueden corresponder a almacenamiento,
transportación y operación.
1.5 Errores en los instrumentos de medición

Como consecuencia de la influencia de un gran número de factores casuales y


determinantes que surgen en el proceso de fabricación, conservación y explotación de los
instrumentos de medición, los valores de las medidas materializadas y las indicaciones de
los instrumentos inevitablemente se diferencian de los valores reales de las magnitudes
reproducidas o medidas por los mismos. Estas desviaciones son las que caracterizan los
errores de los instrumentos de medición.

Los errores de los instrumentos de medición tienen dos componentes:

a) Un error sistemático
b) Un error aleatorio.

Los errores sistemáticos: son en general función de la magnitud medida y se deben tanto
a errores determinados por la estructura del diseño del instrumento como a errores de
fabricación de los mismos.

Si designamos por Y la indicación del instrumento y por X el valor de la magnitud medida,


tendremos que para un instrumento de medición existe una cierta dependencia funcional
entre ambos:
Y  fX

En un régimen estable de funcionamiento (magnitud medida constante) esta relación se


denomina característica estática del instrumento de medición o característica de
respuesta del mismo.

Para la mayoría de los instrumentos se prefiere una característica estática lineal. Las
características no lineales, por ejemplo la logarítmica o la cuadrática, se admiten sólo en
aquellos casos cuando son motivadas por el principio de medición y la no linealidad no puede
ser eliminada por completo (figura 1.4).

F1(X) : Característica lineal


F2(X): Característica no lineal
F2 (X)

Y

X F1(X)

I/8

Figura
1.4
Fundamentos de metrología en presión

Tema 1: La Presión y Los Instrumentos para Medirla.


Unidades de Medida

El cociente del incremento observado en la indicación del instrumento y el correspondiente


incremento del mensurando se denomina sensibilidad del instrumento de medición.

En el caso de una característica lineal, ésta se determina como la pendiente de la recta y


tiene un valor único para los diferentes valores del mensurando

AY
S
AX

Si la característica estática es no lineal, la sensibilidad varía con el valor de la magnitud a


medir y se determinará en cada punto de la escala a partir del límite al que tiende la relación
anterior para un incremento  X muy pequeño del mensurando.

Y dY
S  lim 
X dX
X  0

En la figura 1.5 se representa la posición mutua de la característica real e ideal de un


instrumento de medición, considerando sólo los errores debidos al esquema de diseño del
instrumento.

Fo(X) -> Característica estática ideal


F(X) -> Característica estática real

F0 (X)

F1 (X)

Figura 1.5 X

I/9
Fundamentos de metrología en presión

Tema 1: La Presión y Los Instrumentos para Medirla.


Unidades de Medida

Las imperfecciones tecnológicas de fabricación del instrumento así como los errores que
surgen durante la explotación del mismo, deforman en un alto grado esta representación y da
lugar a:

1. El desplazamiento de la característica estática real con relación a la ideal y a la aparición


de un error constante en cada punto de la escala (figura 1.6). Si la escala incluye el valor
cero, este error se denomina error de cero.

F(X) F0 (X)

X
Figura 1.6

2. El giro de la característica estática y la aparición de un error linealmente creciente con el


aumento de la magnitud medida, el cual generalmente se denomina error multiplicativo
(figura 1.7).

F(X)

F0 (X)

Figura 1.7 X

I/10
Fundamentos de metrología en presión

Tema 1: La Presión y Los Instrumentos para Medirla.


Unidades de Medida

3. Aparición de un error de histéresis, el cual se manifiesta en la no coincidencia de la


característica estática del instrumento cuando aumenta y disminuye la magnitud medida
(figura 1.8).

Y F(X)

F0 (X)

X
Figura 1.8
4. Deformaciones no lineales de las características estáticas que da lugar al error de
linealidad (figura 1.9).

F (X)

F0 (X)

Figura 1.9 X

La cualidad de un instrumento que caracteriza la cercanía a cero de su error sistemático se


denomina justeza.

El error sistemático total que tiene un instrumento de medición se denomina error de


justeza.

Los errores sistemáticos de un instrumento de medición se estiman durante el proceso de


calibración del mismo y se reflejan en el Certificado de Calibración. Puesto que estos errores

I/11
Fundamentos de metrología en presión

Tema 1: La Presión y Los Instrumentos para Medirla.


Unidades de Medida

en general cambian con el tiempo debido al desgaste y al envejecimiento de los elementos


del instrumento, es necesario repetir este proceso de calibración cada cierto tiempo para
actualizar el valor del estimado de los errores del instrumento.

Se denomina corrección al valor que debe sumarse algebraicamente al resultado sin


corregir de una medición para compensar el error sistemático y es numéricamente igual a
este error pero de signo contrario.

Los errores aleatorios de los instrumentos de medición deben su aparición a variaciones


aleatorias (casuales, fortuitas) de los parámetros de sus elementos bajo condiciones
estables de funcionamiento. Esta componente del error del instrumento puede evaluarse a
partir de la repetibilidad o la reproducibilidad, y en general, es función del valor de la
magnitud medida.

Error máximo permisible de un instrumento de medición es el valor extremo del error


permitido por especificaciones, reglamentos, etc. para un instrumento de medición dado.
(Figura 1.10).

Y
Emp
F (X)

X
Figura 1.10

Los métodos más comunes utilizados para expresar el error máximo permisible de un
instrumento son los siguientes:

1. Método: Si el error máximo de un instrumento (en buen estado) expresado como error
absoluto no depende del valor de la magnitud a medir, entonces se fija el límite
permisible del error absoluto o reducido, los cuales son constantes en todo el rango de
medición.

=a (error absoluto)

I/12
Fundamentos de metrología en presión

Tema 1: La Presión y Los Instrumentos para Medirla.


Unidades de Medida

100*.
 =  ----------- =  K % (error reducido)
Xn

Xn : Valor especificado para un instrumento de medición que puede ser el intervalo de


medición, el límite superior del rango de indicación, etc.

Este método se utiliza ampliamente para la mayoría de los instrumentos indicadores de


límites estrechos, tales como manómetros, voltímetros, balanzas semiautomáticas, etc.

2. Método: Si el error máximo de un instrumento (en buen estado) expresado bajo la forma
de error absoluto está en relación lineal con el valor de la magnitud medida, entonces se
fijan los límites del error absoluto o relativo como una cierta función lineal de la magnitud
medida.

 = ± (a + b X) (error absoluto)

 = ± [c + d (Xk/ X - 1] (error relativo)

donde:
a, b, c y d son valores constante.
Xk máxima indicación del instrumento sin tener en cuenta el signo.
X indicación del instrumento sin tener en cuenta el signo.

Como caso particular de este método está aquel en el que a = 0 y entonces:

=  b X (error absoluto)

 =  100*  / X = ± b % (error relativo)

Ejemplos de este caso son los contadores de energía eléctrica, los distribuidores de
carburante, las balanzas de peso muerto, etc.

3. Método: Si la dependencia del error máximo con respecto a las indicaciones del
instrumento es más compleja, entonces el error máximo permisible se da en forma de
tabla para diferentes valores o intervalos de las indicaciones del instrumento, o diferentes
rangos de medición (para el caso de los instrumentos de rangos múltiples).

Ejemplos: Juegos de pesas


Básculas camioneras

I/13

S-ar putea să vă placă și