Sunteți pe pagina 1din 7

NOÇÕES GERAIS SOBRE METROLOGIA

Curso de Pós-Graduação em Energia Nuclear - UFMG


13 de Novembro 2007

Professor: Paulo César C. Pinheiro.

INTRODUÇÃO

A metrologia é a ciência que cuida do estabelecimento e reprodução das unidades de


medidas sob a forma de padrões e do desenvolvimento de métodos e meios de medidas.

Um dos principais problemas na metrologia é verificar a precisão dos instrumentos e


meios de medidas e testa-los para um funcionamento confiável.

A medição é um meio de conhecimento da natureza. Sem dúvida, a rentabilidade da


produção e a qualidade dos produtos industriais dependem da certeza da medição obtida no
processo tecnológico.

A indústria energética, química e metalúrgica (entre outras) são inconcebíveis sem o


emprego de modernos aparelhos de medição. O controle de processos torna-se cada vez mais
importante a fim de melhorar a qualidade dos produtos industriais e elevar o rendimento da
produção.

MEDIÇÕES

Medição é a comparação entre uma grandeza sujeita a medição e um certo valor adotado
como unidade de referência. O resultado da medição é um número concreto, consistindo de uma
unidade de medida e de um número que mostra quantas vezes esta unidade é contida na
grandeza medida.

Grandeza = Valor numérico X Unidade de medida

A unidade de medida deve ser reprodutível de uma forma real de modo a ter um alto nível
de precisão e perfeição como um padrão absoluto.

Medição direta é aquela cujo resultado é obtido diretamente dos dados experimentais. O
valor da grandeza procurado é obtido comparando diretamente com padrões ou através de
instrumentos de medida graduados segundo as unidades respectivas. (Ex: Medida do
comprimento com uma régua, temperatura através de um termômetro, pressão através de um
manômetro).

Medição indireta é aquela cujo resultado é obtido através de medições diretas de outras
grandezas, ligadas por uma dependência conhecida com a grandeza procurada. São utilizadas
quando é difícil medir diretamente a grandeza procurada, ou quando a medição indireta produz
resultados mais precisos. (Ex: Medida de vazão através da queda de pressão em uma placa de
orifícios).

Principio de medição é o conjunto de fenômenos físicos sobre os quais é baseada a


medição. (Ex: Medição de temperatura através do efeito termoelétrico).

Método de medição é o conjunto de procedimentos relacionados com a aplicação dos


princípios e os métodos técnicos de medição.

APARELHOS TÉCNICOS DE MEDIÇÃO

São instrumentos construídos de modo a produzir o resultado da medição de uma


maneira acessível à percepção direta do usuário.

Eles podem ser analógicos (quando as indicações são uma função contínua da grandeza
medida) ou digitais (quando as indicações são sinais discretos e numéricos da grandeza medida).

Aparelhos registradores são aqueles dotados do registro da medida. Quando o aparelho


só permite a visualização da medida chama-se aparelho indicador. Quando a grandeza medida é
submetida a uma integração no tempo é chamado aparelho integrador.

Transdutores ou convertedores são os aparelhos destinados a produzir, transmitir e/ou


adaptar o sinal de medida, sem contudo submete-lo à percepção do usuário.

Transdutor primário ou sensor é aquele submetido à grandeza a ser medida. É o primeiro


elemento da cadeia de medição.

Transdutor intermediário ou transmissor é o aparelho destinado a converter o sinal de


medida a fim de transmiti-lo à distância.

Aparelhos de medição são aqueles dotados de sensor, transmissor e indicador (ou


registrador).

Aparelhos padrões de medida são os aparelhos e os transdutores primários destinados a


verificar e a calibrar os aparelhos de medição de uso comum. O erro admissível de um dispositivo
padrão deve ser no mínimo 4 a 5 vezes menor do que o do aparelho em ensaio.

ERROS DE MEDIÇÃO

Erro de medição é a divergência entre o valor medido e o valor real da grandeza medida.
Por maior que seja o esmêro na medição sempre existirá um erro de medição. Este erro pode ser
devido à utilização de métodos e equipamentos impróprios ou defeituosos, à variações nas
condições de medição, entre outras causas. O valor real da grandeza medida é sempre uma
incógnita, e por isto só podemos obter uma avaliação aproximada do erro de medição. Muitos
autores preferem o termo "incerteza" ao erro neste caso.

Erro absoluto é a diferença entre o valor obtido durante a medição e o valor real da
grandeza medida. Erro relativo é a razão da diferença obtida e o valor real da medida.

Erro aleatório é aquele que varia casualmente ao se repetir várias vezes uma mesma
medida. Este tipo de erro é provocado por fatores não determinados e sobre os quais é
impossível um controle rígido. Os erros aleatórios são inconstantes tanto em valor como em sinal.
Eles não podem ser determinados separadamente e provocam um imprecisão no resultado da
medição.

Erro sistemático é aquele que permanece constante ou varia de uma maneira previsível
ao se repetir várias vezes uma mesma medida. Estes erros podem ser corrigidos. São seguintes
os erros sistemáticos:

Erros instrumentais são aqueles que dependem dos aparelhos de medidas empregados.
Todos os aparelhos devem ser submetidos a um controle sistemático periódico, a fim de
se determinar as variações possíveis dos erros instrumentais, devido à desregulagem dos
aparelhos, do desgaste ou de outras causas.

Erro do método de medição é aquele decorrente do método de medição. Este tipo de erro
surge com freqüência ao serem empregados novos métodos, bem como ao serem
aplicadas equações aproximadas da dependência real entre as grandezas.

Erro subjetivo é aquele devido às particularidades individuais do usuário. Ex: leitura


atrasada, interpolação incorreta, paralaxe. Erro de paralaxe é o erro de leitura que ocorre
ao se observar a agulha do instrumento em uma direção não perpendicular à superfície do
mostrador.

Erro de instalação é aquele devido à instalação incorreta do instrumento ou de seus


ajustes.

Erro metódico é aquele determinado a partir da metodologia de medição de uma


grandeza; e não depende da precisão dos instrumentos utilizados.

Ao efetuar uma medição é necessário ter em mente que os erros sistemáticos podem
alterar consideravelmente os resultados da mesma. Por isto, antes de começar uma medição
tem-se que verificar todas as fontes de erros sistemáticos e tomar precauções a fim de elimina-los
ou determina-los.

Correção é o valor adicionado à medição a fim de se eliminar o erro sistemático


conhecido.

Erro grave é aquele que supera em muito o erro estimado para determinadas condições.
Deve ser descartado imediatamente.

Erro dinâmico é aquele que surge durante uma medição cujos valores variam com o
tempo, além dos erros acima mencionados.

De modo geral, quando desejamos uma alta confiabilidade na medida, utilizamos


aparelhos de alta precisão e repetimos várias vezes a mesma medição. Repetindo as medições
reduzimos a influência dos erros aleatórios e por conseqüência aumentamos a confiabilidade da
medida.

Os métodos de obtenção destes valores devem obrigatoriamente seguir normas e


procedimentos estabelecidos por organismos internacionais, de modo que os resultados obtidos
tenham como lastro um padrão internacionalmente aceito. A isto se dá o nome de rastreabilidade,
requisito das normas ISO-9000.
Existem três maneiras de se obter esta informação:
1) Trabalhar com fornecedores de sensores que possuam capacitação tecnológica para a
realização dos procedimentos de calibração. Isto significa que o fabricante deve manter um
laboratório de medidas credenciado junto ao INMETRO e rastreável aos padrões nacionais, com
pleno controle do processo de fabricação dos sensores, desde a seleção dos componentes à
montagem final e aferição, com posterior emissão do certificado que acompanha cada sensor.

2) O próprio usuário adquirir equipamentos de comprovada eficácia, para que ele mesmo realize
os procedimentos de calibração.

3) O usuário enviar os sensores de sua propriedade, não aferidos, para calibração em um


laboratório credenciado.

CARACTERÍSTICAS ESTÁTICAS DOS INSTRUMENTOS

Legibilidade (readbility) é um indicativo (qualitativo) da distância em que a escala do


instrumento pode ser lida.

Limite de sensibilidade (least count) ou tempo morto (dead band) é a menor variação no
valor da grandeza medida que pode ser detectada pelo instrumento. É expresso em valor
absoluto.

Sensibilidade (sensitivity) é a razão entre a resposta linear ou angular de um instrumento


analógico e a variação da grandeza medida que provocou esta resposta.

Fundo de escala é o valor máximo que pode ser medido pelo aparelho.

Precisão (accuracy) é o erro admissível de um aparelho na transmissão ou medição de


uma grandeza. Define os limites de erros instrumentais cometidos quando o aparelho é utilizado
em condições normais. Normalmente expresso em % do fundo de escala.

Classe de precisão de um aparelho é um número que mostra o seu limite superior de erro
instrumental relativo (%), sob condições normais de operação. Todos os instrumentos de medida
estão em uma das seguintes classes de precisão: 0.2, 0.5, 1.0, 1.5, 2.0, 2.5, 3.0, 4.0. Os
instrumentos das classes 0.5 a 2.0 são os mais utilizados. Os instrumentos das classes 2.5 a 4.0
praticamente não são mais fabricados atualmente, devido à sua baixa precisão.

Faixa de medida (range) é a faixa de valores que podem ser medidos pelo aparelho.

Alcance (span) é o intervalo entre os valores máximo e mínimo que o sistema é capaz de
medir. É expresso em valor absoluto.

Equação de transferência é a dependência matemática entre o sinal de saída do


equipamento e a grandeza medida em um regime estável. De modo geral ela é descrita por uma
equação linear:
Saída = a + k * (grandeza)
O coeficiente "k" é chamado coeficiente de transmissão.
Erro de Linearidade é o desvio máximo entre a curva real de resposta do sistema e a
equação de transferência (reta teórica).

Repetibilidade (precision) é a concordância entre as curvas representativas da resposta


do sistema. É obtida através de uma série de medições consecutivas dos mesmos valores da
grandeza medida, sob condições idênticas; variando-se toda a extensão da faixa de medição, no
mesmo sentido de variação.

Permanência é a capacidade de retenção do valor medido por um longo período de


tempo.

Histerese é a diferença máxima entre os valores medidos de uma mesma grandeza,


quando se percorre a escala do instrumento nos sentidos ascendente e descendente. A histerese
pode ser resultado de atrito mecânico, efeitos magnéticos, deformação elástica ou efeitos
térmicos.

Supressão do zero é o valor inicial da faixa do instrumento que supera o valor zero da
grandeza medida.

CARACTERÍSTICAS DINÂMICAS DOS INSTRUMENTOS

Fidelidade é a precisão dinâmica do aparelho.

Constante de tempo de qualquer sensor é definido como o tempo necessário para que o
sensor atinja a 63,2% de seu sinal de saída total (diferença entre o valor inicial e o regime
permanente), quando submetido a uma variação instantânea da grandeza medida (variação
degrau). A variação degrau pode ser tanto um aumento ou diminuição da grandeza medida.
Cinco constantes de tempo são necessárias para que o sensor atinja 99% de sua variação total.

CORREÇÃO DOS INSTRUMENTOS

Calibração é a determinação da correlação entre o valor real da grandeza medida e o


valor indicado pelo instrumento de medida. A calibração pode ser feita de modo direto ou indireto.

Ajustagem é a regulagem do sistema de medição com o objetivo de fazer coincidir, da


melhor forma possível, o valor medido com o valor real da grandeza medida.

Aferição é o ensaio e a certificação de instrumentos de medida segundo normas e


exigências legais, por uma entidade credenciada para a tarefa. Através da aferição é determinado
se o instrumento tem suas características dentro dos limites tolerados pelas normas. Através de
um certificado o instrumento é qualificado para uso, admitindo-se que assim permanecerá sob
condições normais de uso, por um período determinado.

ANÁLISE DE INCERTEZA

Exceto em casos triviais, não se conhece a princípio o valor exato de uma medição.
Assim, uma medição é um valor numérico aproximado de uma grandeza física, obtido por
comparação com uma escala adotada. A convenção de algarismos significativos não é
satisfatória para a representação dos erros de medição, uma vês que o erro na medição pode ser
maior ou menor que a significância do último dígito.

O resultado de uma medição deve ser representado da forma:

x ± u(x)

onde "x" representa a medição, e "u(x)" a incerteza da medição. É recomendável manter a


expressão numérica entre parênteses.

A incerteza é um número que excede o valor do erro na maioria das vezes. Assim, "u(x)" é
a magnitude do erro no ponto de vista estatístico:

u(x) = k σ

onde "k" é uma constante e "σ" o desvio padrão do erro. Normalmente utiliza-se k = 2, o que torna
a consistência da incerteza igual a 95% no intervalo de confidência.

Esta expressão de incerteza é mais flexível que a convenção de algarismos significativos


porque não se restringe a ±5 no último significativo.

Podem ser desenvolvidas regras de manipulação dos valores de incerteza a partir da


fórmula de propagação de variância. Para sua correta aplicação a incerteza deve ser uma
variável aleatória independente. Isto é normalmente verdade nas medições, onde nenhuma forma
de distribuição de probabilidade é imposta.

Aplicando a somas e diferenças a fórmula é:

u( x1 + _ x 2 + _ ...+ _ x n ) = {[u( x1 ) ] 2 + [u( x 2 ) ] 2 + ...+ [u( x n ) ] 2 }1/2

Assim, a incerteza na soma ou diferença de medidas é a soma dos quadrados das


incertezas de cada medida.

Para produtos e divisões a regra é: seja

y = x1* ÷ x 2 * ÷...* ÷ x n

Assim;
1/2
  u( x1 )  2  u( x 2 )  2  u( x n )  
2

u(y) = y    +  + ...+  
  x1   x 2   x n  

A incerteza relativa em um produto ou divisão é a raiz quadrada da soma das incertezas


RELATIVAS de cada medição.

A regra geral para as incertezas, em uma função geral f(x1,


x2,...,xn), onde x são as incertezas é dada por
1/2
 n  ∂f 
2

u(f) = ∑  u( xi )  
 i=1  ∂ xi  

A utilização da fórmula da propagação da variância no cálculo da propagação da incerteza


não é sempre correta, pois depende da linearização da função envolvida. Assim, a fórmula de
soma e diferenças de incertezas é exata, mas a do o produto ou divisão de qualquer função não
linear é aproximada. A aproximação é satisfatória se o erro relativo de x não for muito grande
(u(x) < 20% u).

Exemplos:

(42,63±0,21)-(1,0±0,05)+(14,0±0,3)
= 42,63-1,0+14,0 ± (0,212 + 0,052 + 0,32)1/2
= (55,63 ± 0,37)

2 π (10,623±0,500)÷ 129±15

  0,500 2  15 2  
1/2
2(3,141593)(10,623) 
1 + _   +  
129   10,623   129   
 
= (0,5174 ± 0,0649)

É necessário realizar uma análise preliminar das incertezas experimentais para efetuar a
seleção de instrumentos apropriados a fim de atingir aos objetivos do experimento. Estimar a
incerteza ajuda no planejamento do experimento, e evitando experimentos desnecessários.

BIBLIOGRAFIA

[1] REILLY P.M. A statistical Look at Significant Figures. Chemical Engineering Education,
summer 1992, p.152-155.

[2] METH I.M. ROSENTHAL L. An Experimental Approach to Teaching of The Theory of


Measurement Erros. IEEE Trans. Education, v.E9, n.3, p.142-148, Setembro 1966.

[3] KINIBROUGH D.P. MEGLEN R.R. A Simple Laboratory Experiment Using Popcorn to Illustrate
Measurement Erros. Journal of Chemical Education, v.71, n.6. p.519-520, Julho 1994.

[4] LEIBOVICI C.F. VERNEUIL V.S. YANG P. Improve Prediction With Data Reconciliation.
Hydrocarbon Processing, v.72, n.10, p.79-84, Outubro 1993.

[5] NORDSTROM B. Measuring Scales. Changing Celsius to Kelvin Is Not Just a Unit Conversion.
Journal of Chemical Education, v.70, n.10, p.827, Outubro 1993.

S-ar putea să vă placă și