Sunteți pe pagina 1din 8

c 


  


 


[Marcela Curcio, Ronia Oisiovici, Roberto Accorsi e Mauro Pereira]


A tomada de decisões pode ser definida como a conversão de informações em ações, ou seja, as decisões são escolhas tomadas co m base em propósitos, e
caracterizam-se por ações orientadas para um determinado objetivo. [1]. Basicamente, seis elementos configuram uma escolha [2]: (a) o tomador da decisão ±
pessoa que faz a seleção entre as diversas alternativas de atuação; (b) os objetivos da decisão ± propósitos ou finalidade que se almeja alcançar com a ação
de decisão; (c) as preferências do tomador da decis ão ± critérios baseados no juízo de valor do tomador da decisão; (d) a estratégia ± diretriz sugerida para
melhor atingir os objetivos com base nos recursos disponíveis; (e) a situação ± aspectos ambientais que podem inadvertidamente influenciar a decisão e (f) o
resultado ± consequência da estratégia definida
pelo decisor.

O processo de decisão é uma constante na rotina de laboratórios de ensaios químicos: a escolha pela seleção de um determinado método em relação a outro,
a avaliação de performance de metodologias e a adequação de frequências de verificações intermediárias de sistemas de medição são alguns dos exemplos
de processos quantitativos que exigem deliberações por parte da equipe técnica. Existem, ainda, casos semi-quantitativos ou qualitativos nos quais uma
resolução é exigida: a consistência de analistas e os resultados de pesquisas de satisfação de clientes são exemplos destas situações.

Característica marcante no processo de decisão, o fator humano tende a interferir diretamente na resolução final, sobretudo quando a inferência está
relacionada a processos semi-quantitativos e/ou qualitativos.

Nesse contexto, a estatística oferece a possibilidade de atenuação da interferência que o fator humano pode causar em uma definição. Elementos como
³tomador da decisão´, ³preferências´ e ³situação´ são anulados perante a estratégia de inferência com base em dados e fatos apontad os por avaliações
estatísticas, resumindo o processo de tomada de decisão nos elementos assertivos ³objetivos da decisão´, ³estraté gia´ e ³resultado´.

Os exemplos que seguem ilustram aplicações de ferramentas estatísticas na tomada de decisões em processos recorrentes no Depa rtamento Controle
Analítico de Paulínia (DCA) da Rhodia Poliamida e Especialidades.
As aplicações estatísticas descritas pelo presente trabalho fundamentam-se em:

(1) estatística descritiva, que consiste de estatística básica (medidas de localização central, medidas de dispersão, avaliação de simetrias e distorções de
dados) e técnicas gráficas (histogramas, boxplo ts e normal probability plots) que são empregadas para sumarizar o conjunto de dados e (2) estatística
inferencial, que baseada na estatística probabilística permite inferir sobre parâmetros de uma população baseando-se em amostras de dados (testes de
hipóteses).

Idealmente, análises estatísticas devem ser baseadas em espaços amostrais com o maior número de dados possível [3]. Tal premissa deriva do teorema do
limite central, que estabelece que quanto maior o tamanho da amostra, menor é o erro padrão associado à média, ou seja, maior a probabilidade de que o
espaço amostral seja representativo da população.

A equação 1 descreve a relação entre o desvio padrão da amostra (s) e o desvio padrão esperado para a população em função do número de observações
da amostra (n). A figura 1, por sua vez, ilustra a redução do erro padrão da média com o aumento de n para uma amostra hipotética com desvio padrão igual a
1. O valor de s tende a zero quando n tende ao infinito.

O fato é que, em condições reais, a obtenção de um número grande de valores para a constituição de uma amostra nem sempre é possível e/ou viável. Sendo
assim, para o desenvolvimento das avaliações apresentadas pelo presente trabalho, adotam-se conjuntos de dados com tamanho mínimo igual a sete [4],
manipuladas com o auxílio de softwares comerciais de prateleira (Excel® e Minitab®).

Testes de hipótese são singularmente úteis para a tomada de decisões nas quais comparações de performance estão envolvidas. M etodologias adaptadas
e/ou desenvolvidas podem ter sua performance comparada à de metodologias de referência e por meio da demonstração de equivalência estatística entre as
mesmas, serem consideradas validadas [4]. Métodos diferentes em um mesmo laboratório, métodos iguais em laboratórios diferentes ou métodos diferentes
em laboratórios diferentes podem ser comparados a fim de concluir sobre a equivalência de performance entre os mesmos. Analis tas em treinamento podem
ter seu desempenho analítico comparado ao de analistas seniores, e por meio da demonstração da equivalência estatística entre os mesmos, serem
considerados qualificados. Estes são alguns exemplos das possibilidades de aplicação para os testes de equivalência estatística.
Em todos os casos, a coleta de dados ocorre por meio de medições em condições de repetibilidade ± ou seja, medições sucessivas de um mesmo
mensurando, efetuadas sob as mesmas condições de medição [4,5]. Em posse dos conjuntos de dados, testes de equivalência de variâncias (teste F) e
médias (teste t) são aplicados.

A equação 2 expressa a fórmula de cálculo para o valor de F calculado, representativo do conjunto de dados. Nela, s12 e s12 são as variâncias de cada
amostra, sendo s12 a maior variância dentre os conjuntos de dados. A variância é calculada conforme a equação 3, sendo n o número de dados, xi o valor
determinado e o valor médio, determinado através da equação 4.

O valor de Fcalculado é então comparado ao valor de Ftabelado, dado em função de (n-1) graus de liberdade a um nível de confiança de 95%.

Se Fcalculado < Ftabelado, as variâncias entre os conjuntos de dados são consideradas equivalentes, e o teste t aplicável é aquele descrito pela equação 5. O
tcalculado é então comparado ao ttabelado a (n1+n2-2) graus de liberdade com 95% de confiança, e se tcalculado < ttabelado, as médias podem ser
consideradas iguais, comprovando a equivalência entre as situações em teste.

sendo s2 neste caso igual a

Se Fcalculado > Ftabelado, as variâncias entre os conjuntos de dados não são consideradas equivalentes, e o teste t aplicável é aquele descrito pela equação
7. O tcalculado é então comparado ao ttabelado a n graus de liberdade com 95% de confiança. A equação 8 define a fórmula de cálculo de n. Se tcalculado <
ttabelado, as médias podem ser consideradas iguais, comprovando a equivalência entre as situações em teste.
Estas mesmas avaliações podem ser conduzidas de maneira simplificada com o auxílio do software Minitab® a partir dos testes ³two-variances´ e do ³two
sample-t test´. Em ambos os casos, a inferência a respeito da existência de equivalências é fundamentada em probabilidades expressas numericamente por
meio de ³p-values´: quando p-value > 0,05 é possível inferir que a equivalência se faz presente com 95% de confiança.

Adicionalmente, gráficos ilustrativos dos comportamentos de dispersão e médias dos conjuntos de dados podem ser gerados permitindo a visualização da
lógica que existe por trás da matemática utilizada para a inferência estatística: a presença de intersecções entre os conjuntos de dados.

A figura 2 representa graficamente os testes estatísticos aplicados a conjuntos de dados sem equivalência de variâncias e médias enquanto a figura 3 ilustra
graficamente os testes estatísticos aplicados a conjuntos de dados que apresentam equivalência de variâncias e médias. Classicamente, a precisão de
métodos analíticos se faz presente na validação de metodologias e nas estimativas de incerteza de medição por denotar a dispersão de resultados decorrente
da variabilidade natural de métodos [4,5].

Com o auxílio de softwares estatísticos como o Minitab®, estudos do tipo ³Gage R&R´ podem ser conduzidos com o objetivo de estender o campo de
aplicação da precisão para outros tipos de avaliação: a adequação de métodos e a consistência entre analistas, por exemplo. A primeira abordagem baseia-se
na comparação entre variabilidade do método em relação à variabilidade das amostras nas quais o mesmo é aplicado, enquanto que a segunda abordagem
baseia-se na comparação do perfil de quantificação entre os analistas.

O número de dados que constitui o espaço amostral deve obedecer à condição descrita pela equação 9 [6], que estabelece que um conjunto de b amostras
deve ser analisado em réplicas de número r por t analistas diferentes, ou seja, em condições de repetibilidade e reprodutibilidade.

c 
 

 

Matematicamente, a variação total do processo de medição (sTotal2) deriva da variância observada para as amostras (sPart -to-part2) e a variância natural do
método analítico (sGage R&R2), que pode, por sua vez, ser decomposta em componentes de repetibilidade (sRepeat2) e reprodutibilidade (sReprod2) [7]. A
repetibilidade demonstra o grau de concordância entre os resultados de medições sucessivas de um mesmo mensurando efetuadas s ob as mesmas condições
de medição, enquanto a reprodutibilidade demonstra o grau de concordância entre os resultados das medições de um mesmo mensurando obtidas em
condições variadas de medição [4]. As equações 10 e 11 expressam estas relações. De maneira geral, a repetibilidade faz alusão à variabilidade de
instrumentos de medição e a reprodutibilidade faz alusão à variabilidade relacionada a fatores humanos.

Com base nestes conceitos, a adequação de um método analítico pode ser avaliada com base no percentual de contribuição do mesmo para a variabilidade
total do processo de medição. A tabela 1 define os critérios de classificação utilizados [7].

A figura 4 ilustra a decomposição da variação total de um processo de medição nos componentes relacionados às amostras e ao método, gráfico
automaticamente gerado pelo software Minitab® na aplicação R&R. As barras representam o percentual de contribuição de cada componente para a variação
total do processo. As barras hachuradas, por sua vez, representam a
decomposição da variabilidade do método em componentes de repetibilidade e reprodutibilidade.
Além do gráfico de decomposição dos componentes de variabilidade, o software Minitab® constrói um gráfico que permite comparar o perfil de quantificação
dos t analistas em relação às b amostras utilizadas para a avaliação R&R. Tal ilustração encontra-se representada na figura 5.

Um sistema de medição ideal não apresenta distinção nos perfis de quantificação dos analistas. Na figura 5, por exemplo, é notável a distinção do perfil de
quantificação dos analistas G, D, E e F em relação aos demais. Este tipo de avaliação permite identificar desvios no processo de medição e alertam para a
necessidade de treinamento dos analistas.

As verificações de equipamentos e/ou métodos são realizadas com o objetivo de monitorar a conformidade dos sistemas de medição. Nelas, o valor indicado
pelo sistema de medição é comparado ao valor teórico estabelecido para o padrão de verificação, que pode ser um material de r eferência, um material de
referência certificado ou um reagente grau padrão analítico ou solução preparada a partir do mesmo.

Cartas de controle estatístico permitem a avaliação de resultados de verificações intermediárias de sistemas de medição assegurando que ações preventivas
sejam tomadas em relação ao ajuste de métodos e equipamentos mediante a detecção de
tendências nos resultados. Tal avaliação é feita com base na comparação dos resultados das verificações intermediárias aos li mites de controle e
especificação estatisticamente determinados e às condições de tendência estabelecidas.

Os limites de controle são definidos como sendo a média ( ) mais ou menos três vezes o desvio padrão (s) de um conjunto de dados com no mínimo 10 pontos
determinado em condições de repetibilidade a partir do padrão de verificação. De maneira semelhante, os limites de especificação são definidos como sendo a
média mais ou menos quatro vezes o desvio padrão deste conjunto de dados [3]. As equações 12 e 13 definem as fórmulas de cálculo para os limites de
controle e especificação, respectivamente.

Quando o valor determinado pelo sistema de medição encontra-se entre os limites de controle ± ou seja, no intervalo de ±

entende-se que o sistema apresenta uma variabilidade normal e pode ser considerado conforme, a menos que pe lo menos uma das três condições de
tendência estabelecidas pela tabela 2 seja verificada. Neste caso, entende-se que o sistema de medição tende a apresentar um desvio em breve e deve
preventivamente ser ajustado.
Na ocorrência de um resultado que ultrapass e os limites de controle, mas não os limites de especificação ± ou seja, um resultado no intervalo de
ou ± entendese que o sistema apresenta um desvio aceitável e deve sofrer um

ajuste.

Quando o valor determinado pelo sistema de medição encontra-se acima dos limites de especificação ± ou seja, ou ±
entende-se que o sistema sofreu um desvio inaceitável e seu uso deve ser interrompido.

Os resultados são monitorados em cartas controle pré-progamadas no Excel®, que alertam automaticamente os analistas quando os limites de controle, limites
de especificação ou as condições de tendência acontecem. A figura 7 ilustra a carta controle representativa dos resultados das verificações e os alarmes
quando do atendimento das condições de tendência e/ou limites de controle e /ou especificação.

Frequências de verificações intermediárias podem ser estabelecidas e reavaliadas através do indicador de capacidade do proces so, Cp, matematicamente
definido na equação 14. Nela, USL corresponde ao limite superior de especificação (equação 15), LSL corresponde ao limite inferior de especificação (equação
16), e s ao desvio padrão do processo de medição. Resumidamente, o Cp compara a localização dos dados em relação aos limites de especificação. Um
processo de verificação ideal apresenta uma média equivalente ao valor médio entre USL e LSL e um desvio padrão tal que seis vezes o mesmo implique em
uma amplitude menor que a diferença entre USL e LSL.
A Figura 8 ilustra um processo com capacidade de medição ideal. Os critérios para classificação da capacidade de processos encontram -se definidos na
Tabela 3.

Com base nos critérios definidos pela Tabela 3, é possível decidir se a frequência de verificação está inadequada (processo incapaz) ou se a frequência de
verificação está adequada (processo capaz). Uma vez verificado que o sistema de medição apresenta capacidade adequada, a freq uência de verificação pode
então ser diminuída. O contrário também é válido: quando o sistema de medição apresenta capacidade inadequada, a frequência de verificação deve ser
aumentada.

Especial destaque tem a estatística na avaliação dos resultados da Pesquisa de Satisfação de Clientes nos moldes em que foi concebida pelo Departamento
Controle Analítico da Rhodia Poliamida e Especialidades (DCA) com o objetivo de atender ao requisito da norma ABNT NBR ISO/IEC 17025:2005. Nesta
aplicação, a mesma é utilizada na avaliação de dados qualitativos (percepções e expectativas).

Em cada item de avaliação da pesquisa, o cliente manifesta, em números de 1 a 5, qual seria sua expectativa em relação ao mesmo e qual foi o desempenho
do DCA de acordo com os critérios pré-estabelecidos constantes na tabela 4. A média de expectativas dos clientes e a performance média do DCA são
determinadas para cada um dos itens e com base nestes valores são estimados:

(1) o grau de satisfação global dos clientes, calculado através da equação 17, que corresponde ao parâmetro usado para a aval iação de performance do DCA;
(2) o ³gap´ médio do laboratório por variável, correspondente à diferença entre as médias de performance do DCA e expectativa dos cli entes (equação 18) e
(3) o percentual de insatisfação por variável, determinado através da quantificação do número de gaps negativo s ± decorrentes da obtenção de notas de
performance inferiores à expectativa dos clientes, definido pela equação 19.
A combinação destes dois últimos atributos no fator ³GPEI´ ± gap ponderado pela expectativa multiplicado pelo percentual de insatisfação, expresso pela
equação 20 ± permite classificar as variáveis de acordo com o sinal que o valor de GPEI assume e possibilita priorizá-las de acordo com a ordem de grandeza
do |GPEI|.

Neste contexto, as mesmas são classificadas como potenciais não conformidades, oportunidades de melhoria e pontos fortes no atendimento do laboratório de
acordo com os critérios definidos na Tabela 5.

c 


À Rhodia Poliamida e Especialidades Ltda., pela oportunidade de apresentação dos processos de trabalho adotados pelo Departamento Controle Analítico de
Paulínia; e a toda a equipe do DCA, que permite, com sua colaboração constante, que estes
processos sejam aplicados e otimizados no dia a dia.




[1] D.P.R. Oliveira, ³Sistemas de informações gerenciais: estratégias, táticas, operacionais´, 9 ed., Atlas, São Paulo, 2004.
[2] I. Chiavenato, ³Introdução à Teoria da Administração´, 5 ed., Makron Books, São Paulo, 1997.
[3] J.C. Miller, J.N. Miller ± Statistics for analytical chemistry, 1 ed., 1984.
[4] DOQ-CGCRE-008 ± Orientação sobre validação de métodos de ensaios químicos, INMETRO, 2003.
[5] VIM ± Vocabulário Internacional de Termos Fundamentais e Gerais de Metrologia, 1995.
[6] ABNT NBR 14597:2000 ± Precisão de métodos analíticos ± Determinação da repetibilidade e reprodutibilidade de métodos para ensaio de produtos
químicos, 2000.
[7] MSA - Análise dos sistemas de medição, 2 ed., Chrysler Corporation, Ford Motor Company e General Motors Corporation, 1995.
[8] K. Ishikawa - Guide to quality control, 2 ed., 1986.

Marcela Curcio, Ronia Oisiovici, Roberto Accorsi e Mauro Pereira são funcionários da Rhodia Poliamida e Especialidades -
marcela.curcio@br.rhodia.com;ronia.oisiovici@br.rhodia.com ; roberto.accorsi@br.rhodia.com; mauro.pereira@br.rhodia.com

S-ar putea să vă placă și