5 min leitura
0

Como lidar com os erros e a incerteza presente nas medições?

5 min leitura

ENTENDA QUE MEDIÇÕES SÃO IMPERFEITAS

Uma medição perfeita, isto é, sem erros, só pode existir se um sistema de medição perfeito existir e a grandeza sob medição, denominada mensurando, tiver um valor único, perfeitamente definido e estável. Apenas neste caso hipotético ideal, o resultado de uma medição pode ser expresso por um número e uma unidade de medição apenas. Porém, no mundo real, sabe-se que não existem sistemas de medição perfeitos e utópicos.

Aspectos tecnológicos forçam que qualquer sistema de medição construído resulte imperfeito: suas dimensões, forma geométrica, material, propriedades elétricas, ópticas, pneumáticas, etc., não correspondem exatamente à ideal e plenamente fixada.

As leis e princípios físicos que regem o funcionamento de alguns sistemas de medição, como se vê, nem sempre são perfeitamente lineares como uma análise simplista poderia supor.

Por isso, ao realizar medições, é importante ter em mente que estas não são completamente precisas, pois estão associadas a incertezas. Por isso, para analisar os dados de medição, precisamos entender a natureza dos erros associados às medidas.

ERROS DE MEDIÇÃO

Por ser um conceito idealizado, os erros de medição não podem ser conhecidos exatamente. Por esta razão, o que se faz é estimar o erro de medição através da diferença entre o valor medido de uma grandeza e um valor de referência convencionado.

Os erros podem ser aleatórios ou sistemáticos conforme quadro a seguir:

ERRO ALEATÓRIO ERRO SISTEMÁTICO
  1. Ocorre ao acaso, inesperadamente;
  2. É imprevisível e variável, tanto para valores acima do valor médio, quanto para abaixo;
  3. Presumivelmente este tipo de erro se origina de variações temporais ou espaciais, estocásticas ou imprevisíveis, de grandezas de influência. Assim, os efeitos de tais variações são a causa de variações em observações repetidas do mensurando;
  4. Geralmente o erro aleatório pode ser modelado como tendo distribuição aproximadamente normal com média zero;
  5. Na prática, sua média tende a zero à medida que se aumenta o número de dados observados, uma vez que este tende a distribuir-se simetricamente em valores positivos e negativos;
  6. Embora não seja possível compensar o erro aleatório de um resultado de medição, ele pode geralmente ser reduzido aumentando-se o número de observações;
  7. Seu valor esperado é zero.
  1. Pode ser uma ocorrência conhecida e esperada;
  2. O erro sistemático, em medições repetidas, permanece constante ou varia de maneira previsível.
  3. Esses tipos de erros são controláveis tanto em magnitude quanto em direção;
  4. Podem ser avaliados e minimizados se forem feitos esforços para indentificá-los, analisá-los e controlá-los;
  5. O erro sistemático, assim como o erro aleatório, não pode ser eliminado por completo, porém, frequentemente, pode ser reduzido;
  6. Se um erro sistemático se origina de um efeito reconhecido de uma grandeza de influência em um resultado de medição, o efeito pode ser quantificado;
  7. Se o erro for significativo com relação à exatidão requerida da medição, uma correção ou fator de correção pode ser aplicado para compensar o efeito.

 

Estes erros podem derivar de uma série de fatores como perícia e competência do operador, das características do instrumento de medição, das condições ambientais onde a medição é realizada, do método de medição em si ou por outras causas e motivos.

Se o erro de medição fosse perfeitamente conhecido, ele poderia ser corrigido e sua influência completamente anulada da medição.

Contudo, a componente sistemática do erro de medição pode ser suficientemente bem estimada, porém não a componente aleatória. Consequentemente, não é possível compensar totalmente o erro.

O conhecimento aproximado do erro sistemático e a caracterização da parcela aleatória é sempre desejável, pois isto torna possível sua correção parcial e a delimitação da faixa de incerteza ainda presente no resultado de uma medição.

Os erros sistemáticos e aleatórios são muitas vezes influenciados por fontes de erros que estão ligadas basicamente ao operador e ao método, cujos principais tipos de erros são:

  1. Grosseiro: Causados por falta de atenção do operador, por exemplo, anotando um número errado ou trocando uma vírgula de posição. Pode ser causado também pelo mau funcionamento do instrumento, como um dígito falhando ou um ponteiro enroscando. Em medidas elétricas ou de temperatura, uma simples inversão de polaridade já causa esse tipo de erro;
  2. Acidental: Pode ocorrer, por exemplo, durante a medição do consumo de energia elétrica de um aparelho quando há uma queda na tensão de alimentação sem que seja percebida pelo operador, afetando o resultado final. Durante a pesagem de um produto, alguém bate na bancada e trepida a balança. Quando numa titulação, o operador se atrapalha para fechar a bureta;
  3. De inserção: Quando a introdução do instrumento de medição interfere na medida, por exemplo: quando introduzimos um termômetro de vidro em um recipiente com um líquido e a temperatura do termômetro poderá interferir na temperatura do líquido. Isso pode ocorrer também em medições elétricas, ou até mesmo quando medimos alguma peça com um paquímetro ou micrômetro e causamos deformação na peça;
  4. Paralaxe: Esse erro ocorre em instrumentos analógicos, devido ao ângulo de visão do operador em relação à escala do instrumento;
  5. De zeragen: Alguns instrumentos de medição apresentam ajustes de zero. Caso essa zeragem não esteja correta acarretará um erro de medição.

INCERTEZA DE MEDIÇÃO

A palavra “incerteza” significa dúvida, e assim, no sentido mais amplo, “incerteza de medição” significa dúvida acerca da validade do resultado de uma medição. É o valor “X” que pode variar para cima ou para baixo, portanto, ± X.

Devido à falta de palavras diferentes para esse conceito geral de incerteza e para as grandezas específicas que proporcionam medidas quantitativas do conceito, como, por exemplo, o desvio-padrão, é necessário utilizar a palavra “incerteza” nestas duas acepções diferentes.

A incerteza de medição inclui componentes provenientes de efeitos sistemáticos, tais como componentes associadas a correções e a valores atribuídos a padrões, assim como a incerteza definicional.

A incerteza de medição geralmente engloba muitas componentes. Alguns podem ser estimados por uma avaliação do tipo A da incerteza de medição que são obtidos a partir da distribuição estatística dos valores provenientes de séries de medições e podem ser caracterizados por desvios-padrão.

As outras componentes podem ser estimadas por uma avaliação do tipo B da incerteza de medição, que podem também ser caracterizadas por desvios-padrão estimados a partir de funções de densidade de probabilidade baseadas na experiência ou em outras informações.

Geralmente para um dado conjunto de informações, subentende-se que a incerteza de medição está associada a um determinado valor atribuído ao mensurando, portanto, uma modificação deste valor resulta numa modificação da incerteza associada.

APLICAÇÃO PRÁTICA NA SEGURANÇA DOS ALIMENTOS

Suponha que num processo de esterilização você precise de uma temperatura de 130°C para atingir o F0 que permita alcançar a redução de uma determinada carga microbiana a níveis aceitáveis. Porém, há uma incerteza de medição de ± 1°C, assim quando você mede, pode ser que seja 130°C, mas também pode ser 129°C ou 131°C. Você não sabe, há uma incerteza!

O 130°C seria ótimo, o 131°C não seria um problema, mas o 129°C seria insuficiente para a redução logarítmica da carga microbiológica necessária que garantiria a segurança ao produto, ou seja, insuficiente para atingir a letalidade de um microrganismos de referência, tema tratado no artigo “Considerações sobre o efeito térmico na segurança dos alimentos“.

Por isso, se a temperatura mínima necessária é 130°C e há uma incerteza de medição de ± 1°C, indica-se trabalhar com no mínimo 131°C, com isso, na pior hipótese, a temperatura estará nos desejáveis 130°C.

Por isso, quando possível, devido a limitações ocasionadas pela temperatura poderem afetar os produtos em suas características organolépticas, acrescenta-se mais alguns graus como margem, trabalhando-se com limites de segurança e não apenas com os críticos.

Se houver erros de medição conhecidos, fatores de compensação podem também ser acrescidos.

Com isso, garantiríamos a letalidade térmica necessária compensando a dúvida gerada pela incerteza de medição e pelo erro.

Leia também:

  1. 6 Passos Críticos para um Programa de Calibração na indústria de alimentos.
  2. 5 Cuidados com instrumentos de medição
  3. Qual a diferença entre calibrar, verificar e ajustar?
  4. Critérios para escolha de instrumentos de medição

Se você gostou deste artigo, deixe seu comentário e compartilhe com os amigos!

5 min leituraENTENDA QUE MEDIÇÕES SÃO IMPERFEITAS Uma medição perfeita, isto é, sem erros, só pode existir se um sistema de medição perfeito existir e a grandeza sob medição, denominada mensurando, tiver […]

4 min leitura
4

Critérios para escolha de instrumentos de medição

4 min leitura

Num processo industrial de produção de alimentos e bebidas, muitas vezes é necessário medir e monitorar para, com base nos resultados obtidos, tomar ações a fim de manter os processos sob controle, seja para garantir características organolépticas como controlar as zonas de um forno de biscoitos objetivando obter uma determinada umidade e crocância ou para controlar um PCC como numa esterilização de água de coco num processo hot fill.  Para isso, recorre-se ao uso de instrumentos de medição como termômetros, potenciômetros, medidores de vazão, barômetros, balanças e muitos outros.

Numa medição, portanto, o instrumento utilizado é uma das partes mais importantes, junto com a competência de quem executa a tarefa.

Por isso, a seleção de instrumentos de medição deve ser realizada adequadamente, pois caso seja realizada de forma imprópria, os resultados de medições obtidos podem fornecer uma informação errada, levando a tomada de decisões incorretas, e com isso, gerando produtos não conformes e até mesmo inseguros.

A escolha de um instrumento de medição tem que levar em consideração: 1) resolução, 2) a faixa de medição, 3) a precisão e 4) a exatidão necessárias para atender ao processo.

E é claro, não se deve esquecer os 5 cuidados com instrumentos de medição para garantir que estarão plenamente aptos no momento do uso.

1 – RESOLUÇÃO

A resolução é o valor de uma divisão de um instrumento de medição, portanto, é a menor indicação que pode ser observada no instrumento. Por exemplo: se em em um termômetro, a indicação do valor medido é realizada de 1°C em 1°C, a resolução do termômetro é de 1°C.

Para que a variabilidade de um processo possa ser observada é necessário que a resolução do instrumento de medição seja adequada.

Por isso, se tentarmos utilizar o termômetro citado anteriormente para medir um processo de 50 +/- 1°C, poderíamos ter um sério problema de confiabilidade no resultado e um alto grau de risco de obter medições erradas, pois este termômetro apenas mediria 49°C, 50°C e 51°C, não percebendo as variações de +/- 1°C.

Essa seria uma informação pouco útil e que não nos permite medir a variação requerida no processo.

Por outro lado, com um termômetro com resolução de 0,1°C poderíamos medir muitos pontos a mais: 49,1°C, 49,2°C, 49,3°C, 49,4°C,49,5°C, 49,6°C, 49,7°C, 49,8°C, 49,9°C, 50,0°C, 50,1°C, 50,2°C, 50,3°C, 50,4°C, 50,5°C, 50,6°C, 50,7°C, 50,8°C, 50,9°C, 51,0°C, ou seja, mais de 20 resultados possíveis e uma informação útil para conhecermos a variação do processo.

É recomendável, por isso, que a resolução do instrumento de medição seja de 1/ 10 da tolerância do processo. Assim, para o exemplo utilizado, temos uma tolerância do processo de +/- 1°C e a resolução recomendada seria de 1/10 = 0,1°C.

2 – FAIXA DE MEDIÇÃO

A faixa de medição é aquela que um instrumento é capaz de medir com um nível de precisão informado pelo fabricante, correspondente ao intervalo entre a carga máxima e mínima.

A carga máxima (Max) é a capacidade máxima de pesagem de uma balança, enquanto a carga mínima (Mín) é o valor da carga abaixo do qual os resultados das pesagens podem estar sujeitos a um erro relativo excessivo, acima de 5% da carga.

A seleção do instrumento de medição com a faixa de medição adequada é essencial para medirmos com um nível de erro e precisão adequados.

Para exemplificar, vamos supor que na formulação de um produto seja necessário adicionar 10 g de um determinado conservante e que se utilize uma balança com indicação de 3 kg, porém cujo fabricante informe que a faixa de medição vai de 0,02 a 3 kg, conforme descrito na etiqueta/ tag da placa de identificação do equipamento a seguir.

Temos, então, que o fabricante da balança garante uma precisão dentro da faixa de 20 g até 3kg. Contudo, abaixo da faixa de 20g o erro relativo pode ser considerado significativo, assim não seria apropriada para medir 10g.

É recomendável que o valor a ser medido esteja entre 10% a 90% da faixa de medição do instrumento, por isso, para medir os 10g, deve-se buscar uma balança cuja faixa de medição seja, então, de 0,2 a 200 g.

3 – PRECISÃO

Precisão de medição é o grau de concordância entre indicações ou valores medidos, obtidos por medições repetidas, no mesmo objeto ou em objetos similares, sob condições especificadas.

A precisão de medição é geralmente expressa numericamente por características como o desvio-padrão, a variância ou o coeficiente de variação, sob condições especificadas de medição.

As “condições especificadas” podem ser, por exemplo, condições de repetibilidade, de precisão intermediária ou de reprodutibilidade.

A precisão de medição é utilizada para definir a repetibilidade de medição, a precisão intermediária de medição e a reprodutibilidade de medição.

4 – EXATIDÃO

Já a exatidão de medição é o grau de concordância entre um valor medido e um valor verdadeiro de um mensurando.

A exatidão de medição não é uma grandeza e não lhe é atribuído um valor numérico, então uma medição é dita mais exata quando fornece um erro de medição menor.

A figura a seguir exemplifica a diferença entre exatidão e precisão, na qual várias medidas são feitas e os resultados plotados. Considerando que o centro do alvo seja o valor convencional de certa grandeza e que os pontos pretos sejam as medições realizadas, quanto mais próximo do centro do alvo, mais exata é a medição.

Pode-se observar que a precisão não é uma medida única, mas está associada a um processo ou conjunto de medidas.

Normalmente, em qualquer conjunto de medições realizadas pelo mesmo instrumento no mesmo componente, as medições individuais são distribuídas em torno do valor médio e a precisão é a concordância desses valores entre si.

CONSIDERAÇÕES FINAIS

  1. Quando for escolher instrumentos de medição, segundo as necessidades de cada processo, levando em consideração os riscos, considere uma análise crítica para avaliar se o instrumento atende plenamente as necessidades, considerando de forma balanceada a resolução, a faixa de medição necessária, assim como a precisão e a exatidão do instrumento;
  2. Lembre-se de que esta análise leva em consideração um determinado instrumento de medição para um determinado monitoramento de processo, portanto, se o equipamento por algum motivo estiver inviável e for ser utilizado um outro, esta análise crítica precisa ser refeita, para avaliar se o novo instrumento também atende plenamente às necessidades do processo.

Não deixe de ler também:

  1. Requisitos e exigências da etiqueta de calibração na indústria de alimentos.
  2. Qual a diferença entre calibrar, verificar e ajustar?

Gostou deste artigo? Deixe seu comentário e envie para os amigos!

4 min leituraNum processo industrial de produção de alimentos e bebidas, muitas vezes é necessário medir e monitorar para, com base nos resultados obtidos, tomar ações a fim de manter os processos […]

2 min leitura
0

Identificando requisitos metrológicos do cliente

2 min leitura

No post anterior falamos da importância de um sistema de gestão das medições, a fim de assegurar que medições relevantes sejam realizadas, e de maneira consistentes com os requisitos de monitoramento e medição. Este artigo trata, brevemente, da determinação desses requisitos metrológicos do cliente, a partir dos quais as características metrológicas dos equipamentos de medição e os critérios de aceitação de calibrações e dos resultados de medição são melhor estabelecidos.

Os requisitos metrológicos dos clientes são aqueles relacionados com a conformidade do produto, além dos estabelecidos como parâmetros de processo e de suas entradas, os quais devem, a rigor, ser informados pelo cliente, que comunica a especificação das variáveis a serem medidas. Por exemplo, cabe ao cliente de um laboratório de análise de alimentos informar a faixa de valores aceitável para o parâmetro a ser quantificado pelo ensaio no produto acabado, da mesma forma que cabe a um cliente interno definir e comunicar os parâmetros de processo e requisitos de verificação de materiais recebidos.

Porém, a determinação de requisitos metrológicos requer conhecimento do processo e de metrologia e não raro é feito por pessoas qualificadas, que desempenham essa atividade em nome do cliente. Independentemente de quem realiza a especificação dos requisitos metrológicos do cliente, o mais importante é que eles sejam suficientemente claros para que a capacidade de medição de um instrumento particular seja determinada. Pois, reiteramos, o requisito metrológico do cliente é a base para a comprovação metrológica.

Apliquemos o que foi dito a um cliente que pasteuriza leite. O requisito metrológico para o produto final, no que se refere à acidez é 0,14-0,18 g/100mL. Diretamente relacionada a esse parâmetro está a temperatura de recebimento do leite cru refrigerado e de resfriamento e estocagem do leite cru refrigerado. Então temos um requisito metrológico de entrada do processo, que é no máximo 10oC, e do processo de resfriamento, que é menor ou igual a 5oC. Nestes dois últimos casos, em que temos um limite legal apenas para temperatura máxima, considerações econômicas e tecnológicas devem subsidiar a determinação de um limite inferior, digamos que 7oC e 3oC, respectivamente, resultando numa faixa de temperatura para recebimento de 7oC a 10oC e de resfriamento de 3oC a 5oC. Esta faixas devem ser interpretadas e expressas como requisitos metrológicos do cliente.

Com essas informações em mãos é possível definir as características metrológicas dos equipamentos de medição (balança, acidímetro, termômetros, etc) de forma a que tenham capacidade de produzir resultados de medição que sejam confiáveis. O procedimento para isso é o tema do próximo artigo da série.

2 min leituraNo post anterior falamos da importância de um sistema de gestão das medições, a fim de assegurar que medições relevantes sejam realizadas, e de maneira consistentes com os requisitos de […]

2 min leitura
0

Precisamos de um sistema de gestão das medições?

2 min leitura

A comprovação metrológica é fundamental para sistemas de gestão da qualidade e segurança dos alimentos. O que não é medido não é gerenciado, e isto é especialmente verdadeiro quando se trata de requisitos do cliente e medidas de controle de perigos em alimentos. Mesmo que o monitoramento de um dado ponto crítico se dê por observações subjetivas, um tratamento adequado dos resultados deve permitir uma avaliação quantitativa. Em todo caso, as decisões devem se basear em fatos e dados. Mas, e se os dados obtidos não forem confiáveis? A NBR ISO 9001:2008 preconiza que “a organização deve estabelecer processos para assegurar que o monitoramento e a medição possam ser realizados e sejam executados de uma maneira consistente com os requisitos de monitoramento e medição”.

Portanto, um sistema de gestão das medições deve apoiar os sistemas de gestão da qualidade e segurança dos alimentos. O objetivo é assegurar que os equipamentos de medição são adequados e os processos de medição capazes de alcançar os objetivos especificados para a qualidade e segurança do produto, bem como gerenciar os riscos da medição incorreta. Isso passa pela adoção de métodos adequados, que vão da verificação básica de equipamentos de medição ao uso de técnicas estatísticas, conforme a natureza dos produtos fornecidos.

O processo de comprovação metrológica inclui atividades de calibração, verificação metrológica e ações decorrentes. Tem duas entradas, os requisitos metrológicos dos clientes e as características metrológicas dos equipamentos e uma saída, a situação metrológica do equipamento de medição. Numa visão geral e simplificada, os passos a serem seguidos são:

1. Identificar os requisitos metrológicos do cliente (RMC) das medições;
2. Definir as características metrológicas do equipamento de medição (CMEM);
3. Realizar a verificação metrológica do equipamento de medição;
4. Tomar decisões e adotar ações apropriadas aos resultados da verificação metrológica;
5. Indicar a situação metrológica do equipamento de medição.

No próximo post traremos algumas dicas práticas de como realizar essas atividades. Mas desde agora suas críticas, dúvidas e sugestões serão bem vindas e ajudarão construir um conteúdo que venha de encontro às necessidades dos leitores.

2 min leituraA comprovação metrológica é fundamental para sistemas de gestão da qualidade e segurança dos alimentos. O que não é medido não é gerenciado, e isto é especialmente verdadeiro quando se […]

2 min leitura
11

Um método simples de definir critérios metrológicos

2 min leitura

O ocorrido em uma das últimas auditorias na qual participei veio confirmar o que escrevi no artigo Calibrado, mas nem tanto. E exemplifica como um detalhe que passa despercebido pode afetar os resultados de uma medição e, consequentemente, a tomada de decisão do tipo que pode liberar um lote potencialmente inseguro ou reprovar um lote que apresenta-se conforme.

Durante a visita, constatei que vários termômetros traziam um ajuste na forma de uma etiqueta, indicando que o resultado lido deveria ser adicionado ou subtraído de um valor, que girava em torno de 0,4oC. Alto, considerando-se que uma das medições feitas tinha uma tolerância de processo de 1,0oC. Pedi para olhar o histórico de verificação dos termômetros e constatei que para um mesmo instrumento, ora a verificação requeria ajuste para mais, ora para menos. Minha desconfiança se confirmou quando me foi apresentado o certificado de calibração do termômetro de referência, com uma incerteza de 0,7oC. Ou seja, a falta de análise crítica do certificado levou a adotar como referencial um termômetro com péssimo desempenho.

Como evitar situações como essa? Definindo critérios de aceitação para seleção e calibração de instrumentos de medição, tomando como parâmetro a tolerância do processo. Segue alguns passos simples para isso, sendo que o valores adotados como critérios são meras sugestões, mas que não fogem muito do recomendável. Considere que a escolha dos valores dependerá do nível de precisão desejada, contra-balanceada com o investimento possível.

1. Seja T, a tolerância de processo, R a resolução do instrumento de medição e U a incerteza do mesmo. Por exemplo, se um método analítico orienta incubar a placa a uma temperatura de 34 a 36oC, a tolerância é T=1oC.

2. Um instrumento é adequado para monitorar esse processo se apresentar resolução R<T/3. No exemplo acima, o termômetro deve apresentar resolução menor que 0,33oC.

3. Quando calibrado, o certificado de calibração deve apresentar uma incerteza U<T/6. No nosso caso, U<0,16oC.

Existem outras maneiras de estabelecer critérios para seleção e aprovação da calibração de instrumentos de medição. Mas fica aí uma sugestão relativamente simples e eficaz para assegurar medições mais confiáveis.

2 min leituraO ocorrido em uma das últimas auditorias na qual participei veio confirmar o que escrevi no artigo Calibrado, mas nem tanto. E exemplifica como um detalhe que passa despercebido pode […]

Compartilhar
Pular para a barra de ferramentas