Mede o que é mensurável e torna
mensurável o que não o é.
Galileu Galilei
6.1 – Termografia
Termografia é a técnica de sensoriamento remoto que possibilita a obtenção de imagens térmicas a partir da medição da radiação infravermelha emitida pelos corpos. Pode ser dividida em Qualitativa, onde as análises são focadas em interpretações visuais e comparações dos campos superficiais de temperatura entre equipamentos semelhantes, ou Quantitativa, na qual os valores de temperatura determinados para cada ponto da superfície do equipamento são utilizados para o seu diagnóstico. A termografia qualitativa encontra seus limites na capacidade do inspetor, pois a detecção de pequenos defeitos será tão boa quanto for a qualidade do seu treinamento, sua experiência e sua paciência (SHEPARD et al., 2007). A termografia quantitativa, por outro lado, requer maior dedicação ao desenvolvimento de modelos causa-e-efeito e no controle das fontes de incerteza que influenciam a medição.
A termografia pode ser aplicada de forma Ativa, quando estimula-se termicamente uma amostra e registra-se a sua resposta, ou de forma Passiva, necessitando que haja diferença natural de temperatura entre a amostra e o ambiente (MALDAGUE, 2000 apud TEIXEIRA, 2012). No campo da manutenção, a termografia passiva é fortemente empregada, aproveitando-se de que equipamentos eletromecânicos tendem a apresentar elevação anormal de temperatura, quando próximos da falha (TEIXEIRA, 2012).
A medição por contato é superada pela radiometria em aplicações ou circunstâncias onde realizar medições sem contato físico com a instalação (um requisito de segurança) e verificar equipamentos em pleno funcionamento (sem interferência na produção) são desejáveis ou até mandatórios (como no caso do SEP). Ao se optar pela termografia é possível, ainda, inspecionar grandes supefícies em pouco tempo (alto rendimento), estendendo as vantagens da radiometria.
Entretanto, a termografia possui suas desvantagens que, uma vez não conhecidas ou corretamente avaliadas, podem levar a erros de diagnóstico e consequente descrédito da técnica. Por ser baseada em medição de radiação, há muitos fatores que vão interferir no sinal capturado pelo instrumento utilizado – o termovisor –, tanto propriedades do próprio material, quanto influências do ambiente circunvizinho (Seção 6.2.2). Além disso, é fundamental que o inspetor seja versado na técnica de inspeção e conheça as características dos materiais que compõem o equipamento e seu funcionamento.
Inspeções Termográficas na CEMIG
A aplicação da termografia, para fins de manutenção na CEMIG, existe desde a década de 80, sendo conhecida, à época, por: o Termovisão (CEMIG, 1985). Os equipamentos eram caros, grandes, pesados e de baixa autonomia; entretanto, entregavam as vantagens prometidas, sendo utilizados como principal ferramenta de predição de manutenção em redes primárias urbanas, anualmente (nas demais redes, vigorava a abordagem corretiva) (CEMIG, 1985).
Com a evolução da tecnologia, os preços de termovisores tiveram redução e a qualidade melhorou, permitindo a difusão dos equipamentos. Atualmente, cada equipe de manutenção regional possui pelo menos uma unidade. Em linhas de transmissão, inspeções anuais são feitas através de um helicóptero, equipado com termovisor e câmera visível, percorrendo todo o percurso ao longo das linhas. Também nas subestações e redes, a termografia se tornou praticamente a única técnica de predição de manutenção em grande parte dos equipamentos, com periodicidade variando de trimestral a semestral.
No Apêndice A encontra-se um relatório de inspeção utilizado atualmente pela concessionária para o registro da termografia em subestações.
Pesquisas em Termografia, realizadas pela Empresa
Começando em 2001, numa primeira fase de projetos de pesquisa e desenvolvimento (P&D) fomentados pela ANEEL, a concessionária levantou o estado da arte dos pára-raios de subestações e provou ser possível obter boa predição da condição de pára-raios com a utilização da termografia. O projeto em questão era conhecido por P&D 021: Novas técnicas de manutenção preditiva em pára-raios.
Para obter mais benefícios com a técnica, era preciso entender como o sinal medido pelo termisor se transformava em um campo de temperaturas, mostrado no software que acompanhava o equipamento. Este foi o propósito do P&D 169, de 2006, intitulado Tecnologia de Processamento de Imagens Termográficas para Aplicação em Ambientes de Subestações de Energia, que teve como produto final um software livre, capaz de processar o sinal e analisar as imagens oriundas do termovisor, com a mesma qualidade que o software do fabricante.
Por volta do mesmo período, mais avanços foram obtidos no sentido de desenvolver um protótipo para a aquisição totalmente automatizada de imagens de pára-raios e realizar o seu diagnóstico, aproveitando os resultados de mais de mil medições em campo, realizadas durante o P&D 021. O sistema foi desenvolvido sob o P&D 170, de 2007, intitulado Protótipo para Monitoramento e Diagnóstico Automático de Falhas em Pára-raios, incluindo os de Carboneto de Silício, utilizando Técnicas de Sistemas de Infravermelho.
Mesmo com todos os avanços, persistia o caráter qualitativo de aplicação da termografia na companhia. Porém, em 2010, inicia-se o P&D 235, intitulado Metodologia para Melhoria da Confiabilidade da Termografia em Sistemas de Distribuição, cujo objetivo consiste na quantificação das incertezas associadas com a medição de temperatura via radiação, contribuindo para que a análise dos resultados passe a ser baseada nos valores absolutos medidos, que podem então ser correlacionados à condição física do dispositivo, dentro de um certo intervalo de confiança. O presente trabalho de pesquisa se originou do P&D 235.
6.2 Temperatura
A temperatura é associada à agitação ou movimento das partículas (átomos ou moléculas) que compõe um corpo ou substância. Seu valor é dado em função da energia interna apresentada pelo corpo ou substância e se altera em função de trocas de calor e trabalho com a vizinhança. Logo, a temperatura de um objeto pode ser determinada pelo resultado de um balanço de energias.
Mecanismos de Troca de Calor
Incropera e DeWitt (2008) definem Fluxo de Calor como energia térmica em trânsito, devido à uma diferença espacial de temperatura. Os três mecanismos básicos para fluxo de calor são Condução, Convecção e Radiação.
Condução é a transferência de energia por difusão através de um material sólido, por consequência da diferença de temperaturas entre regiões deste sólido (ou entre sólidos diferentes que foram colocados em contato físico).
Convecção é a troca de energia característica em fluidos, onde camadas de massa se movimentam devido a diferentes densidades, função da diferença de temperaturas.
Radiação é transferência de energia através de ondas eletromagnéticas, emitidas ou absorvidas por um corpo, sendo que todo material que apresente temperatura absoluta não nula emite radiação térmica.
6.2.1 Temperatura como Resultado de um Balanço de Energia
De acordo com a primeira lei da termodinâmica, o Balanço de Energia, num volume de controle, é dado pela Equação (6.1) (INCROPERA; DeWITT, 2008):
(6.1)
onde:
Ea = energia armazenada no volume,
Ein = fluxo entrante de energia no volume,
Eout = fluxo de energia saindo do volume,
Eg = geração de energia interna ao volume.
No caso de conexões elétricas, estas energias se tornam:
(6.2)
onde:
Ein = 0, pois o fluxo entrante de energia pode ser desprezado frente aos demais,
Edis = fluxo de energia saindo do volume, via dissipação térmica.
O termo de geração é dado pela Lei de Joule (Equação (2.1), p. 8); o termo de dissipação englobará apenas efeitos radiativos e convectivos pois, em função das dimensões reduzidas e da alta condutividade térmica dos conectores (número de Biot < 0,1), pode-se desprezar gradientes internos de temperatura; e o termo de armazenamento será função das propriedades do material em questão, resultando em uma formulação para o balanço de energia, num conector, dada pela Equação (6.3),
(6.3)
onde:
h = o coeficiente de transferência de calor, h = hconv + hrad , em [W/(m2 · K)],
Asup = área da superfície do conector, em [m2],
Ts = temperatura superficial, em [K],
T∞ = temperatura ambiente à uma longa distância do objeto, em [K],
m = massa do conector, em [kg] e,
cp = calor específico do material do conector, em [J/(kg · K)].
O Modelo de Ferreira
Ferreira (2013) estudou como cada parcela da Equação (6.3) influi na determinação da temperatura instantânea do conector, através de simulações matemáticas e correlações com dados experimentais de aquecimento e resfriamento, obtidos em túnel de vento. Seu objetivo foi o de estimar o valor da resistência elétrica R do conector que, submetido a um carregamento i, apresentaria a temperatura Ts numa determinada situação ambiental.
Ciente de que a resistência elétrica de um metal tem relação direta com a sua temperatura (Equação (6.4a)), Ferreira discretizou a Equação (6.3) e pode derivar um modelo iterativo, Equação (6.5), que ajusta o valor de R, em função das condições impostas (i, h, T∞), até fechar o balanço de energia.
[Ω]
[K-1]
(6.4a)
(6.4b)
onde:
Ro = resistência elétrica, à temperatura de referência To ,
αo = coeficiente de temperatura, a To .
[Ω]
(6.5)
onde:
n = índice que representa a temperatura no instante t,
n + 1 = índice que representa a temperatura no instante t + ∆t,.
6.2.2 Modelo de Medição de Temperatura com Termovisor
Todo corpo, a uma temperatura superior a zero Kelvin, emite energia sob a forma de radiação eletromagnética, chamada Radiação Térmica Infravermelha. A radiação térmica, em sólidos opacos, pode ser tratada como um fenômeno de superfície (INCROPERA; DeWITT, 2008).
Max Planck derivou uma expressão para a Emitância E, ou fluxo radiativo emitido pela superfície de um corpo ideal (chamado de corpo negro, aquele que absorve toda a radiação térmica que nele incide), em função do comprimento de onda da radiação, dada pela Equação (6.6),
[W/m2 · m]
(6.6)
onde:
λ = comprimento de onda da radiação emitida, em [m],
T = temperatura, em [K],
E(λ) = Emitância para cada comprimento de onda,
h = 6,63 × 10−34 [J.s] é a constante de Planck,
c = 3,00 × 108 [m/s] é a velocidade da luz no vácuo,
k = 1,38 × 10−23 [J/K] é a constante de Boltzmann.
Em princípio, seria necessário detectar primeiramente em qual comprimento de onda reside a maior emissão de radiação, para então se determinar sua temperatura. Mas, ao se integrar a Lei de Planck entre λ = 0 · · · ∞, obtém-se a Lei de Stefan-Boltzmann, Equação (6.7), que permite calcular a energia total emitida por um corpo ideal, em função apenas de sua temperatura T :
(6.7)
onde:
σ = 5,67 × 10−8 [W/m2 K4 ] é a constante de Stefan-Boltzmann;
Eb(T) = emitância de um corpo negro (corpo ideal).
A radiação emitida por um corpo real é sempre uma fração da radiação emitida por um corpo ideal, à mesma temperatura. A relação entre essas intensidades é uma propriedade denominada emissividade, Equação (6.8), e depende da própria temperatura, da direção, da faixa espectral, do formato e da textura da superfície do corpo cinzento, com valores variando entre 0 e 1 (PERIN, 2009 apud TEIXEIRA, 2012):
(6.8)
onde:
ελ,θ é a emissividade espectral, direcional;
θ,φ são as direções,
Iλ,e é a intensidade de emissão no corpo real, na direção e comprimento de onda dados,
Iλ,b é a intensidade de emissão no corpo negro.
Devido a esses diversos fatores de dependência, formalmente se definem diversos tipos de emissividades para o mesmo objeto. Porém, conforme afirma Teixeira (2012), a determinação de seus valores é muitas vezes complexa e específica. Assim, adota-se a chamada emissividade total hemisférica, definida como a relação entre a Emitância do corpo cinzento e aquela do corpo negro, na Equação (6.9), resultando numa expressão cujo valor independe tanto da direção quanto do comprimento de onda.
(6.9)
Portanto, considerando a emissividade na Equação (6.7), é possível derivar uma expressão para enfim determinar a temperatura de um corpo cinzento a partir da radiação emitida, Equação (6.10):
(6.10)
Sinal Captado pelo Termovisor
A radiação captada pelo termovisor Wtot é dada pela Equação (6.11). Para se realizar corretamente a medição de temperatura por radiação, é preciso levar em conta que no sinal de radiação captado há diversas influências presentes, como demonstrado no esquema da Figura (6.1). Um objeto real à temperatura Tobj emite uma energia radiante εWobj . Além disso, este corpo reflete uma parte da energia que o atinge, vinda de outros objetos que o cercam, (1 − ε)Wrefl, dado ser um corpo cinzento. Estas duas radiações viajarão pelo meio circundante em direção ao termovisor, mas não sem antes serem atenuadas pelos gases atmosféricos, com transmissividade suposta τ , se transformando respectivamente em ετWobj e (1 − ε)τWrefl. Por fim, os gases atmosféricos, possuindo temperatura absoluta não nula, emitirão sua própria radiação térmica, representada por (1 − τ )Watm (MANUAL FLIR, 2011).
(6.11)
Essa energia irá excitar os detectores do termovisor, gerando um sinal elétrico proporcional, relacionado à radiação incidente, dado por (TEIXEIRA, 2012):
(6.12)
Figura 6.1: Esquematização das influências presentes em uma medição utilizando Termovisor. Fonte:(MANUAL FLIR, 2011)
assumindo que
(6.13)
O modelo que descreve o sinal emitido pelo objeto é obtido isolando Sobj na Equação (6.12):
(6.14)
Para relacionar o sinal com a temperatura do objeto, Minkina e Dudzik (apud TEIXEIRA, 2012), baseando-se na Lei de Planck, mostraram ser possível derivar a relação entre o sinal S e a temperatura T , da seguinte forma:
(6.15a)
(6.15b)
(6.15c)
onde as constantes R, B e F são específicas de cada termovisor e respectivos filtros e lentes.
Por fim, assumindo na Equação (6.14) um modelo para a transmitância atmosférica, τ(d), e aplicando a Equação (6.15a), a temperatura do objeto medida pelo termovisor fica determinada:
(6.16a)
(6.16b)
A Equação (6.16b) evidencia que a qualidade da medição de temperatura via radiação será, no máximo, tão confiável quanto for a medição das suas grandezas de entrada. Conforme afirma Albertazzi e Sousa (2008), para se obter uma medição que resulte em informação confiável, é necessário existir um Procedimento, ou seja, uma sequência de ações definidas conforme um método, e conhecimentos aprofundados sobre o Sistema e o Processo de medição empregados. Daí se depreende que a Medição de uma grandeza, seja ela temperatura ou outra qualquer, requer muito mais do que a simples obtenção de uma indicação, de um número.
6.3 Metrologia e Incerteza de Medição
6.3.1 O Paradoxo da Medição
Por mais refinados ou perfeitos que sejam os sistemas de medição, jamais será possivel obter o valor exato de uma grandeza. Ramos (2008) destaca que o ato de medir intrinsecamente provoca perturbações na grandeza sob medição, independentemente de qualquer processo de medida. Além disso, não é possível garantir que certos tipos de mensurando1 se mantiveram perfeitamente estáveis (ou invariáveis) durante o processo de medição.
A toda medição existe um erro associado. Uma vez que não se pode evitar a modificação introduzida pelo instrumento de medição ou as possíveis variações do mensurando, nunca se obterá o valor exato da grandeza, a avaliação sempre será imprecisa. O melhor que se pode fazer é conhecer e considerar uma faixa provável dentro da qual deve situar-se o valor verdadeiro associado ao mensurando. Essa faixa, denominada incerteza do resultado de medição, ou simplesmente incerteza, é determinada pela consideração minuciosa de todas as fontes de erro que podem influir no resultado da medição. Em outras palavras, ela exprime a “dúvida” existente a respeito de determinada medição (ALBERTAZZI; SOUSA, 2008).
Portanto, a solução para o Paradoxo da Medição consiste em reconhecer que sempre se incorrerá em erros na medição, mas desde que se possa quantificar a dimensão da dúvida quanto ao valor verdadeiro, cria-se a possibilidade de se gerenciar esta deficiência e de se tomar decisões. Desta forma, é imperativo que se exprima o resultado de uma medição, não apenas por uma indicação (um número) e uma unidade, mas também por uma faixa de valores, Equação (6.17):
Resultado da Medição = (Indicação ± Incerteza) [unidade]
(6.17)
O conceito de risco sempre esteve associado à incerteza dos resultados. O termo pode ser usado para qualquer situação que apresente incerteza do resultado, tanto positivo quanto negativo (loteria). O gerenciamento de riscos, então, objetiva maximizar resultados positivos e minimizar negativos (DIAS et al., 2011). Com a Termografia não é diferente: melhores decisões podem ser tomadas ao se investigar a inceteza dos resultados das inspeções realizadas.
6.3.2 Erro e Incerteza de Medição
Erros são provocados pela ação, isolada ou combinada, de vários fatores que influenciam o processo de medição. Envolvem o sistema de medição: o procedimento de medição, a ação de grandezas de influência e o próprio operador do instrumento. Erro de medição E é defindo como a diferença entre o valor indicado I pelo instrumento e o valor verdadeiro do mensurando VV , isto é, E = I − VV (ALBERTAZZI; SOUSA, 2008). Para melhor análise e avaliação do erro, é possível extratificá-lo em:
(6.18)
onde:
Es = erro sistemático
Ea = erro aleatório
Eg = erro grosseiro
Ressalta-se que, na prática, estes diferentes elementos de erro aparecem superpostos. Porém, existem técnicas que permitem delimitar o erro total a uma faixa bem caracterizada: se originam do conceito de Incerteza. Formalmente, define-se incerteza como: “parâmetro, associado com o resultado de uma medição, que caracteriza a dispersão de valores que podem razoavelmente ser atribuídos ao mensurando” (INMETRO, 2009). A incerteza está associada ao resultado da medição, não correspondendo ao erro aleatório do sistema de medição (embora esse também irá compô-la). É representada usualmente pelo símbolo u.
Para estimar u, deve-se identificar as fontes de erro e o que mais pode influenciar o resultado da medição e modelar, corretamente, o fenômeno físico e o processo de medição.
Incerteza Padrão u
O Guia para Expressão da Incerteza de Medição (INMETRO, 2003), divide a incerteza e a categoriza em dois tipos, denominados A e B. Estas categorias se aplicam ao método de avaliação da incerteza e não tem relação com as palavras “aleatório” ou “sistemático”.
Exemplo de avaliação da incerteza do tipo A consiste no cálculo do desvio padrão da média de uma série de observações feitas aproximadamente sob as mesmas condições. Em contraste com a incerteza do tipo A, os procedimentos para estimar a incerteza do tipo B são um pouco mais elaborados e exigem levar em consideração todo o conhecimento disponível a respeito do sistema de medição e da propriedade ou do fenômeno em estudo, como por exemplo:
Independentemente da forma como a incerteza for obtida, seja por um procedimento estatístico do tipo A ou de informações a priori do tipo B, ela sempre será interpretada como um desvio padrão. Portanto, neste ponto, ela é conhecida como Incerteza Padrão, representada por ui , onde o subscrito i se relaciona a cada componente de incerteza avaliado (exemplificando: u1 , u2 , uap , uf ).
Incerteza Combinada uc
Após as contribuições, associadas a cada componente de incerteza do processo de medição, terem sido identificadas e quantificadas em Incertezas Padrão, é necessário combiná-las, a fim de prover um único valor de incerteza. A incerteza combinada uc de um processo de medição é estimada considerando a ação simultânea de todas as fontes de incerteza, e ainda corresponde a um desvio padrão da distribuição resultante.
Incerteza Expandida U95%
Em aplicações práticas ou nas áreas da engenharia, como pondera Albertazzi e Sousa (2008), é comum trabalhar com níveis de confiança maiores que um desvio padrão (∼ 68%). Especialmente onde a segurança é fator crucial, a incerteza padrão combinada é multiplicada por um fator de abrangência, de forma a fornecer um intervalo maior dentro do qual existe uma alta probabilidade de conter o valor verdadeiro do mensurando, maior que 95%. Quase nunca é possível realizar um grande número de medições para se atingir esse nível de confiança. Portanto, deve-se aplicar um coeficiente numérico, derivado da distribuição t de Student.
O coeficiente de Student, também chamado de fator de abrangência k95% , é determinado em função do número de graus de liberdade2 efetivos νef associados à Incerteza Combinada (INMETRO, 2003). Determinado νef , verifica-se em uma tabela o valor de k95% e estima-se a Incerteza Expandida U95% conforme Equação (6.19):
U95% = k95% × uc
(6.19)
6.3.3 Fontes de Erro em Termografia
Em termografia, as fontes de erro podem ser divididas em intrínsecas, próprias dos componentes internos do instrumento, e extrínsecas, associadas aos parâmetros radiométricos do mensurando e das condições ambientais (CHRZANOWSKI, 2001 apud TEIXEIRA, 2012).
As fontes intrínsecas, relacionadas à conversão da radiação incidente para um sinal de medição S, são atribuídas ao erro gerado por ruído (NGE), à estabilidade da temperatura (TS), à repetitividade (RE), à resolução digital da temperatura (DRT), ao mínimo erro (ME), à resolução espacial da medição (MSR) e à uniformidade da medição (MU).
Já as fontes extrínsecas (ε, d, Trefl , Tatm ) foram evidenciadas na Equação (6.16b), p. 69.
6.3.4 Incerteza e Custos da Qualidade
Aceita-se que, na produção de peças e produtos, imperfeições sempre estarão presentes, por mais tecnológico ou avançado que seja o processo de produção. Porém, desde que não comprometam a função dos mesmos, é perfeitamente possível tolerar tais defeitos. Tolerância, no contexto de controle de qualidade, pode ser entendida como os limites aceitáveis para a variação, em torno das especificações nominais, dos parâmetros de determinados produtos ou processos.
Uma etapa do processo de controle de qualidade da manutenção consiste em medir determinada grandeza (relativa a um objeto, peça produzida, parâmetro da máquina etc) e comparar o resultado com a respectiva tolerância, classificando-se o resultado como aprovado ou reprovado, se esse obedecer à tolerância ou não. Para garantir que este procedimento seja viável, sabendo-se que toda medição apresenta erros, é indispensável a consideração da incerteza.
Uma empresa onde não se investe em qualidade, de maneira geral, está mais sujeita a prejuízos devidos a, por exemplo (ANDRADE, 2010):
Assim, investir em melhoria da qualidade pode trazer enormes benefícios. Porém, estes benefícios demandarão:
Portanto, existirá um ponto ótimo onde maiores gastos em busca de qualidade não contribuirão para a redução dos custos totais, tendo, pelo contrário, o efeito de aumentá-los (Figura 6.2). É vital que o programa de qualidade adotado seja bem planejado e acompanhe a evolução das áreas da empresa em busca do ponto ótimo.
Figura 6.2: Custos da Qualidade. Fonte: (ANDRADE, 2010)