Identificação e Detecção de Anomalias de Processo usando Análise de Componentes Principais
Introdução
A qualidade é uma das coisas mais importantes que é necessário trabalhar nas indústrias e nos processos produtivos atuais.
Quando pensamos em metodologias enxutas (como o Lean Manufacturing ou o Sistema Toyota de Produção), não podemos deixar de lembrar que a ocorrência de defeitos é um dos 7 desperdícios visuais, que devem ser combatidos com a aplicação das ferramentas e com a mudança de mentalidade das pessoas envolvidas no processo.
Tomando como outro exemplo o sistema de gestão TPM (do inglês, Total Productive Maintenance), um dos objetivos do Pilar de Qualidade é identificar as maiores vozes de ocorrências de defeitos e traçar ações para reduzir tais ocorrências de defeitos. Através da estratificação das ocorrências de defeitos (utilizando ferramentas como diagramas de Pareto), é possível identificar os principais tipos de defeitos e assim, aplicar ferramentas de resolução de problemas para a respectiva tratativa.
De forma simplista, a ocorrência de defeitos em processo ocorre devido à variabilidade presente nas diversas etapas necessárias para a transformação da matéria prima no produto final. Muitas vezes, no entanto, essas variabilidades são tão sutis e específicas que nem podem ser medidas, de forma a dificultar sua identificação e correlação com a ocorrência de defeitos.
Desta forma, verifica-se uma significativa oportunidade para aplicação de técnicas mais modernas e da tecnologia na detecção das falhas (anomalias) e também na identificação das principais causas dos problemas.
Dentre essas técnicas, pode-se citar a aplicação da tecnologia da Internet das Coisas (IoT) e de aprendizado de máquina (Machine Learning) na obtenção e processamento dos sinais obtidos por diversos sensores aplicados no monitoramento dos processos. O IoT é aplicado para monitorar e obter continuamente os sinais de medições de diversos sensores instalados, promovendo um fluxo contínuo de dados para algoritmos inteligentes processarem esses dados e determinarem a ocorrência (ou não) de uma anomalia.
Na estatística multivariada, as anomalias de processos são determinadas por meios de testes de hipóteses que levam em consideração as correlações e colinearidades entre as variáveis medidas. Uma técnica comumente aplicada é a de Análise de Componentes Principais (PCA, do inglês Principal Component Analysis), que determina a anomalia do processo com base na distância dos pontos medidos em relação a uma “média geral” de todas as medições.
A vantagem é que o algoritmo de PCA realiza a transformação do conjunto de dados de forma que as potenciais correlações entre as variáveis medidas não atrapalhe na determinação dos maiores ofensores de variabilidade do processo. No entanto, a principal desvantagem do algoritmo de PCA é que somente correlações lineares são possíveis de serem tratadas.
Com base no grande volume de dados gerados por sensores modernos, esse tipo de algoritmo e análise pode ser aplicado para determinar a ocorrência de uma anomalia de processo e, na sequência, determinar a localização exata do maior ofensor para essa anomalia. Com base na identificação do “sensor problemático”, pode-se então utilizar ferramentas de qualidade e de resolução de problemas para que o problema seja resolvido e as variabilidades de processo, atenuadas.
Objetivo
O principal objetivo desse artigo é demonstrar a aplicação da análise de componentes principais para detectar e identificar anomalias em dados de processo que são obtidos de sensores montados em campo.
Dentre os objetivos específicos, pode-se citar:
- simular um processo industrial com variabilidade
- analisar correlações e distribuições das variáveis medidas do processo
- determinar o número de componentes principais a serem retidas na análise de PCA
- aplicar o treinamento do algoritmo de PCA em dados normais de operação
- aplicar os testes de hipóteses para determinar potenciais anomalias
- plotar os gráficos de contribuição para identificar potenciais ofensores da anomalia
- identificar as causas da anomalia por meio dos histogramas de variáveis
Descrição do Processo
O processo escolhido para a demonstração desse artigo foi a produção de uma mistura líquida simples num tanque de mistura, conforme pode ser verificado na Figura 1.
Figura 1. Desenho esquemático do processo modelado
O processo consiste num tanque de mistura com três correntes de entrada (água, componente A e componente B) e uma corrente de saída (mistura). Existem 7 variáveis monitoradas:
- vazão de água (mW)
- vazão de componente A (mA)
- vazão de componente B (mB)
- concentração de componente A na entrada (xA1)
- concentração de componente B na entrada (xB2)
- concentração de componente A na saída (xA3)
- concentração de componente B na saída (xB3)
A Tabela 1 apresenta os valores nominais (de projeto) para esse processo. Sabe-se que existem as seguintes especificações de mercado para a concentração de componente A na saída (2,45 % – 2,55 %).
Tabela 1. Valores nominais de projeto para o processo em questão
Metodologia
Simulação de Processo com variabilidade
A simulação do processo foi realizada com base em cálculos de balanço de massa e de diluição, visto que não ocorre reação química no interior no tanque de mistura.
Foram simulados cenários nos quais a vazão de água é variada de 80 % a 120 % da vazão nominal, sendo que as outras variáveis de entrada foram corrigidas adequadamente para cada situação. Foram simulados 70000 pontos.
Depois das simulações, ainda foi adicionado um “ruído” de sensor, amostrado de uma distribuição normal com média zero e desvio padrão equivalente a 0,5 % do valor médio de cada variável (esse valor foi escolhido verificando a variabilidade de alguns sensores comerciais).
Visualização dos Dados e seleção dos dados normais
Os dados obtidos na simulação foram visualizados de três formas: matriz de correlação, matriz de diagramas de dispersão e relatório de capacidade e controle estatístico de processo.
A matriz de correlação, essencialmente, consiste num mapa de calor mostrando como as variáveis se correlacionam entre si. Com isso, é possível verificar quais são as variáveis que mais influenciam no comportamento de outras.
A matriz de diagramas de dispersão apresenta a mesma informação que a matriz de correlação, porém de forma gráfica. Com ela, é possível verificar o formato da correlação apontada pela matriz de correlação, visto que mesmo quando uma correlação é fraca, ela pode existir e não ser linear. Esse gráfico também serve para verificar as hipóteses da aplicação de correlações lineares nas variáveis, como pede o algoritmo PCA.
Por último, o relatório de capacidade de processo é uma ferramenta mais clássica de se analisar o processo, pois mostra a capacidade do processo de produzir dentro das especificações (voz do cliente) e também de produzir de forma controlada e previsível.
A etapa de obtenção de dados normais de operação foi realizada usando-se somente os dados que correspondiam a situações cuja concentração do componente A na saída que estivesse dentro das especificações do processo.
Escalonamento dos dados
O algoritmo de análise de componentes principais é baseado no cálculo de distâncias entre pontos. Desse modo, quando existem discrepâncias muito grandes entre as grandezas trabalhadas, isso pode ocasionar um viés no treinamento do modelo PCA, visto que variáveis com maiores escalas podem ter maior influência no cálculo de variâncias em relação às variáveis com as menores escalas.
A solução para a aplicação do algoritmo é realizar o escalonamento dos dados, de forma a deixar todas as variáveis com a mesma escala. Nesse estudo, o escalonamento utilizado foi aquele que deixou todas as variáveis com média zero e desvio padrão igual a 1.
Método da Análise Paralela e treinamento do modelo PCA
Uma etapa importante para o treinamento do algoritmo PCA é determinar a quantidade de componentes principais a serem retidas no modelo. Para isso, a literatura cita o método da análise paralela.
Nesse método, compara-se a quantidade de variância retida em cada componente em dois conjuntos de dados distintos: o primeiro é aquele que contém todas as correlações naturais do processo, ou seja, a base de dados que se deseja analisar; o segundo é um conjunto de dados com as mesmas variáveis, porém criado de forma que todos os dados sejam independentes entre si. O número de componentes principais retidas é aquele que iguala a variância explicada nos dois modelos.
Nesse estudo, o conjunto de dados independentes foi criado simulando-se de uma distribuição normal com média e desvio padrão iguais aos dos dados originais
Após a determinação da quantidade de componentes principais a serem retidas, treinou-se o modelo nos dados normais de operação.
Aplicação dos testes de hipóteses
Para determinar a ocorrência de uma anomalia num conjunto de dados multivariado, característico daqueles obtidos de medições de sensores industriais, faz-se necessária a aplicação de testes estatísticos de hipóteses a respeito dos dados. Nesse sentido, o teste mais conhecido da literatura é o do T² de Hotelling.
Além disso, pode-se verificar a ocorrência de anomalia observando-se a qualidade de ajuste do modelo de PCA aos pontos “candidatos” a anomalias, através do cálculo do erro quadrático de ajuste. Naturalmente, caso o erro seja muito grande, a lógica diz que o ponto está muito distante do que se esperaria para um dado “normal” de processo (lembrando o modelo foi treinado sobre os dados normais).
T² de Hotelling
A estatística T² de Hotelling identifica variações não usuais dentro do conjunto de dados avaliado pelo algoritmo. É uma estimativa de quanto o ponto “candidato” a anomalia está da média multivariada dos dados, que consiste na nova origem do sistema de coordenadas modificada pela PCA.
O teste de hipóteses aplicado nessa etapa está baseado nas seguintes premissas:
- Hipótese Nula: os dados candidatos provêm de um conjunto de dados normais de operação e a variabilidade observada é devido somente ao acaso
- Hipótese Alternativa: os dados realmente são uma anomalia e a variabilidade observada é causada por algum agente externo
Sem entrar nos detalhes técnicos, mas o teste de hipóteses é feito comparando-se o cálculo da estatística T² em relação a um “valor crítico”, que depende do grau de confiança que desejamos tomar como aceitável, do número de dados e também do número de componentes principais retidas no modelo PCA. Caso o T² calculado seja maior que o valor crítico, então existem evidências estatísticas suficientes para rejeitar a hipótese nula.
Erro Quadrático de Predição
O erro quadrático de predição, por sua vez, representa o quão bem o modelo PCA treinado nos dados normais de operação se ajusta aos dados do ponto candidato a anomalia. Analogamente, ele nos diz “o quão parecido” o ponto candidato é em relação aos pontos do modelo PCA.
De forma semelhante ao T² de Hotelling, o erro quadrático de predição possui um “valor crítico” que depende do grau de confiança desejado para a tomada de decisão e também da variabilidade dos dados. Caso o valor do erro quadrático de predição seja maior que o valor crítico, então o ponto tem grande possibilidade de ser uma anomalia de processo.
Detecção e Identificação de Anomalias
Depois que uma anomalia é detectada no processo, é necessário entender suas potenciais causas e assim, traçar ações de correção para que os problemas não voltem acontecer.
De maneira clássica, a investigação de problemas é feita por meio de ferramentas de solução de problemas como ciclos PDCA, 5 W 2 H e 5 Porquês. São ferramentas poderosas de análise de causas utilizadas em todas as grandes indústrias atualmente.
No entanto, essas ferramentas podem ser potencializadas ao se utilizar o algoritmo de decomposição de falhas proposto. Para isso, foram construídos alguns gráficos de barras mostrando as maiores contribuições dos maiores erros quadráticos de predição, de forma a indicar em quais sensores os valores medidos mais caracterizam uma anomalia de processo. Além dessa ferramenta, foi possível traçar o histograma da variável de interesse e mostrar em qual região da distribuição o ponto de anomalia se encontra.
Resultados Obtidos
Visualização dos Dados e Análise do Processo
O primeiro resultado que pode ser observado é a visualização dos dados obtidos na simulação do processo estudado. A Figura 2 apresenta a matriz de correlação de Pearson dos dados, enquanto que a Figura 3 apresenta as correlações observadas na Figura 2 na forma de diagramas de dispersão.
A Figura 2 apresenta o fato de que as variáveis de monitoramento da entrada no reator (vazão de entrada de água, vazão de entrada e concentração de componente A, vazão de entrada e concentração de componente B) são praticamente independentes entre si, no caso desse conjunto de dados, visto que seus coeficientes são bem próximos do valor zero. Isso também pode ser verificado nos diagramas de dispersão dessas variáveis, visto que não pode ser identificado nenhum tipo de padrão claro na distribuição dos pontos no gráfico.
Figura 2. Matriz de correlação entre as variáveis medidas
Por outro lado, quando se observa os coeficientes de correlação das variáveis de saída (concentração de saída de A e de B) em relação às variáveis de entrada, verifica-se significativas correlações lineares. Isso é coerente com o que se espera desse tipo de processo, visto que existem as operações unitárias e restrições de balanço de massa que relacionam as variáveis de entrada com as variáveis de saída. Do ponto de visto de análise de processos, pode-se estabelecer as seguintes “regras de negócio”:
- se a vazão de entrada do componente A for aumentada, então a concentração de A na saída vai aumentar – correlação de 0,5
- se a vazão de entrada do componente B for aumentada, então a concentração de B na saída vai aumentar – correlação de 0,6
Figura 3. Diagramas de Dispersão entre as variáveis medidas
- se a vazão de água na entrada aumentar, então tanto a concentração de A quanto de B vai diminuir na saída – correlação de -0,5 para ambos
- se a concentração de A aumentar na entrada, então a concentração de A na saída vai aumentar – correlação de 0,6
- se a concentração de B aumentar na entrada, então a concentração de B na saída vai aumentar – correlação de 0,6
É interessante observar uma colinearidade entre a concentração de A na saída e a concentração de B na saída (correlação de 0,2). Isso ocorre devido à correlação que ambas as variáveis compartilham com a variável vazão de entrada de água. Devido à correlação negativa comum, quando a vazão de água aumenta, ambas as variáveis de saída diminuem, proporcionalmente.
É importante também verificar, na Figura 3, que para aquelas variáveis que apresentaram correlação de Pearson significativa, o formato da distribuição dessas variáveis é linear, o que confirma a hipótese de aplicação do algoritmo de análise de componentes principais (PCA). Verifica-se também que os dados não estão perfeitamente distribuídos em torno do que se esperaria de uma reta devido ao ruído de sensor adicionado na modelagem. Adicionalmente, pode-se notar que o formato da distribuição dos dados reflete o que foi dito sobre as “regras de negócio” identificadas na análise de processo.
A última forma utilizada de analisar os processos foi a elaboração de um relatório de capabilidade e controle estatístico de processo, conforme Figuras 4 e 5. O gráfico da Figura 4 apresenta a distribuição dos dados do processo em relação aos limites de especificação ditados pelo mercado. Como se pode verificar, esse processo apresenta desempenho muito inferior ao que se esperaria de um processo adequado, visto que podem ser observados muitos resultados fora das especificações
Figura 4. Análise de Capabilidade do Processo
O baixo desempenho também é verificado pelos parâmetros Pp e Ppk, apresentados no título de gráfico da Figura 4. De forma simplificada, o índice Pp indica que a amplitude dos valores dos dados obtidos no processo (considerando o intervalo de 6 desvios padrão) é cerca de 30 vezes maior que a amplitude das especificações. Fazendo um cálculo simples, verificou-se que apenas 7 % dos dados está dentro das especificações, o que representa um processo com desempenho bem ruim. Além disso, verifica-se que o índice Ppk não possui valor igual ao Pp. O Ppk avalia o desempenho do processo, tomando também em consideração a centralização do mesmo. Pode-se concluir que, além de ter um desempenho ruim, a média do processo não está próximo do alvo da especificação. Dessa forma, existem dois problemas com o processo avaliado: centralização e dispersão.
Os gráficos da Figura 5, por sua vez, apresentam o desempenho ponto a ponto do processo. O gráfico superior apresenta a amplitude móvel, ou seja, a mudança de valor de um ponto para outro. O inferior mostra o valor da variável, ponto a ponto.
Com base na observação de ambos os gráficos, conclui-se que esse processo está descontrolado estatisticamente, visto que existem pontos que superam a linha azul superior (o limite superior de controle estatístico). Ou seja, isso significa que esse processo não é estável, podendo permitir flutuações que superam o que se esperaria de uma variabilidade comum (problema de dispersão). Pode-se observar no gráfico inferior que a linha azul média se encontra um pouco acima do valor de 0,025, que seria o valor alvo da especificação, confirmando o que o índice Ppk havia apontado sobre a descentralização do processo.
Figura 5. Cartas de Controle Estatístico de Processo
Treinamento do Algoritmo PCA
Conforme descrito na seção de métodos, o método de Análise Paralela foi utilizado para definir quantas componentes principais foram retidas no modelo final. O gráfico da Figura 6 apresenta o resultado mostrando a fração da variância retida em cada componente principal, tanto para os dados do processo, quanto para os dados simulados e independentes.
Figura 6. Seleção de componentes principais a serem retidas no modelo – Método da Análise Paralela
A Figura 6 mostra que a PCA aplicada para os dados de processo retém mais informação (mais variância) até a quarta componente principal, visto que a partir da mesma, todas as componentes retêm menos informações do que seria retido num conjunto totalmente independente de informações. Isso não representa vantagem do ponto de vista de processo, visto que o conjunto de dados simulados representaria as variabilidades de causas comuns e aleatórias (podendo ser ruídos de medição, por exemplo).
Dessa forma, o método aplicado aponta que 4 componentes principais devem ser retidas no modelo a ser treinado utilizando os dados normais de operação. Desta maneira, o gráfico da Figura 8 apresenta como a variância retida se comportou em cada uma das componentes do modelo final aplicado. Verifica-se que as 4 componentes principais retidas conseguiram explicar 84 % da variabilidade dos dados. Os outros 16 % restantes, no caso deste modelo, foram classificados como variabilidades incomuns (ou anomalias).
Figura 8. Retenção de informação em função do número de componentes principais retidas no modelo final
Depois de treinado o modelo de PCA no conjunto de dados normais de operação, os dados com anomalias foram submetidos aos testes de hipóteses para determinação da anomalia: o teste de T² de Hotelling e o cálculo do erro de predição.
Testes de Hipóteses – Determinação da Anomalia
A Tabela 2 apresenta os valores calculados para os limites de confiança dos testes estatísticos utilizados para determinar se os dados observados são ou não classificados como anomalia.
Tabela 2. Limites de 99,0 % de confiança para as estatísticas
A Tabela 2 apresenta apenas o limite superior de confiança pois o dado é considerado como anomalia somente se o valor da estatística superar o limite de confiança – nesse caso, haverá evidência estatística suficiente para rejeitar a hipótese nula. Com base nesses valores de limite de confiança, é possível realizar observações estatísticas sobre a probabilidade de um determinado dado ser uma anomalia. AS Figuras 9 e 10 apresentam a comparação do conjunto de dados do processo em relação aos limites de confiança calculados.
No caso desse estudo, muitos pontos acabaram caindo fora do limite superior de confiança de ambas as estatísticas, de forma a serem considerados potenciais anomalias. Isso se deveu ao fato de que as oscilações do sinal de cada sensor foram simuladas aleatoriamente. Num processo real, somente cairiam fora dos limites, os pontos do processo que realmente se comportassem de maneira anômala.
No entanto, pode-se enxergar uma oportunidade ao observar o comportamento de ambos os diagramas. Com base na contagem de pontos fora do limite superior, de ambas as estatísticas, é possível estabelecer uma correlação entre a variabilidade observada no processo e a quantidade de potenciais anomalias identificadas.
Figura 9. Gráfico de estatísticas calculadas T² de Hotelling em comparação com o limite superior de confiança de 99,0 %.
Figura 10. Gráfico de erros quadráticos de predição em comparação com o limite superior de confiança de 99,0 %
Lembrando que o T² de Hotelling nos diz a respeito variações não usuais dentro do processo. Segundo a carta mostrada na Figura 9, a variabilidade observada no processo foi suficiente para que cerca de 0,23 % dos dados fossem considerados anomalias somente em relação ao T² de Hotelling. No caso do erro quadrático de predição (que aponta o “quão parecido” o dado é em relação ao modelo ajustado), a carta da Figura 10 apresenta que cerca de 3,10 % dos dados apresentaram distância significativa em relação ao modelo ajustado.
Para tornar a avaliação mais rigorosa, optou-se por considerar como “anomalia verdadeira” apenas aqueles pontos que apresentaram estatísticas acima em ambos os casos, ou seja, tanto em caso de variações não usuais como em caso de disparidade em relação ao modelo ajustado. No caso desse estudo, a intersecção de ambos os grupos resultou na identificação de 44 “anomalias verdadeiras”.
Identificação das Anomalias
Depois que uma anomalia de processo é detectada, é necessário identificá-la e qualificá-la, de modo a entender os motivos que a causam. É nessa parte que mais tempo e esforço deve ser empregado, se possível por times multidisciplinares de modo que a análise de causas possa abranger as possibilidades mais amplas possíveis. Dessa forma, a probabilidade de se encontrar a causa raiz do problema é mais elevada.
Uma das etapas principais da análise de causas é realizar a estratificação dos efeitos dos problemas observados, de modo a direcionar o foco no momento da tratativa. Com o algoritmo proposto neste estudo, foi possível construir uma estratificação automática e direcionada naqueles pontos que apresentaram, por exemplo, erro de predição maior que o limite superior de confiança. A Figura 11 apresenta o chamado “Gráfico de Contribuições”, para várias amostras identificadas como anomalias pelo algoritmo aplicado.
O princípio de construção do gráfico de contribuição é baseado no fato de que cada sensor contribui com uma parcela para o erro quadrático de predição. Ou seja, quando se somam as contribuições de todos os sensores, obtém-se o erro quadrático de predição calculado para o teste de hipóteses. Assim, se um determinado sensor apresenta alta contribuição para o erro de predição, então convém examinar essa variável como uma das ofensoras para a ocorrência da anomalia.
Figura 11. Gráficos de Contribuições para diversas amostras de anomalias
Tomando como exemplo as amostras apresentadas na Figura 11, pode-se observar as seguintes propriedades num exame rápido, como exemplo.
- para a amostra 30779 – os maiores ofensores para a anomalia foram os sensores de entrada de água, entrada de componente B e concentração de entrada de componente A
- para a amostra 30182 – houve problemas com a vazão de entrada de componente B, a vazão de entrada de componente A e novamente a concentração de entrada de componente A
Com base nessas duas análises rápidas e na observação dos outros gráficos apresentados na Figura 11, nota-se que alguns sensores apresentam recorrência de altas contribuições, o que pode dar mais dicas de onde pode estar localizada a anomalia do processos. Uma forma mais simples de avaliar a concentração de anomalias por sensor é traçar um diagrama de Pareto, contando as ocorrências de altas contribuições de erro de predição. Além disso, essa ferramenta também pode ser utilizada para mensurar o impacto de determinadas anomalias num período específico de tempo, de modo a poder ser usado como forma de relatório de ações ou justificar a compra de um novo dispositivo ou ainda de mudanças necessárias no processo de produção. Um exemplo desse tipo de ferramenta é apresentado na Figura 12, que traz a frequência de ocorrências nas quais cada sensor apresentou a maior contribuição ao erro de predição.
Figura 12. Ocorrências de Anomalias por Sensor
Segundo as informações do gráfico da Figura 12, o sensor de vazão de entrada de componente B no tanque foi o que mais apresentou contribuições máximas para o erro de predição, logo seguido pelo sensor de concentração de componente A na entrada. O gráfico aponta que esses dois sensores são responsáveis por 93,4 % das contribuições máximas encontradas no conjunto de dados desse processo. Ou seja, a estratificação automática permitiu a identificação rápida dos maiores ofensores do processo.
A partir desse ponto, é necessário aprofundar a análise das causas. Questionar o porquê dessas anomalias estarem se apresentando nesses dois sensores, majoritariamente. Por enquanto, só foi possível entender onde os efeitos mais se manifestam. Nesse contexto, é importante notar que uma alta contribuição para o erro de predição não significa, necessariamente que o valor da variável esteja alto demais em relação aos níveis nominais de trabalho. Variáveis que estejam muito abaixo de seu valor nominal também oferecem grandes contribuições para o erro quadrático de predição. Assim faz-se necessária uma forma de entender, depois de identificada e estratificada a anomalia, qual é exatamente o problema que ela está apontando.
O algoritmo criado nesse estudo permite essa identificação a partir da observação da posição dos valores das variáveis do ponto de anomalia em relação à variabilidade do processo. Desta maneira, é possível checar se, por exemplo, a vazão de entrada de água no tanque está muito alta ou muito baixa em relação ao restante dos pontos do processo. A Figura 13 apresenta essas visualizações de estados de variáveis a amostra 30779.
Conforme observado na análise dos gráficos de contribuição para o erro de predição da amostra 30779, os maiores ofensores nesse caso são as variáveis vazão de entrada de água, vazão de entrada de componente B e concentração de entrada de componente A. A Figura 13 confirma a anomalia observada, pois nela se observa (as linhas vermelhas verticais representam o valor de cada variável para o ponto classificado como anomalia).:
- a vazão de entrada de componente A (mA) e de componente B (mB) estão muito acima dos respectivos valores nominais de operação.
- a vazão de entrada de água (mW) está muito abaixo do valor nominal de operação
- a concentração de componente A na entrada (xA1) está bem acima do valor nominal
- a concentração de componente B na entrada (xB2) está bem abaixo do valor nominal
- com base em todas essas anomalias do processo, verifica-se que a concentração de A na saída (xA3) está muito acima da especificação permitida.
Figura 13. Estados de variáveis de processo para a amostra 30779
Na Figura 13 também se pode observar o valor da estatística T² de Hotelling para a amostra selecionada (gráfico mais à direita na linha inferior). Como se pode verificar, o valor calculado para a estatística nessa amostra se encontra significativamente acima da maior densidade de dados do histograma, de forma a fornecer evidência estatística de uma variabilidade não usual do processo nessa amostra selecionada.
É importante enfatizar que a metodologia permite, além da identificação de anomalias de processo, encontrar as potenciais causas de um processo apresentar baixa capacidade de atendimento às especificações, conforme mostrado na discussão do gráfico de capacidade da Figura 4. Esse processo estudado não atende às especificações para as quais ele foi projetado, e uma análise cuidadosa dos histogramas apresentados na Figura 13 pode ajudar a traçar correlações e entender como o processo pode ser ajustado.
Conclusões
O algoritmo de PCA mostrou efetividade na detecção e identificação de anomalias de processo, pois permitiu, por meio de testes de hipóteses, classificar um determinado ponto de medição como uma anomalia ou não.
O primeiro passo para o bom entendimento do processo de classificação de anomalias é o entendimento do funcionamento do processo e das correlações existentes entre as variáveis que são medidas. Através do estudo da matriz de correlação e dos diagramas de dispersão, pode-se observar o comportamento das relações existentes. Além disso, essas duas ferramentas também permitiram a verificação da linearidade nas correlações, condição necessária para a validade do algoritmo de PCA.
Após o treinamento e aplicação do algoritmo de PCA, os testes de hipóteses mostraram a ocorrência de pontos candidatos a anomalias. Com base na avaliação concomitante de ambas as estatísticas calculadas, foi possível estabelecer um padrão de “anomalia verdadeira” e utilizar tal critério para futuras análises.
Além de permitir detectar as anomalias, verificou-se que o algoritmo permitiu identificar os maiores ofensores de cada anomalia, por meio da construção de gráficos de contribuição. Nesses gráficos, foi possível observar quais sensores apresentam maior erro de predição em relação ao modelo PCA. Além da construção dos gráficos de contribuição, o algoritmo permitiu a estratificação automática dos sensores de processo que apresentaram a maior quantidade de ocorrência de anomalias num determinado conjunto de dados, por meio da construção de um gráfico de Pareto.
Finalmente, o algoritmo apresentou a possibilidade de verificar os valores das variáveis de processo nos pontos que foram classificados como anomalia. Dessa forma, é possível saber se determinada variável está significativamente acima ou abaixo do valor nominal de operação. Além de permitir a identificação do estado da anomalia, o algoritmo também permite o entendimento dos motivos do não atendimento às especificações. Com isso, o algoritmo apresenta vantagem na identificação de causas raízes e direcionamento dos esforços para solucionamento de problemas de processos.Denunciar
Publicado por
Status: on-lineÍcaro Augusto Maccari Zelioli Machine Learning Specialist | Data Scientist | Big Data AnalystPublicado • 4 d3 artigosSeguirOlá rede ! Conforme prometido, eu publico par vocês meu estudo de detecção de anomalias de processo com utilização de algoritmos de aprendizado de máquina ! Uma ótima oportunidade de integrar a análise de processo juntamente com a aplicação de ferramentas tecnológicas! Imaginem isso rodando online e fazendo o monitoramento de todo o processo produtivo de forma automática… coisa do futuro certo? Gostei demais de trabalhar nesse projeto e espero poder trabalhar em mais aplicações do tipo! Espero que todos aproveitem ! #datasciencehashtag#machinelearninghashtag#dataanalyticshashtag#artificialintelligencehashtag#analyticshashtag#bigdatahashtag#datamininghashtag#datamodelinghashtag#engineeringhashtag#iahashtag#chemicalengineeringhashtag#engenhariaquimicahashtag#engenhariadeprocessoshashtag#qualidadehashtag#quality
- Categoria(s): ciencia de dados Ícaro Augusto Machine learning