Manutenzione Predittiva: il ruolo del machine learning e dei gemelli digitali
Mattia Vallerio - AIDIC - Associazione Italiana Di Ingegneria Chimica
Negli ultimi anni, l'industria di processo ha assistito a una crescente adozione di tecnologie avanzate di monitoraggio e analisi dei dati per ottimizzare le operazioni e migliorare l'affidabilità delle apparecchiature critiche.
Il passaggio dai metodi di manutenzione reattivi a quelli predittivi o proattivi è stato guidato dalla necessità di minimizzare i fermi impianto non pianificati, ridurre i costi di manutenzione e allungare la vita operativa delle apparecchiature.
Al contempo, l'evoluzione di algoritmi di machine learning, e modelli di simulazione sempre più sofisticati ha consentito di
sviluppare strumenti noti come gemelli digitali (Digital Twins), in grado di apprendere, rappresentare e prevedere il comportamento di sistemi complessi.
Questi strumenti sono sempre più integrati nelle strategie di monitoraggio delle condizioni e rilevamento di anomalie, con l'obiettivo di garantire operatività, sicurezza e redditività ottimali di impianti e processi industriali.
Tuttavia, per raccogliere appieno i benefici di queste tecnologie, è fondamentale anche un'adeguata gestione del cambiamento (change management) all'interno dei dipartimenti di manutenzione e delle organizzazioni nel loro complesso.
Senza una strategia strutturata che coinvolga competenze, ruoli e processi, infatti, l'innovazione rischia di essere vanificata o
di non esprimere tutto il suo potenziale.
In questo contesto, l'adozione di un approccio olistico, in cui la dimensione tecnica e quella organizzativa procedono di pari passo, rappresenta la vera chiave di successo.
Spesso commercializzato come manutenzione predittiva, l'obiettivo è mantenere le apparecchiature critiche operative il più a lungo possibile, anticipando la necessità di riparazioni (aumento dell'affidabilità e riduzione delle fermate impreviste). Se le apparecchiature vengono gestite fino al guasto e il tempo all'evento viene registrato, si possono utilizzare distribuzioni di vita utile e analisi di sopravvivenza per la previsione.
Tuttavia il limite nel tentare di applicare questo approccio è che, fortunatamente, queste apparecchiature critiche sono progettate e mantenute per evitare fermi imprevisti. Pertanto, un obiettivo più ragionevole è il cosiddetto ilevamento di anomalie o monitoraggio delle condizioni, che favorisce la scoperta o l'avviso precoce di operazioni insolite. Esistono tre metodi principali per monitorare le condizioni con metodi avanzati:
- Approccio basato sui dati: statistica o machine learning
- Approccio basato su principi primi
- Approccio basato sull'analisi delle reti
Approccio basato sui dati: statistica o machine learning
Invece di tracciare singolarmente le serie temporali su grafici di controllo, un passo comune è monitorare le variabili correlate. Ciò che è importante in questo approccio è disporre di metodi robusti per la riduzione della dimensionalità, il clustering e la regressione, in grado di gestire i potenziali valori anomali e le non linearità che si riscontrano spesso nei set di dati (ad es. fermate pianificate).
Le tecniche di riduzione della dimensionalità come PCA o PLS (nel caso di regressione) sono ampiamente utilizzate per l'analisi, il monitoraggio e il controllo multivariato di processo [1-4]. Allo stesso modo, nel machine learning l'idea di base è creare un modello con dati storici-che si assume rappresentino l'operazione normale-così da attivare un allarme o un'allerta di anomalia quando si verifica qualcosa di precedentemente sconosciuto.
Questi modelli, che apprendono il comportamento abituale dell'apparecchiatura, sono spesso commercializzati come gemelli digitali, digital wins, i quali, se sufficientemente accurati, possono essere impiegati anche per l'ottimizzazione di processo.
Dalle carte di controllo univariate ai grafici più complessi (vedere Fig. 1 nel PDF), la tecnologia attuale è in grado di fornire queste visualizzazioni in dashboard interattive, che possono essere aggiornate regolarmente o in tempo reale.
Anche i metodi classici di controllo statistico di processo, spesso trascurati perché non molto recenti, dovrebbero essere tenuti in considerazione come potenti strumenti per fornire statistiche descrittive e semplificare il processo decisionale quotidiano nelle operazioni, con uno sforzo tecnologico relativamente basso. Ad esempio, in Fig. 1 i grafici diagnostici per il controllo multivariato basato su PCA sono in grado di identificare un salto a gradino nel flusso di un reagente in un reattore.
Ciò influisce su molte variabili dell'impianto di processo analizzato, caso studio del processo Tennessee Eastman, che vengono riportate entro i limiti di controllo originali, ad eccezione della variabile di flusso del reagente chimico A, dove è stato introdotto il salto a gradino (i dettagli si trovano nei riferimenti [5-6]).
Metodologie più complesse comprendono per esempio l'uso dei metodi di machine learning. Il principale vantaggio di queste tecniche all'avanguardia risiede in una migliore separazione (riduzione della dimensionalità) e classificazione (clustering) degli eventi quando si tratta di processi multivariati non stazionari. Tuttavia, se i processi sono sotto controllo, le tecniche basate su PCA/PLS forniscono risultati più rapidi, meno complessi e più interpretabili (ad es. comprendere i contributi delle variabili in sistemi linearizzati).
Sono stati inoltre esplorati gli Isolation Forest per rilevare e spiegare le fonti di anomalie nei dataset industriali [11]. Maggiori dettagli su questi metodi e su come implementari si possono reperire in [7], dove vengono riportati esempi recenti che mostrano la visualizzazione di processi chimici industriali sia con approcci classici (PCA e PLS) sia con tecniche più recenti e potenti di machine learning (in particolare UMAP [8] e HDBSCAN [9,10]).
Tra queste metodologie recenti, una degna di nota è rappresentata dagli autoencoder
Continua nel PDF
sviluppare strumenti noti come gemelli digitali (Digital Twins), in grado di apprendere, rappresentare e prevedere il comportamento di sistemi complessi.
Questi strumenti sono sempre più integrati nelle strategie di monitoraggio delle condizioni e rilevamento di anomalie, con l'obiettivo di garantire operatività, sicurezza e redditività ottimali di impianti e processi industriali.
Tuttavia, per raccogliere appieno i benefici di queste tecnologie, è fondamentale anche un'adeguata gestione del cambiamento (change management) all'interno dei dipartimenti di manutenzione e delle organizzazioni nel loro complesso.
Senza una strategia strutturata che coinvolga competenze, ruoli e processi, infatti, l'innovazione rischia di essere vanificata o
di non esprimere tutto il suo potenziale.
In questo contesto, l'adozione di un approccio olistico, in cui la dimensione tecnica e quella organizzativa procedono di pari passo, rappresenta la vera chiave di successo.
Spesso commercializzato come manutenzione predittiva, l'obiettivo è mantenere le apparecchiature critiche operative il più a lungo possibile, anticipando la necessità di riparazioni (aumento dell'affidabilità e riduzione delle fermate impreviste). Se le apparecchiature vengono gestite fino al guasto e il tempo all'evento viene registrato, si possono utilizzare distribuzioni di vita utile e analisi di sopravvivenza per la previsione.
Tuttavia il limite nel tentare di applicare questo approccio è che, fortunatamente, queste apparecchiature critiche sono progettate e mantenute per evitare fermi imprevisti. Pertanto, un obiettivo più ragionevole è il cosiddetto ilevamento di anomalie o monitoraggio delle condizioni, che favorisce la scoperta o l'avviso precoce di operazioni insolite. Esistono tre metodi principali per monitorare le condizioni con metodi avanzati:
- Approccio basato sui dati: statistica o machine learning
- Approccio basato su principi primi
- Approccio basato sull'analisi delle reti
Approccio basato sui dati: statistica o machine learning
Invece di tracciare singolarmente le serie temporali su grafici di controllo, un passo comune è monitorare le variabili correlate. Ciò che è importante in questo approccio è disporre di metodi robusti per la riduzione della dimensionalità, il clustering e la regressione, in grado di gestire i potenziali valori anomali e le non linearità che si riscontrano spesso nei set di dati (ad es. fermate pianificate).
Le tecniche di riduzione della dimensionalità come PCA o PLS (nel caso di regressione) sono ampiamente utilizzate per l'analisi, il monitoraggio e il controllo multivariato di processo [1-4]. Allo stesso modo, nel machine learning l'idea di base è creare un modello con dati storici-che si assume rappresentino l'operazione normale-così da attivare un allarme o un'allerta di anomalia quando si verifica qualcosa di precedentemente sconosciuto.
Questi modelli, che apprendono il comportamento abituale dell'apparecchiatura, sono spesso commercializzati come gemelli digitali, digital wins, i quali, se sufficientemente accurati, possono essere impiegati anche per l'ottimizzazione di processo.
Dalle carte di controllo univariate ai grafici più complessi (vedere Fig. 1 nel PDF), la tecnologia attuale è in grado di fornire queste visualizzazioni in dashboard interattive, che possono essere aggiornate regolarmente o in tempo reale.
Anche i metodi classici di controllo statistico di processo, spesso trascurati perché non molto recenti, dovrebbero essere tenuti in considerazione come potenti strumenti per fornire statistiche descrittive e semplificare il processo decisionale quotidiano nelle operazioni, con uno sforzo tecnologico relativamente basso. Ad esempio, in Fig. 1 i grafici diagnostici per il controllo multivariato basato su PCA sono in grado di identificare un salto a gradino nel flusso di un reagente in un reattore.
Ciò influisce su molte variabili dell'impianto di processo analizzato, caso studio del processo Tennessee Eastman, che vengono riportate entro i limiti di controllo originali, ad eccezione della variabile di flusso del reagente chimico A, dove è stato introdotto il salto a gradino (i dettagli si trovano nei riferimenti [5-6]).
Metodologie più complesse comprendono per esempio l'uso dei metodi di machine learning. Il principale vantaggio di queste tecniche all'avanguardia risiede in una migliore separazione (riduzione della dimensionalità) e classificazione (clustering) degli eventi quando si tratta di processi multivariati non stazionari. Tuttavia, se i processi sono sotto controllo, le tecniche basate su PCA/PLS forniscono risultati più rapidi, meno complessi e più interpretabili (ad es. comprendere i contributi delle variabili in sistemi linearizzati).
Sono stati inoltre esplorati gli Isolation Forest per rilevare e spiegare le fonti di anomalie nei dataset industriali [11]. Maggiori dettagli su questi metodi e su come implementari si possono reperire in [7], dove vengono riportati esempi recenti che mostrano la visualizzazione di processi chimici industriali sia con approcci classici (PCA e PLS) sia con tecniche più recenti e potenti di machine learning (in particolare UMAP [8] e HDBSCAN [9,10]).
Tra queste metodologie recenti, una degna di nota è rappresentata dagli autoencoder
Continua nel PDF

Fonte: La Termotecnica marzo 2025
Settori: Termotecnica industriale
Mercati: Manutenzione industriale
Parole chiave: Termotecnica
- Pierangelo Andreini
- BRUGG Pipe Systems
- ARI Armaturen Italia Srl & C.