Con gli strumenti di analisi dei dati, si possono scoprire relazioni nascoste tra i parametri di processo. Ma non bisogna pensare che siano progetti irrealizzabili: coloro che iniziano con piccoli passi creano una solida base per progetti più sfidanti.
Ne sa qualcosa VTU ENGINEERING, società di ingegneria che opera nel settore pharma e chimico, che grazie al suo team di tecnici più esperti ha portato avanti progetti di Data Analitics, rendendole esperienze di successo.

Gli impianti di processo sono generalmente automatizzati e generano un’enorme quantità di dati sulle variabili di processo (temperature, portate, livelli di riempimento, pressione ecc.), Data-entry manuali, LIMS ecc. Da questo, è possibile identificare semplici relazioni tra due o tre parametri utilizzando linee di tendenza, ma non è possibile un’analisi più approfondita. L’analisi dei (big) data consente informazioni più profonde e crea nuove connessioni. I metodi di Data Analitics possono talvolta raggiungere una notevole efficienza con poco sforzo.

Dai dati per l’analisi al Machine Learning

In un primo step i dati provenienti da diverse aree vengono abbinati l’uno all’altro, ad esempio tramite numeri di lotto univoci e timestamp. Può trattarsi di dati provenienti da aree di produzione completamente separate in termini di automazione, o da diversi livelli di automazione di un sistema: PLC, PCS, MES, ERP. Inoltre, provvisoriamente possono essere installati strumenti di misura aggiuntivi, i cui valori vengono registrati separatamente – oggigiorno è molto facile da fare in modalità wireless. Anche le registrazioni manuali di un book di produzione, analisi di laboratorio, ecc. devono essere trasferite in una banca dati con una marcatura temporale uniforme. Nella fase successiva, questi dati vengono analizzati con una sofisticata pulizia dei dati, moderni algoritmi di apprendimento automatico e visualizzazioni significative. Sebbene i moderni strumenti di analisi dei dati forniscano funzioni di supporto per questa pulizia, questa rimane spesso la parte più complessa dell’analisi. Quindi gli algoritmi prevedono importanti valori target per una produzione in modalità di autoapprendimento e tutti gli utenti sono consapevoli delle relazioni tra i valori target e gli altri parametri e dati di produzione.

Basse rese nella fermentazione

Un’azienda farmaceutica si è trovata ad ottenere rese inferiori di un bioreattore che faceva parte di tre fermentatori identici utilizzati alle stesse condizioni controllate. Poiché il team operativo non è riuscito a trovare la causa nonostante gli esami approfonditi, i dati di produzione e di processo sono stati valutati offline con l’algoritmo di machine learning “Random Forest”: questo analizza simultaneamente l’influenza dei vari parametri di produzione sulla resa dei tre fermentatori.

La chiara influenza del valore della temperatura del substrato del parametro (temp_Sub1) sulla resa è stata inaspettata dal punto di vista dell’ingegneria di processo, poiché tali fluttuazioni si sono verificate solo molto sporadicamente. Ispirato da queste nuove informazioni, un ingegnere di processo ha esaminato più da vicino l’isolamento di una linea di alimentazione, dove ha scoperto un’anomalia che ha influenzato la temperatura del sottosuolo e di conseguenza anche il rendimento. Con un isolamento nuovo il problema è stato facilmente risolto.

Questo è uno degli esempi più impressionanti di collaborazione tra esperti di processo ed esperti di dati. Perché prima dell’analisi, gli esperti in materia non avevano avuto successo, né tantomeno gli esperti di dati avrebbero potuto risolvere il problema trovando il guasto nell’isolamento solo con gli algoritmi, ma insieme il problema è stato risolto rapidamente. Uno sforzo di circa 80 ore ha reso questo caso un’esperienza di successo.

Autori:

Stefan Pauli, Senior Data Scientist, VTU Engineering Gmbh
Rudi Wierer, General Manager, VTU Engineering Italia