Sebbene lo sviluppo dell’intelligenza artificiale (IA) stia avanzando rapidamente, le GMP non riescono a tenere il passo. L’integrazione dell’AI nei processi conformi alle GMP è quindi impegnativa, poiché gli adeguamenti normativi vengono implementati più lentamente.
Dal lato europeo, il gruppo di lavoro DACH della International Society for Pharmaceutical Engineering (ISPE) ha sviluppato un modello di maturità dell’AI per la valutazione e la convalida dei sistemi di AI [1]. Questo supporta l’industria farmaceutica nello sviluppo di linee guida per la valutazione del rischio e ne assicura la qualità. Inoltre, il modello descrive la maturità di un sistema di AI e la sua capacità di prendere decisioni autonome e valuta quanto bene il sistema possa controllare i processi e prendere decisioni autonome, con l’obiettivo di garantire la qualità e la sicurezza del paziente. Infine, comprende una matrice bidimensionale per misurare la maturità di un sistema di AI e stabilisce le misure di convalida necessarie.
Figura 1: Fondamenti della convalida dell’AI, adattato da [1]
Il modello di maturità dell’IA suddivide i sistemi di IA in livelli di convalida che richiedono diverse misure di controllo. Questi livelli di convalida aiutano a classificare i sistemi di IA in base al profilo di rischio e a definire le misure necessarie.
Livelli di convalida dell’IA nell’industria farmaceutica
- Livello di convalida I: Nessuna qualità del prodotto, sicurezza del paziente o integrità dei dati compromessa; la convalida formale non è necessaria, il fattore umano rimane importante.
- Livello di convalida II: Applicazioni che non si basano sull’apprendimento automatico; i risultati sono deterministici e possono essere convalidati tradizionalmente.
- Livello di convalida III: Sistemi con Machine Learning o Deep Learning che richiedono addestramento. La convalida comprende misure specifiche per l’AI per garantire l’integrità e la qualità dei dati.
- Livello di convalida IV: Applicazioni con alta autonomia che richiedono monitoraggio continuo e metriche di prestazione regolari per garantire la qualità del modello.
- Livello di convalida V: Sistemi che controllano in modo più ampio il processo di produzione; sono necessari test regolari e monitoraggio del sistema.
- Livello di convalida VI: Sistemi auto apprendenti che attualmente non hanno un concetto di convalida stabilito e rappresentano sfide normative.
Un processo di convalida completo combina diverse discipline come Data Science, apprendimento automatico, statistica, ingegneria di processo e conformità alle GMP per garantire l’applicabilità di un algoritmo di Artificial Intelligence. Il processo proposto da VTU comprende tre fasi per i sistemi di AI del livello di convalida III.
Figura 2: Proposta di convalida per un algoritmo di AI con bassa autonomia (livello di convalida III) (Fonte: VTU)
- Valutazione della qualità dei dati per garantire che i set di dati siano rappresentativi e privi di distorsioni.
- Analisi della struttura del modello per soddisfare i requisiti di produzione e catturare relazioni complesse.
- Metodi di convalida per valutare l’accuratezza delle previsioni, comprese metriche come accuratezza e precisione, per garantire l’affidabilità dei modelli di AI.
Questo approccio di convalida serve come guida per varie applicazioni di AI, in particolare nel monitoraggio e controllo dei processi. Una convalida approfondita è la base per l’integrazione delle tecnologie di AI in settori regolamentati come l’industria farmaceutica.
Conclusione
L’industria altamente regolamentata riconosce sempre più il potenziale dell’AI per aumentare l’efficienza e migliorare la qualità. Nonostante i progressi, il rispetto delle GMP rimane centrale. La collaborazione tra industria e autorità, come l’FDA, evidenzia l’obiettivo comune di sviluppare e implementare tecnologie di AI che soddisfino i più alti standard. È responsabilità dell’industria garantire che le applicazioni di AI non siano solo efficaci, ma anche sicure e conformi.
Riferimento
- [1] Erdmann, N., Blumenthal, R., Baumann, I., Kaufmann, M. AI Maturity Model for GxP Application: A Foundation for AI Validation. Pharmaceutical Engineering, March/Apr 2022.