Nel settore chimico-farmaceutico e affini, l’innovazione si sta traducendo nella necessità di confrontarsi con l’adozione di tecnologie all’avanguardia tra le quali figurano in prima linea i sistemi di Intelligenza Artificiale (IA). Questa spinta all’innovazione ha subìto una forte accelerazione nell’era del post-covid tanto che l’uso dell’intelligenza artificiale è stato accolto con grande attenzione da tutti i settori più strategici dell’industria che hanno la necessità di migliorare le loro previsioni, aumentare il grado di controllo dei processi di produzione e ottimizzare le risorse, contribuendo al conseguimento di risultati vantaggiosi in termini di qualità e di business. La riflessione più importante che il mondo farmaceutico sta maturando in merito a queste tematiche riguarda l’aderenza ai regolamenti, i quali oggi afferiscono a criteri obsoleti che necessitano di essere rivoluzionati. Tenendo conto della grandissima varietà di piattaforme e tecnologie disponibili, il reale rischio che il mondo farmaceutico non vuole correre è che l’evoluzione tecnologica preceda i regolamenti in vigore lasciando i processi di gestione e controllo scoperti ed esposti a rischi per il prodotto e la salute del paziente finale.

L’industria farmaceutica si trova di fronte alla sfida di accettare questo cambiamento, affrontare i rischi e stabilire un piano di crescita nella maturità aziendale per l’implementazione dei sistemi di IA. Per questo motivo è necessario che ogni organizzazione stabilisca un piano di crescita della maturità aziendale nell’implementazione dei sistemi di AI, ponendo davanti a sé le seguenti questioni:

  • L’organizzazione ha introdotto o analizzato le figure e le competenze che possono supportare l’introduzione di nuove tecnologie?
  • L’organizzazione ha esplorato i partner che in questo momento stanno offrendo la possibilità di adottare nuove tecnologie?
  • L’organizzazione ha un piano di adeguamento tecnologico verso cui misurare il suo progresso tecnologico?

Intelligenza artificiale: l’attuazione del modello e l’approccio basato sul rischio

È di fondamentale importanza ricordare che non esistono sistemi di IA “ready-to-use”. L’intelligenza artificiale sfrutta i dati generati e raccolti in tanti modi durante le numerose iterazioni dei processi produttivi. I dati variano da azienda ad azienda e, di conseguenza, gli algoritmi di Machine Learning (ML) saranno ogni volta diversi. Essendo i sistemi di IA basati su algoritmi custom, non è possibile applicare i normali principi del ciclo di vita di un software e, anche il concetto di convalida tradizionale, non può soddisfare il rilascio di un sistema di IA. La sfida è garantire che gli algoritmi siano sviluppati adattandosi agli ambienti regolamentati dalle GxP.

L’approccio per lo sviluppo e il rilascio di una rete neurale può essere suddiviso nelle seguenti fasi:

1 . Identificare il problema da risolvere (es. ispezione visiva per specifiche difettosità)

2. Acquisire una quantità sufficiente di dati

3. Creare un dataset ben organizzato e privo di bias,

4. Etichettare/annotare meticolosamente i dati secondo precise linee guida. Durante questa fase è necessario verificare e validare le annotazioni ed eventuale ri-annotazioni dei dati, qualora l’AI non dovesse leggerli correttamente

5. Scegliere la funzione di deep learning più appropriata

6. Addestrare il modello

7. Valutare il modello.

Per eseguire le attività 5 e 6 e è necessario che il dataset sia suddiviso in 3 set di dati

  1. training set, utilizzato per l’addestramento del modello. Il processo di addestramento consiste nel presentare ripetutamente alla rete gli ingressi di addestramento disponibili, misurare per ognuno la differenza tra l’uscita desiderata e quella effettiva, e modificare di conseguenza i pesi associati alle varie connessioni. Dopo una serie più o meno numerosa di cicli di elaborazione la rete dovrebbe produrre un output corretto anche per ingressi che non siano mai stati precedentemente visti dalla rete.
  2. validation set separato dal training set ed usato per la validazione del modello. Dopo l’addestramento dobbiamo mettere alla prova la rete e scoprire con quale efficienza ha imparato a risolvere il problema.
  3. test set, separato dai primi due e non etichettato per verificare la sua abilità di predizione in un contesto “sconosciuto”, cioè con dati che non sono stati utilizzati durante l’apprendimento, permette quindi di verificare quanto il modello sia in grado di generalizzare ciò che ha appreso dai nuovi dati

8. Rilasciare il modello ed eseguire le prove in macchina: l’ultima fase riguarda l’installazione della rete neurale addestrata nell’hardware selezionato per testarne le prestazioni e raccogliere i dati sul campo. Le poche fasi iniziali dell’inferenza dovrebbero essere utilizzate idealmente sul campo per raccogliere ulteriori dati di test che possono essere utilizzati come dati di addestramento per le iterazioni future.

9. Eseguire il monitoraggio

Le fasi descritte sopra devono essere valutate per i fattori di rischio che porterebbero, ecco perché l’analisi dei rischi è il fattore di successo per la produzione di un algoritmo ben addestrato. I fattori di rischio identificati nei sistemi di IA possono essere sinteticamente descritti come segue:

  • L’esperienza: un ruolo importante è quello dell’AI trainer. La presenza umana è un fattore indispensabile, soprattutto in fase di addestramento. Pertanto, questo ruolo dovrà essere introdotto all’interno dei reparti di ingegneria del software.
  • Overfitting: le reti neurali hanno la capacità di adattarsi a una varietà di set di dati complessi. A volte, questo grande vantaggio può diventare un punto di debolezza chiamato overfitting; situazione in cui la rete neurale è così adattata al set di addestramento che è difficile generalizzare e fare previsioni per nuovi dati.
  • Underfitting: è uno scenario in cui la rete non è in grado di cogliere la relazione tra le variabili di input e di output in modo accurato, generando un elevato tasso di errore sia sul set di addestramento che sui dati non visti. Una strategia di prevenzione logica di questo evento consisterebbe nell’aumentare la durata dell’addestramento o nell’aggiungere più input pertinenti, naturalmente questo aspetto deve essere equilibrato per non causare overfitting.
  • Bias: un algoritmo che produce output sistematicamente distorti a causa di false ipotesi fatte durante il processo di apprendimento è noto come bias.
  • Quantità e tipologia di dati: L’addestramento è un processo che richiede set di dati efficaci, scelti in funzione della specifica applicazione. Se la rete neurale dimostra di non apprendere nel modo atteso, è probabile che i dati forniti non contengano le informazioni rilevanti per il risultato che si vuole ottenere. Il risultato sarà analogamente insoddisfacente anche nel caso in cui non si siano forniti abbastanza dati per completare l’addestramento della rete neurale.

A causa di questi e molteplici altri rischi, la Commissione europea ha pubblicato la proposta di un regolamento sull’approccio europeo all’intelligenza artificiale, un documento in cui vengono valutati i rischi connessi a questo strumento con l’obiettivo di “salvaguardare la sicurezza degli utenti”.

Perché è necessario rilanciare un nuovo approccio alla CSV e cosa comporta l’uso dell’intelligenza artificiale?

La convalida dei sistemi computerizzati (CSV) è tradizionalmente definita “un processo sistematico basato su evidenze documentate atte a dimostrare che un software funziona secondo le specifiche previste e le aspettative degli enti regolatori”. Per aderire a questa definizione, nel caso dei sistemi di AI è necessario definire l’ambito di applicazione delle nuove regole concernenti lo sviluppo, l’immissione sul mercato, la messa in servizio e i processi di supporto e monitoraggio per l’utilizzo di sistemi di IA. In linea con un approccio basato sul rischio, tali sistemi di IA possono essere utilizzati subordinatamente al rispetto di determinati requisiti che possono comportare un rischio per il prodotto, la salute e la sicurezza del paziente finale. Inoltre, l’utilizzo dei sistemi di IA deve essere supportato da un monitoraggio periodico e un sistema di segnalazione di incidenti e malfunzionamenti sia da parte delle organizzazioni sia per i fornitori di sistemi di IA.

AI Maturity Model?

La validazione dei sistemi computerizzati ormai da molti anni è strutturata analizzando le caratteristiche del software secondo la classificazione GAMP5, passando dalla categoria I alla categoria V il livello di complessità del software cresce e l’approccio alla convalida diviene più complesso, richiedendo uno sforzo maggiore prima del rilascio. Oggi questo standard non può essere più applicato ai sistemi di IA perché non fornisce indicazioni per la convalida di algoritmi addestrati di intelligenza artificiale.

Per questo motivo ISPE ha sviluppato un modello che pone le prime basi per una metodologia di convalida specifica per i sistemi di IA e descrive le fasi da percorrere prima di rilasciare un algoritmo idoneo per lo scopo cui è destinato.

Il livello di validazione è la combinazione di due fattori in una matrice bidimensionale:

  1. Control design: la capacità di controllo del processo anche legata al livello di automazione. Gli stadi crescono progressivamente da quello dove l’intervento dell’essere umano è sempre presente fino ad uno stato di correzione in totale autonomia;
  2. Autonomy: la capacità di eseguire autonomamente degli aggiornamenti e migliorare autonomamente le sue performance. Gli stadi crescono progressivamente da quello in cui l’algoritmo è congelato e non si aggiorna se non attraverso un retraining da parte dell’essere umano, a quello dove l’algoritmo diviene autonomo nell’apprendimento.

La matrice è così composta:

I livelli complessivi sono sei:

  1. Livello I: non richiede alcuni tipo di convalida;
  2. Livello II: il sistema richiede la convalida di un tipico sistema computerizzato e non è focalizzata sul sistema AI;
  3. Livello III: richiede: il razionale della selezione del modello, l’addestramento e la verifica, il monitoraggio e una procedura di retraining;
  4. Livello IV: i requisiti sopra devono essere soddisfatti e, in aggiunta, il monitoraggio, il controllo dei KPI e la validazione del fattore umano;
  5. Livello V: i requisiti sopra devono essere soddisfatti e, in aggiunta, un retest periodico, una assicurazione del processo di self learning e un controllo di tipo a campione sono necessari;
  6. Livello VI: il concetto di validazione non è ancora disponibile, in quanto necessita di una strategia di controllo del continuous learning.

Conclusioni

Oggi certamente si può escludere che i sistemi di IA abbiano autonomia per esercitare le loro funzioni, tutto quello che un algoritmo addestrato potrà fare dovrà essere verificato, monitorato e, ove necessario, riaddestrato dall’essere umano. Il fattore chiave è quindi quello delle competenze professionali, non sarà possibile perseguire un obiettivo di sviluppo senza le skill adeguate. Inoltre, si manifesta urgente l’esigenza di dimostrare questioni importanti quali: un elevato livello di protezione dei dati e della proprietà dell’informazione. Nonostante i limiti evidenziati in precedenza, i vantaggi potenziali provenienti dai sistemi di IA superano gli aspetti negativi. È fondamentale investire nelle competenze professionali, dimostrare elevati standard di protezione dei dati e adottare regolamenti adeguati a garantire il successo e la sicurezza nell’implementazione dei sistemi di IA.