a cura di Gabriella Di Stefano - IT Compliance Business Team Lead, Akkodis

L’intelligenza artificiale (di seguito IA) è ormai entrata nei contesti GxP rompendo l’equilibrio storico tra innovazione e regolamentazione. Per la prima volta, il settore Lifescience si trova a governare modelli che apprendono ed evolvono. In questo contesto nasce il draft dell’Annex 22 come opportunità di definire un quadro regolatorio per l’impiego dell’IA nel settore farmaceutico. Il draft adotta un approccio intenzionalmente prudente, limitando il proprio ambito di applicazione ai modelli di IA cosiddetti statici, ossia sistemi che, una volta messi in esercizio, non modificano nel tempo le proprie prestazioni. In altre parole, si escludono i modelli di “Generative AI” e “Large Language Models”, considerati più difficili da controllare in quanto per natura stessa probabilistici.

Questo assunto è coerente con i requisiti di validazione già presenti nello scopo del vigente Annex 11, nel quale la priorità è sempre stata la riproducibilità del risultato. Dal punto di vista tecnologico, l’Annex 22 tuttavia intercetta solo una porzione limitata dell’AI oggi impiegata in numerosi contesti industriali. Molti modelli considerati maturi sono intrinsecamente probabilistici ma dentro l’Annex 22 l’affidabilità deve privilegiare la riproducibilità dell’output, lasciando in secondo piano la possibilità di scegliere un modello differente.

Il ciclo di vita dell’AI secondo l’Annex 22

Il capitolo 2 – principles è quello più solido dal punto di vista GMP nel suo complesso, ma tratta l’IA come un’estensione evoluta dei sistemi computerizzati, ribadendo i principi cardine della cooperazione tra esperti, della necessità di documentare e adottare un approccio di tipo risk based. Sarebbe utile spostare il baricentro di questo capitolo dai principi ormai consolidati delle GMP agli elementi distintivi dell’IA, evitando di ribadire concetti già ampiamente coperti dall’ Annex 11, dall’ICH Q9 e dalle linee guida più note. Nel capitolo 3 – Intended use, l’elemento qualificante è l’introduzione del modello Human‑in‑the‑Loop (HITL), che riafferma il principio secondo cui l’IA non deve operare in autonomia nei processi critici. La supervisione umana è qui introdotta come strumento di responsabilità ancora da delineare ma efficace per la mitigazione dei rischi.

I capitoli 4 e 5 dedicati rispettivamente ai criteri di accettazione e dati di test rappresentano la parte più concreta del draft, ma evidenziano il divario tra la semplicità richiesta dal framework regolatorio e la complessità statistica dei modelli di IA. L’enfasi sulle metriche, sulla rappresentatività del campione e confidenza statistica sui sottogruppi definisce obiettivi metodologicamente corretti, ma spesso difficili da realizzare nella pratica. Sarà necessario tradurre tali principi in scelte documentate e difendibili, privilegiando un approccio scientifico, piuttosto che una completezza formale fine a sé stessa. Il capitolo 7 – Test execution rappresenta, per certi versi, il punto di contatto più diretto tra il paradigma della validazione GMP tradizionale e il ciclo di vita dei modelli AI. È un capitolo che contiene assunzioni forti su cosa significhi testare un modello AI. Il testing dell’AI non potrà limitarsi alla sola dimostrazione delle prestazioni iniziali.

Il capitolo 10 – Operation riconosce infatti che la conformità dell’AI deve essere mantenuta lungo l’intero ciclo di vita operativo. In questo senso l’inclusione dei modelli nel regime di change control è concettualmente corretta e allineata con l’Annex 11 ma sarà necessario stabilire quando un cambiamento apparentemente marginale nel modello, nel sistema o nel contesto di utilizzo richiederà un retest parziale o totale. Particolarmente rilevanti sono infine i capitoli8 – Explainabilitye 9 – Confidence che segnano l’evoluzione concettuale più importante: l’AI viene valutata non solo per ciò che decide, ma anche per come spiega le proprie decisioni, per come riconosce l’incertezza e per come si comporta nel tempo. Sarebbe opportuno, tuttavia, ricordare che il comportamento dei modelli di IA non è completamente comprensibile e controllabile e questi strumenti di Explainability e Confidence migliorano l’osservabilità del sistema, ma non eliminano la loro complessità intrinseca.

Conclusioni

In conclusione, il draft dell’Annex 22 è un ostacolo all’adozione dell’intelligenza artificiale, bensì un primo quadro di riferimento volto a garantire una governabilità coerente con tutti i principi GMP esistenti. La versione finale andrà a preservare il principio di qualità come elemento fondante, ma dovrà integrare in modo più incisivo le specificità dei sistemi di IA contemporanei. In questa prospettiva, si auspica che l’Annex 22 possa diventare uno strumento regolatorio capace di accompagnare l’intero ciclo di vita dei modelli di IA, favorendone un utilizzo responsabile, scientificamente solido e sostenibile nel tempo.